free web hosting | free hosting | Business Hosting | Free Website Submission | shopping cart | php hosting

 

 

 

 

                             VI.  Aspetti strutturali, sistemici e fenomenici

 

 

                            6.1 Il pensare antropico e l’essere cosmico           

            

      Noi filosofi “non sappiamo” affatto (il “sapere” lasciamo ai teologi) se le teorie e i modelli della fisica contemporanea esprimano la “realtà” del cosmo. L’unica cosa che sappiamo è che a tutt’oggi essi paiono plausibili, matematicamente fondati e confermati dai dati sperimentali. La struttura cosmica è un puzzle assai complicato di cui possediamo ora buona parte dei pezzi, ma ce ne mancano altri molto importanti. Il grande fisico Richard Feynman ci dice a proposito di ottime teorie  “pensate” ma prive di verifiche sperimentali: «Non importa che l’ipotesi sia bellissima, né importa quanto geniale sia chi l’ha proposta, e neppure il mio nome ha importanza: se è in disaccordo con l’esperienza, è sbagliata.» [791]  Esistere la verità scientifica? No! E non si deve perciò mai inventarla! Non avremmo più scienza ma solo metafisica e uno scientismo già seppellito  Vi sono però acquisizioni della scienza sufficientemente confermate quali plausibili “adeguamenti al reale”. È in tal senso che un’affermazione scientifica si può dire “oggettiva” quando possiede un “carattere di universalità inter-soggettiva”; ciò non tanto nel senso che siano moltissimi a crederla vera, bensì che sono pochissimi a poterla negare. Parliamo di affermazioni relative a “dati” e molto di rado concernenti “teorie”; poiché esse sono frutto del rapporto materia-materia (strumento-oggetto) che produce datità, mentre una teoria è spesso un mero “pensiero”. Un problema filosofico che produce l’ulteriore domanda: pensato o creduto? Ebbene, anche “pensato teorico” che appaia ragionevole è sempre a rischio d’esser solo un “creduto”, “così ben congegnato” e affascinante da apparire credibile ai più.

    L’epistemologo Bad van Fraassen ha fatto di questo problema un topos della sua riflessione, arrivando alla conclusione che non si riesce ad approvare con la ragione una teoria scientifica se non la si crede “vera”, ovvero “corrispondente” alla realtà. Egli vede infatti una commistione di fattori semantici (relativi a ciò che si deve intendere per verità) e di fattori epistemici (relativi alla validità della scienza) alla base dell’accettazione di una qualsiasi teoria. Entrambi i fattori caratterizzano un atteggiamento che privilegia un eccesso di concettualizzazione della scienza, recante direttamente a ciò che si indica spesso con realismo scientifico. Van Fraassen ritiene più utile un approccio che includa sempre elementi “empirici” a sostegno o a confutazione di quel pensato-teorizzato, proponendo un empirismo costruttivo che ponga come centrale il concetto di adeguatezza empirica. Questa dev’esser tale che, quali che siano gli enunciati della teoria, tutti i fenomeni reali che la riguardano siano “inclusi”, in modo che l’empiria legittimi la teoria.  D’altra parte i nostri modelli teorici non saranno mai “fotografie” della realtà, ma solo ”rappresentazioni”, anche quando corredate da elementi empirici (i dati) che le rendano accettabili. Sia il linguaggio descrittivo che quello matematico (ed ancor più tentativi di rappresentazione grafica) sono “strumenti” dell’homo sapiens per produr-si concretezza connotativa o esattezza numerica.

    Se noi guardiamo a fondo le teorie fisiche non faremo fatica ad accorgersi che il discrimine cognitivo è il livello energetico di riferimento, che corrisponde alle “distanze” esistenti tra gli enti considerati. Ciò che rende incompatibili la RelG e la MQ è il fatto che la prima si occupa di un ambito di macro-enti (come stelle e galassie) dispersi in spazi enormi e molto distanziati, mentre la seconda si occupa di micro-enti a distanze quasi nulle. È inoltre importante familiarizzare con due concetti fondamentali del conoscere: quello di “scala” e quello di “grana”, dove per scala si intende il pezzo di realtà preso in considerazione e per grana (grossa o fine) il livello di approfondimento che l’indagine si propone. Per capirci, non è che la fisica newtoniana sia falsa e quella einsteniana vera, ma semplicemente che differente è la scala di cui esse si occupano, concernendo due differenti ambiti di realtà, per cui esse diventano vere o false in ragione del “dove” le si applica. È il tipo di “approccio conoscitivo” rispetto a un certo tipo di informazione ad essere dirimente e c’è grande differenza tra un’informazione “limitata ma concreta” e una “generale ma astratta”.

    È in funzione delle modalità del procedere o del tipo di informazione da produrre che le teorie scientifiche si differenziano: un’idea generica di teoria scientifica senza far riferimento a una scala o a una grana ha poco senso. Se invece si ha chiaro il tipo di informazione a cui si mira (in funzione dell’utilizzo che se ne vuol fare), se ne definisce l’ambito di validità e la ricerca diventa concreta o “effettiva”. È allora l’effettività a far sì che in molti casi la scala e la grana finiscano per coincidere. L’epistemologa Elena Castellani nota:

 

Una “teoria effettiva” è una teoria che cattura in modo efficace (“effettivo”) ciò che è fisicamente rilevante in un determinato dominio. Alla base c’è un’idea molto naturale: la fisica di solito varia al valore della scala considerata. A valori molto diversi della scala, per esempio a valori molti diversi dell’energia, ciò che è fisicamente rilevante può cambiare notevolmente; il che equivale a dire, nel caso di un sistema fisico, che il sistema può apparire molto diverso a seconda che sia considerato da un punto di vista “a grana grossa” o da un punto di vista “a grana fine”. Ora, è in generale possibile descrivere un ambito limitato di fenomeni fisici senza dover tenere conto di tutto il resto nello stesso tempo. Su questo punto si fonda l’uso delle teorie effettive; lo scopo è proprio quello di raggiungere la descrizione più conveniente e appropriata della fisica rilevante in un dominio limitato. [792]

 

Siamo noi che “scegliamo” di che cosa occuparci nell’utilizzare una teoria, un po’ come con un cannocchiale si mette a fuoco un piccolo campo escludendo tutto il resto perché, hic et nunc, non ci interessa. Ci vuole senso analitico-critico per capire “a qual fine” si cerca di cogliere “effettivamente” un certo aspetto della realtà fisica, e siccome la filosofia “dilata” le considerazioni sulla realtà deve stare attenta a non “perdere il quadro”. Qualsiasi approccio conoscitivo che voglia calarsi nella realtà profonda deve limitare il proprio orizzonte, relativizzare la propria indagine; un’indagine è tanto più profonda quanto più limita il campo d’indagine e tanto più superficiale o astratta quando lo allarga. Il filosofo che intende accompagnarsi alla scienza deve essere consapevole che (poiché la filosofia tende per sua natura e fine ad allargare l’orizzonte della scienza) quanto più si attiene al dato tanto meno rischia di perdere di vista la realtà [793].  

    Il grande fisico Murray Gell-Mann ha messo bene a fuoco il problema relativamente alla MQ, precisando che in realtà le “storie dell’universo” sono differenti a seconda di che cosa si vuol conoscere [794]:

 

Per le storie dell’universo in meccanica quantistica, l’uso della grana grossa significa di norma che si considerano solo determinati aspetti in determinati tempi e solo fino ad un certo livello di dettaglio. Un storia a grana grossa può essere considerata un classe di storie alternative a grana fine, le quali concordano tutte su una particolare descrizione di ciò che si segue, ma differiscono circa tutti i possibili comportamenti di ciò che non si segue o in altri termini di ciò che viene “sommato”. [795]

 

Analiticità e sommarietà sono i concetti che il filosofo deve sempre tener presenti quando si appresta ad utilizzare un’informazione scientifica, poiché solo la consapevolezza della grana ne permette un utilizzo corretto. Nell’effettuare considerazioni filosofiche relativamente alla MQ va capito che la probabilità di una predizione nasce soltanto nel momento in cui si può cogliere l’emergere del dato “non-quantistico” di una particella elementare in quanto estratta per un istante dall’ambito a cui appartiene. Quando noi vogliamo “osservare” una particella è come se contaminassimo il mondo subatomico con uno strumento “nostro”, quindi macroscopico. Facciamo irruzione in una regione della realtà a cui non apparteniamo operando una violenza sulla condizione naturale della particella stessa,  che viene “portata fuori” dalla sua regione e trasferita nella nostra, cessando dall’essere coerente col “suo mondo”, sicché “decoerisce” dalle altre particelle e “salta” nella nostra regione per farsi osservare. L’abbiamo costretta a farlo per dirci qualcosa di sé, ma abbiamo “perso” definitivamente ogni altra informazione.

    Dobbiamo essere consapevoli che se noi veniamo a sapere qualcosa di un ente hyletico volendolo osservare, l’abbiamo costretto a decoerire dalla sua realtà, facendolo quasi-coerente alla “fisica classica”. In altre parole, da “quantistico” un oggetto non ci dice nulla di sé, da “quasi classico” (quando viene assoggettato a un meccanismo di decoerenza) ci dice qualcosa. Però Gell-Mann pensa che la decoerenza non concerna solo l’artificialità del nostro intervento osservativo, ma che possa essere considerata “reale” come “fase” dell’evoluzione espansiva dell’universo, che ha dato luogo a un “albero ramificato di storie cosmiche differenti”:

 

Sono tali meccanismi di decoerenza a rendere possibile l’esistenza del dominio quasi-classico comprendente l’esperienza ordinaria. Questo dominio è composto da storie a grana grossa decoerenti, che si può ritenere formino una struttura ad albero. In uno di suoi racconti Jorge Luis Borges descrisse una tale struttura come “giardino dei sentieri che si biforcano”. A ogni biforcazione si presentano possibilità alternative che si escludono reciprocamente. […]  La struttura ad albero prese forma, dando luogo a possibilità alternative, all’inizio dell’espansione dell’universo e subito dopo. Ogni ramo ben presto si suddivise a sua volta, generando nuove alternative, e così via indefinitamente. A ogni biforcazione le alternative si presentano con probabilità ben definite: tra esse non c’è alcuna interferenza quantica. [796]

 

Il Nostro si fa storiografo dell’universo per dirci che gli enti del mondo quantistico, ogni qual volta le alternative evolutive possibili (in conseguenza delle biforcazioni) si sono concretizzate in macro-entità “quasi classiche” (e perciò storicizzabili), hanno fatto la stessa cosa che noi verifichiamo “osservando”. Vale a dire che mentre la MQ descrive un mondo “senza tempo” (o “a tempo reversibile”) appena si verifica decoerenza cessa ogni interferenza quantistica tra gli enti che partecipano al processo e si crea freccia del tempo. Il concetto di quasi-classico può essere filosoficamente interpretato come ciò che “si affaccia “al nostro mondo (macroscopico, e soggetto alla fisica classica newtoniana) senza appartenervi  

    Emergono tre considerazioni filosofiche: 1. Il nostro universo è l’esito fisico di un metaforico albero delle probabilità; 2. le ramificazioni di tale albero, via via che nei 13,7 miliardi di anni si sono verificate, erano imprevedibili; 3. la regione subatomica della realtà fisica (RgP), descritta dalla MQ, è un ambito di enti indeterministici (e in parte persino indefiniti). Ogni volta che noi formuliamo su di essi qualcosa di deterministico (come fa l’equazione di Schrödinger) lo “estraiamo” dal suo ambito e lo “portiamo” nel nostro. Ciò facendo li rendiamo decoerenti con la loro realtà, per coglierne una pseudo-realtà artificiale a nostro uso e consumo e da ciò nasce la domanda fondamentale: in quale rapporto sta l’homo sapiens col cosmo? Che si può così precisare: in quale misura la mente dell’uomo è sintonica al cosmo e ad esso adeguata come conoscente-interpretante? Abbiamo cercato di contribuire alla risposta anche quando abbiamo considerato la matematica il linguaggio dei discreti cinetici che stanno nel cosmo, non strutturale ad esso. A noi pare che, anche su questo, qualsiasi travalicamento da un’auto-limitante filosoficità conduca irrimediabilmente alla filosofalità e la filosofalità è sempre contro la filosofia quale amore del conoscere.

    Presupposto della filosofalità è che siccome l’universo è frutto di un’Intelligenza, l’homo sapiens, possessore di intelligenza, è sintonico ad esso e in grado di penetrarne i segreti. Con la comparsa su questo pianeta di tale mammifero sarebbe successo un fatto miracoloso: una parte dell’Intelligenza cosmica che permeerebbe l’universo si sarebbe “calata e concretizzata” nell’encefalo di esso. Dato un universo “pensante”, o comunque creato-formato-pilotato dal Pensiero, il pensante umano, sintonico ed omogeneo al Pensante unitario-globale, non soltanto ha facoltà di conoscerlo ma ha come suo fine primario di arrivare a Lui e a Lui “unirsi”. E poiché la conoscenza dell’Intelligenza dell’Uno-Tutto è ratificata dall’esistenza della Struttura e della sintonia strutturale del pensiero umano, diventa diritto-dovere di tale “parte privilegiata” che ne gode di conseguirne la conoscenza sotto le specie della “verità”. Naturalmente tale convinzione nasce da  mera credenza ed è priva di alcuna base cognitiva, ma su questo tema ci siamo già diffusi altrove [797]. Importa sottolineare che noi dobbiamo riconoscere alla filosofalità legittimità “esistenziale” come espressione della libertà umana di conseguire omeostasi psichica, ma rimarcare la totale illegittimità “gnoseologica”.         

    L’homo sapiens soffre di questa presunzione e lo stesso esistere della metafisica la evidenzia; da ciò l’esistenza di una sostanziale “distonia relazionale “ tra lui e il cosmo e quindi tra i meschini orizzonti antropocentrici e la “cosmicità”. E ciò non tanto perché la nostra percezione dello spazio e del tempo si configuri come quelle intuizioni a priori che Kant nell’Estetica trascendentale (Cr. Rg. Pura, §§ 1-8) poneva giustamente alla base di ogni nostra percezione della realtà. Noi non possiamo, costitutivamente, essere sintonici con l’universo per fondamentali ragioni spazio-temporali, dimensionali ed energetiche. L’homo sapiens è infatti non solo condizionato dall’intenzionalità [798] quale meccanismo elementare della psiche, ma anche dalla falsa idea che, quale pensante, sia autorizzato a porre come vero ciò che “pensa” e ratifica attraverso strumenti logici. Egli può così giungere a pretendere vera la propria idea del mondo e respingere coma falsa la fenomenicità che il mondo rivela di sé. In altre parole: l’uomo “decide” che cosa sia l’universo!

    A causa di tale arroganza si alimenta ulteriormente la nostra distonicità rispetto alla “realtà cosmica”, poiché perdiamo un possibile oggettivo “senso del cosmo”. Né l’ordine di grandezza di esso né quello temporale sono a “nostra scala”, ma abbiamo l’impressione di trarre qualche vantaggio “a sentirci come vogliamo sentirci” ignorando la “scala cosmica” e fabbricandone una “cosmo-antropica. Non riusciamo a fare a meno di essere intenzionali rispetto al cosmo e in generale ad ogni non-noi, conformando l’ignoto sempre entro una fittizia ma gratificante weltanschauung che legittimi un rapporto col Tutto. Ma restiamo irrimediabilmente distonici in ogni caso, anche se cerchiamo onestamente di delineare una weltanschauung non-teologica,poiché contemporaneamente evidenziamo la nostra insignificanza e la nostra irrimediabile ignoranza nei suoi confronti. Restiamo quindi distonici “per onestà” nel riconoscere la cosmicità abissalmente distante. Vi è di più, consapevoli dell’accelerare del suo dilatarsi ci vediamo costretti ad accettare che è come se noi ci comprimessimo e ci confinassimo su questo pianeta rispetto a “ciò che scappa”: noi infatti non siamo dilatabili!

    C’è infine da ribadire un elemento importante dell’incompatibilità tra il pensare antropico e l’essere cosmico di tipo “immaginativo” che può esser espresso con la domanda: ma l’uomo è “almeno” in grado di immaginare le denotazioni dell’universo? La risposta è: no!  E sulla base di tre fattori di non-immaginabilità antropica: uno numerale, uno estensionale e uno temporale. Quello numerale è esprimibile col numero di stelle presenti nell’universo quando si pensi che una galassia a spirale (com’è la Via Lattea) ne contiene oltre 10 miliardi.  [799]  Siccome le galassie sono a loro volta miliardi di miliardi, saremo mai in grado di “enumerare” le stelle presenti nel cosmo, per risparmiarci di contare molecole, atomi, elettroni o quark?  Sotto il profilo estensionale basta chiedersi se noi siamo in grado di immaginare che cosa sia un milione di anni luce quando pensiamo che 1 solo anno-luce è 9.460.000.000 Km.! Infine quello temporale. In teoria il nostro metro di misura virtuale potrebbe essere esteso ai 200.000 anni (esistenza dell’homo sapiens), in realtà sono solo i 100-110 anni di vita reale di un essere umano ad essere un arco temporale concepibile.    

   

 

 

 

                                        6.2  Il caos cosmogenetico di Edgar Morin

 

    Edgar Morin è un pensatore interessante persino quando dice cose discutibili col suo temperamento piretico, immaginifico, febbrile, spesso teoricamente “eccessivo” e con numerose incoerenze. Nato sociologo ma con multiformità di interessi e cultura di buon livello in ogni campo, ha avuto pregevoli intuizioni filosofiche sin dal 1970. Lo abbiamo collocato in questo capitolo perché è tra quello precedente (dedicato al pensiero dell’uomo in rapporto alla realtà cosmica) e il prossimo (che si occuperà di Meccanica Quantistica) che le sue riflessioni arricchiscono il quadro ontologico odierno. Abbiamo rilevato nella 2a nota della prefazione che Morin cita in Il metodo. La natura della natura, uscito nel 1977 (quindi ben prima di noi) parte dei versi di Machado da noi posti in epigrafe. Egli li interpreta però in modo totalmente differente, poiché mentre per noi le huellas e l’hacer camino sono ontologici, per Morin sono metodologici, indicando i modi del suo procedere. Per noi il “farsi” machadiano è della realtà in-sé, per lui è “metodo cognitivo” che si contrappone a quelli negativi.

    Induzioni, deduzioni, interpolazioni, estrapolazioni, ipotesi e modelli veri-simili sono i poveri strumenti di cui possiamo disporre nell’approccio al “farsi” del reale; ma il metodo moriniano pretende di andare molto oltre. La Ia parte della triade de Il metodo, quella che ha per titolo La natura della natura (e che si occupa di temi che noi qui trattiamo) inizia così:

 

A partire dal momento in cui si è stabilito che gli stati di ordine e di organizzazione sono non soltanto degradabili, ma improbabili, l’evidenza ontologica dell’ordine e dell’organizzazione si trova capovolta. Il problema non è più: perché c’è disordine nell’universo benché vi regni l’ordine universale? Il problema è: perché ci sono ordine e organizzazione nell’universo? […] La questione riguarda soltanto i “sistemi chiusi”? Per niente, perché i “sistemi aperti” lavorano, e ogni lavoro pone il problema della crescita di entropia. [800]

 

Discorso corretto. Siccome l’universo “diviene”, quindi “muta”, il mutamento avviene con dispendio energetico con “lavoro” di trasformazione in tutti i sistemi, chiusi o aperti, con gli enti che li costituiscono. La visione di Morin è semplice: il disordine “organizza” perché distrugge ordini precari e ne instaura di più complessi e stabili:

 

Non si può sfuggire a quest’idea incredibile: è disintegrandosi che il cosmo si organizza. Ora, quest’idea incredibile è oggi l’unica che possa fornire la traccia per una teoria plausibile della formazione del mondo fisico. È infatti a partire da una conflagrazione termica che possono diventare comprensibili – per l’astrofisico e grazie ai suoi sforzi – l’apparizione delle particelle, le sintesi dei nuclei, la formazione e l’accensione delle stelle, la costituzione degli atomi pesanti (sulla base della fisica nucleare e dell’astronomia osservativa). [801] 

 

Fondante la cosmogonia il fattore termico fonda anche il capire il “come” di essa, poiché i fotoni a 300.000 mila anni dal bigbang, con una temperatura scesa da 100.000.000.000 a 6.000 K°, producevano calore e non luce: l’universo era ancora buio. Tutti i più importanti processi cosmogonici (formazione di bosoni e fermioni e poi di nuclei atomici) sono avvenuti ad opera di fotoni esclusivamente “termici”.

    Il concetto di “interazione” è assunto da Morin come primario perché il “gioco delle interazioni” è fondamentale, precedendo le “leggi di natura” come mero aspetto «provinciale» nell’organizzazione della materia [802]:

 

L’interazione diventa così la piattaforma girevole fra disordine, ordine e organizzazione. Ciò significa, a un tratto, che questi termini di disordine, ordine e organizzazione si trovano ormai connessi, via le interazioni. In un anello solidale, in cui nessuno dei termini può essere compreso indipendentemente dal riferimento agli altri, e in cui essi si trovano in relazioni complesse, cioè complementari, concorrenti e antagoniste. [803] 

 

Anche noi sosteniamo da tempo l’inconsistenza di dicotomie concettuali del tipo necessità/caso, ordine/disordine, organizzazione/disorganizzazione, ecc. Più oltre il Nostro:

 

Esiste un gran gioco cosmogenetico del disordine, dell’ordine dell’organizzazione. Si può dire gioco perché vi sono pezzi del gioco (elementi materiali), regole del gioco (vincoli iniziali e principi di interazione) e il caso delle distribuzioni e degli incontri. Un gioco all’inizio ristretto ad alcuni tipi di particelle operative, vitali, singolari, e forse a quattro tipi di interazione soltanto. Ma, come a partire da un numero piccolissimo di lettere si costituisce la possibilità di combinare parole, poi frasi, poi discorsi, così, a partire da alcune particelle “di base” si costituiscono, tramite le interazioni/incontri, possibilità combinatorie e costruttive che produrranno novantadue specie di atomi (gli elementi della tavola di Mendeleev), a partire dai quali può, per combinazione/costruzione, prodursi un numero di molecole quasi illimitato delle possibilità della vita. Il gioco è dunque sempre più vario, sempre più aleatorio, sempre più ricco, sempre più complesso. [804]

 

    Il Nostro vede i processi cosmogonici come un gran gioco creativo oscillante tra casualità e necessità, con giocatori sempre più numerosi, più complessi, più evoluti. Gli innumerevoli attori dell’universo “hanno storia” e continuamente “fanno storia” sicché: «Oggi l’universo è adulto. Ormai regna l’ordine. L’organizzazione è diventata la realtà fisica, con i suoi 10 73 atomi e i suoi miliardi di miliardi di soli.» [805]  Gioco giocato tra l’improbabile e il probabile :

 

Vediamo dunque che, nell’improbabilità, vi sono buchi ove si sistemano sfere di necessità, isole di probabilità. Bisogna dunque dereificare l’opposizione assoluta tra le nozioni di probabilità e di improbabilità. Anche questi concetti antitetici hanno la loro comunicazione e la loro permutazione dialettica. [806]  

 

In una dialettica tra probabilità e improbabilità si è svolto l’accadere degli enti hyletici e un divenire cosmico fondamentalmente termodinamico:

 

Quest’universo di gioco è nello stesso tempo un universo di fuoco. Il fuoco diventato genesico (la catastrofe termica) e generatore di ordine e di organizzazione (le stelle, macchine a fuoco in fuoco), il che fa sì che il calore regni come padrone dell’universo, tanto più che esso accompagna ogni lavoro, ogni trasformazione ed è quindi inseparabile dalla più piccola attività, di tipo organizzazionale o meno.  [807] 

 

La sintesi cosmogonica è corretta, ma poi si insinua l’olismo. Il Nostro, non potendo riproporre la mitica dualità “microcosmo/macrocosmo” (cioè “uomo/universo”), avanza la dualità “società umana /struttura dell’universo”. Per lui esiste un’omologia antropica tra società e cosmo, di cui l’uomo, parte dell’una e dell’altro, ha coscienza:

 

E la sua prima presa di coscienza è: non è solo l’umanità a essere un sottoprodotto del divenire cosmico, anche il cosmo è un sottoprodotto di un divenire antropo-sociale. La conoscenza del cielo non cade dal cielo. La stessa concezione dell’universo è in reazione di dipendenza con lo sviluppo dei mezzi di produzione della conoscenza – oggi la scienza – che è essa stessa in rapporti di interdipendenza con gli sviluppi produttivi della società. [808] 

 

Un radicale cambiamento di prospettiva; credevamo che la ricerca moriniana concernesse la natura del cosmo e qui scopriamo un olismo umanità/cosmo che conferma i nostri sospetti. Ne esce un panorama complicato e fumoso:

 

Il nostro problema chiave viene di conseguenza a svelarsi: è quello del paradosso, dell’enigma, della complessità del nodo gordiano a doppia articolazione:

1)      l’articolazione fra l’oggetto- cosmo e il soggetto conoscente in cui il cosmo comprende e genera il soggetto conoscente, il quale appare allora come un minuscolo e fuggitivo elemento/evento nel divenire cosmico, ma in cui nel contempo il soggetto conoscente comprende e genera il cosmo nella propria visione;

2)      l’articolazione fra l’universo cosmofisico e l’universo antropo-sociale in cui ciascuno è a suo modo produttore dell’altro, pur trovandosi alle dipendenze dell’altro.

Si vede dunque qual è il mio primo proposito: la ricerca della “natura della Natura” non può fare a meno della ricerca di un metodo per cogliere le articolazioni chiave Oggetto/Soggetto, Natura/Cultura, Physis/ Società che nascondono e spezzano le conoscenze semplici. L’ignoto, l’incerto, il complesso si situano proprio in queste articolazioni. [809]

 

Olismo: però non banale come quelli a cui siamo abituati. Morin esclude ogni elemento mistico e tuttavia adotta criteri già visti in base ai quali il cosmo “si organizza” in modo pseudo-vitalistico. Nel successivo capitolo, a titolo L’organizzazione, la tesi di Morin si dispiega (LE EMERGENZE; 1. Il tutto è più della somma delle parti) e vale la pena riportare il lungo passaggio che spiega:

 

Il sistema possiede qualcosa di più delle sue componenti considerate in maniera isolata e giustapposta: - la sua organizzazione; la stessa unità globale (il “tutto”); - le nuove qualità e proprietà che emergono dall’organizzazione e dall’unità globale.

Notiamo subito che è soltanto in virtù di un’estrema astrazione che separo questi tre termini, giacché l’organizzazione e l’unità globale possono essere considerate come nuove qualità e proprietà emergenti dalle interrelazioni fra le parti, l’organizzazione e le nuove qualità possono esser considerate come aspetti caratteristici dell’unità globale, e l’unità globale e le sue qualità emergenti possono esser considerate come gli stessi prodotti dell’organizzazione.

È soprattutto la nozione di emergenza che può confondersi con quella di totalità, poiché il tutto è emergente, e l’emergenza è un aspetto caratteristico del tutto.

L’idea di totalità è perciò in questa sede cruciale. Quest’idea, che spesso era emersa in superficie nella storia della filosofia, aveva avuto la piena fioritura nella filosofia romantica e soprattutto in Hegel. [810]

 

Conclusione bizzarra per un pensatore partito da premesse indeterministiche e che ora scopriamo monista. 

    Morin è convinto che sia proprio l’unità-globalità a produrre emergenze: «Ogni stato globale presenta qualità emergenti.» [811] epperò  aggiunge: «Il tutto è meno della somma delle parti» [812], tipico dell’”organizzarsi” degli stati materiali in strutture complesse. Egli riprende considerazioni degli anni ’60 di William Ross Ashby, che sottolineava il verificarsi di “restrizioni possibilistiche” in ragione dell’aumento di complessità: quanto più la materia si organizza quanto meno più organizzarsi ulteriormente. Ne sono esempio le cellule staminali, più rozze di quelle somatiche ma per questo in grado di diventare molte cose grazie a una primitività capace di evolvere in più direzioni. Aggiunge il Nostro:

 

Ogni associazione comporta vincoli: vincoli effettuati reciprocamente fra le parti interdipendenti, vincoli delle parti sul tutto, vincoli del tutto sulle parti. Ma mentre i vincoli delle parti sul tutto sono anzitutto relativi ai caratteri materiali delle parti, i vincoli del tutto sulle parti sono anzitutto di caratteri organizzativo. [813] 

 

Da un punto di vista logico Morin parrebbe aver ragione, ma ha senso dire che un “tutto” vincoli le sue “parti” anche ammettendo che esista come tale? Sì, ma in un solo senso: per feedback. Ma si può evocare retroazione dove un tutto è determinato dalle parti per assemblaggio e organizzazione? Esse sono origini e  creatrici del tutto, bisognerebbe allora pensare che il tutto per feedback “ricrei” la natura delle parti che l’hanno creato.

    In linea di principio ciò parrebbe ammissibile, perché più c’è complessità e più ci sono feedback: il regno di questo è però il vivente ed è quasi assente nell’inorganico. Morin però non è così rozzo da sostenere ciò senza condizioni, sicché dopo averci detto «Ogni organizzazione che determina e sviluppa specializzazioni e gerarchizzazioni determina e sviluppa pure vincoli, asservimenti, repressioni.» aggiunge:

 

Sul piano più generale, veniamo a sfociare in una visione di complessità, di ambiguità, di diversità dei sistemi. Ormai dobbiamo valutare in ogni sistema non soltanto il guadagno in emergenza, ma anche la perdita in seguito a vincoli, asservimenti, repressioni. Un sistema non è soltanto arricchimento è anche impoverimento, e l’impoverimento può esser più grande dell’arricchimento. Ciò ci mostra altresì che i sistemi si differenziano non soltanto sulla base dei loro costituenti fisici o della loro classe di organizzazione, ma anche sulla base del tipo di produzione dei vincoli e delle emergenze. Nell’ambito si una stessa classe di sistemi può esistere un’opposizione fondamentale fra i sistemi in cui predomina la produzione delle micro e delle macroemergenze e quelli in cui predomina o la repressione e l’’asservimento. [814]

 

Termini come “repressione” e “asservimento” non sono appropriati, ma la specificità di Morin sta anche nell’originalità del linguaggio analogico e metaforico. In LA TRASFORMAZIONE DEL TUTTO E LA TRASFORMAZIONE DELLE PARTI apre con la definizione di sistema:

 

Il sistema è a un tempo più, meno, qualcosa di diverso della somma delle parti. Le parti stesse sono meno, in certi casi più, in ogni modo diverse da ciò che erano o sarebbero esternamente al sistema. Questa formulazione paradossale mostra anzitutto l’assurdità che si avrebbe nel ridurre la descrizione del sistema a termini quantitativi. Essa indica non soltanto che la descrizione deve esser anche qualitativa, ma soprattutto che deve essere complessa. Questa formulazione paradossale ci mostra nello stesso tempo che un sistema è un tutto che prende forma nello stesso tempo in cui si trasformano i suoi elementi. L’idea di emergenza è inseparabile dalla morfogenesi sistemica, cioè dalla creazione di una nuova forma che costituisce un tutto: l’unità complessa organizzata. [815]

 

Definizione quasi banale, scontata, risaputa. Eppure egli né dice banalità, né cose scontate e risapute, dobbiamo quindi comprendere meglio ciò che intende dirci a partire da concetti quali differenza, antagonismo, complementarità. Infatti: «Agli antagonismi presupposti e virtualizzati da ogni connessione e da ogni integrazione si aggiungono gli antagonismi prodotti dall’organizzazione della complementarità.» [816] L’antagonismo e la complementarità non sono per Morin alternativi, ma relazionati [817], da ciò:

 

L’idea di sistema non è così soltanto armonia, funzionalità, sintesi superiore; essa porta in sé, di necessità, la dissonanza, l’opposizione, l’antagonismo. Formuliamo dunque il principio: non vi è organizzazione senza antiorganizzazione. Diciamo reciprocamente: l’antiorganizzazione è nel contempo necessaria e antagonistica dell’organizzazione. Per l’organizzazione fissa, l’antiorganizzazione è virtuale, latente. Per l’organizzazione attiva, diventa attiva anche l’antiorganizzazione.  [818]

 

In soldoni, Morin contro la “inattiva” e statica dualità ordine/disordine ci dice (o ci ricorda)  che ne esiste una “attiva” e dinamica, dove gli opposti si incontrano/scontrano/coniugano. Questi sistemi dinamici vanno per ciò stesso soggetti a delle “crisi” quando le capacità di regolazione sistemica sono deboli o precarie manca il «controllo degli antagonismi.».

    In tal caso le differenze si esprimono in opposizioni, le complementarità in antagonismi e il disordine incalza in forma entropica:

 

Di conseguenza, la crescita dei entropia, dal punto di vista organizzazionale, è il risultato del passaggio dalla virtualità all’attualizzazione delle potenzialità antiorganizzazionali; passaggio che oltre determinate soglie di tolleranza, di controllo o di utilizzazione diventa irreversibile. […] Presto o tardi l’antiorganizzazione spezzerà l’organizzazione e ne disperderà gli elementi. [819]

 

Ipotesi affascinante, ma cos’è l’antiorganizzazione e da dove nascerebbe? Si aggiunge che «Ogni sistema dunque, qualunque esso sia, porta con sé la causa interna della propria degradazione», però i principi che ha posto riguardano il vivente ed egli ci ha parlato proprio della «morte » come antagonista-disgregatrice. Però è solo in senso letterario, analogico-metaforico, che un ente fisico “muore”, a meno di fare dell’ilozoismo. Ma Morin non vede l’aporia e continua a sviluppare il suo concetto di sistema, convinto di essere “oltre” sia il riduzionismo che l’olismo [820] avanzando circoli dialettico-grafici e ossimori del tipo «Il tutto è più del tutto e il tutto è meno del tutto» [821].  Spunta com’era prevedibile il concetto di “morfogenesi”, sicché l’organizzazione dà luogo a una Gestalt  [822] con la quale si genera una circolarità ordine/organizzazione [823]. Ne emergono due aspetti ulteriori, quella della visione dei sistemi fisici come soggetti alla freccia del tempo come lo sono i viventi (un Dasein fisico) e quello di una “qualità” della materia [824] , entrambi ilozoistici. 

    Passaggio ulteriore la tesi del «macroconcetto di Unitas multiplex» a forma trinitaria triangolata sistema-interrelazione-organizzazione, dove «Uno è nello stesso tempo  uno e non uno» [825] e poi un passo che traiamo dalla Parte Seconda del libro, dove col concetto di Gestalt si tira in ballo il corrective feed-back loop della cibernetica di Wiener, a confermarci dove il Nostro sta andando a parare. Tematizzata la circolarità genesica si dice:

 

Il vortice è anello non soltanto perché ha una forma che si richiude su se stessa, ma anche perché questa forma inanellante è retroattiva, cioè costruisce la retroazione del tutto in quanto tutto sui momenti e gli elementi particolari da cui è uscita. Il circuito retroagisce sul circuito, gli rinnova la forza e la forma, agendo sugli elementi /avvenimenti che altrimenti diverrebbero immediatamente particolari e divergenti. [826]

 

Un Morin ormai lanciato nella tesi di una cosmica Produzione di sé che evoca il Taoismo:

 

L’I Ching, o Libro delle trasformazioni dell’arcaica magia cinese, ci offre l’immagine più esemplare dell’identità di un Genesico e Generico. L’anello circolare è un circolo cosmogonico simbolicamente vorticoso grazie alla S interna che insieme separa lo ying e lo yang.  [827]

 

                                       6.3 Materie, ipermaterie, energie e masse

 

    Il termine materialità in un qualsiasi dizionario della filosofia, anche pubblicato di recente, non si trova; quello di materia sì, ma solo perché coniato illo tempore quale contrapposto metafisico a spirito, idea, lógos, essere, uno-tutto, ecc. Quando avrete letto pazientemente da cima a fondo la voce materia constaterete l’assenza di qualsiasi accenno alla materialità. Eppure è essa, e solo essa, che risponde alla domanda: che cos’è la materia? Tentare di mettere a fuoco correttamente il concetto di materialità è fondamentale per l’ontologia, ma per ragioni non chiare (o fin troppo chiare!) nessuno se n’è mai occupato. Prima di domandarci che cosa sia la realtà (ma anche prima di ogni problema interpretativo circa il concetto di essenza materiale) bisogna prima chiarire che cosa si debba intendere per materialità. Abbiamo idee abbastanza definite su che cosa sia un ammasso di galassie nel molto grande e un granello di polvere nel molto piccolo, essendo anche in grado di guardare con qualche approssimazione a ciò che li accomuna. Meno chiaro il fatto che una stella come il nostro Sole sia una palla di un gas atomico pesantissimo in quanto estremamente compresso (un plasma) dove avvengono reazioni nucleari con nascita di particelle  velocissime e molto energetiche. In realtà la nostra corrente idea di materialità non va molto oltre l’idea del ciò che occupa spazio (ha volume), che è soggetto a gravità (ha peso), che può trasformarsi in un’altra forma di materia (per reazioni, sintesi, decomposizioni chimiche) in certe condizioni di temperatura, pressione, ecc.

    Tale vecchio concetto di materialità nell’arco dell’ultimo secolo ha subito durissimi colpi, sino a sbriciolarsi e a volatilizzarsi. Ci siamo sempre aiutati con delle metafore linguistiche, come alla fin fine è anche il binomio corpuscolo/onda, ma a volte esse finiscono per sviarci dalla realtà. Sono molto note le battute relative alle difficoltà di comprensione della Relatività e della Meccanica Quantistica per cui “chi capisce è perché non ha capito”. Noi profani memorizziamo faticosamente una definizione sintetica che poi, invariabilmente, vediamo svanire o sbriciolarsi appena approfondiamo l’argomento. Anche a noi filosofi accade a volte che più leggiamo di cose della  fisica e più aumenta la nostra confusione, rendendoci poi conto che su certi argomenti particolari anche i fisici di professione non hanno idee chiare.  D’obbligo, quindi, essere molto prudenti nel trattarne in un libro di filosofia; però concetti come quelli di materialità e di materia sono proprio roba della filosofia, perciò non possiamo chiedere ai fisici di perderci tempo. La materia e i suoi correlati sono “roba nostra” e per come si sono rivelati negli ultimi decenni richiedono ridefinizioni in ragione dei nuovi elementi ora noti. 

    Relativamente ai concetti di materialità e materia nell’ultimo secolo c’è stata una vera rivoluzione concettuale grazie all’utilizzo di metaforici microscopi cognitivi sempre più potenti, per cui l’atomo non è più a-tomo così come della cellula sono sempre più noti i componenti. Ma se noi affermassimo che la materialità vera è quella che si cela sotto i termini antropici di onde di probabilità e di non-località (entanglement) rischieremmo di non essere capiti. Ciò perché la concezione corrente di materialità è così legata ad una lettura semplicistica (forma, colore, durezza, impenetrabilità, volume, peso, ecc.) che bisogna ri-definire ciò che concerne la RgP come iper-materialità. E questa ipermaterialità ha come caratteristica fondamentale proprio quella di essere “non-materiale” nel senso comunemente inteso. La ipermaterialità, come materialità sostanziale e profonda, è la “probabilistica” creatrice di una catena di assemblaggi verso il complesso e il macroscopico: ma il materiale resta a base di ogni evolutiva “sfera del possibile” di cui gli enti hyletici, ipermateriali, sono i creatori. Il fisico Michio Kaku  della New York University scrive:

 

Prima di un’osservazione un oggetto [subatomico] esiste simultaneamente in tutti gli stati possibili. Per determinare in che stato si trova l’oggetto, bisogna compiere un’osservazione che fa “collassare” la funzione d’onda proiettando l’oggetto in uno stata definito. L’atto dell’osservazione distrugge la funzione d’onda, e l’oggetto assume una connotazione reale precisa. [828]

 

Una connotazione reale precisa che però è estranea alla denotazione ipermateriale completa dell’oggetto subatomico nel “suo mondo”, almeno dimezzata  nell’osservazione.       

    La ragione di porre l’ipermaterialità non è solo per la possibile confusione a cui potrebbe andare incontro il profano ingenuo, la ragione più importante è che l’ipermaterialità si presta ad essere scambiata per immaterialità. Le caratteristiche sfuggenti e misteriose del suo essere fluttuazione/corpo (onda e corpuscolo), la sua non-località (l’essere contemporaneamente “qui e là”), il coinvolgimento della volontà dell’osservatore umano nel suo rivelarsi,  la rendono passibile di interpretazioni spiritualistiche o pseudo-spiritualistiche. L’assurdo del conferire spiritualità all’ipermaterialità risulta evidente appena si rifletta sul fatto che l’idea di spirito si crea nella mente di una classe di esseri viventi che hanno la fondamentale prerogativa di essere ontologicamente il più lontano immaginabile dalle particelle elementari ipermateriali. L’homo sapiens è infatti dal più al meno in cima alla scala temporale ed evolutiva dei mammiferi sociali, i quali già sono a un livello altissimo nell’evoluzione del vivente, il quale rappresenta lo stadio più complesso e più lontano dall’ipermaterialità elementare.

    Gli enti ipermateriali si aggregano a formare atomi, molecole semplici, molecole complesse, nucleotidi, cellule, DNA, neuroni, sinapsi e pensieri. Per quanto l’homo sapiens, come ogni altro ente del cosmo reale, sia costituito fondamentalmente da quark, elettroni, gluoni, nucleodeboli e fotoni, è comparso tardissimo, dopo 13,5 miliardi dalla nascita di essi e circa 3,5 miliardi dopo l’apparire del primo essere vivente. Il fatto che la nostra specie sia comparsa tra le ultime sta a significare non solo che l’evoluzione per produrla ha impiegato moltissimo tempo, ma anche che rappresenta il punto più lontano nell’evoluzione dell’ipermaterialità. Questa tardività ci dice che il processo evolutivo ha visto affinarsi via via gli strumenti adattativi, permettendo così ad un mammifero grosso, ma fisicamente poco attrezzato, di sopravvivere in un mondo ostile non grazie alla forza ma grazie al pensiero. E poiché l’uomo è ancora più intelligente di altri mammiferi intelligenti il suo posizionamento nella scala del vivente è a uno dei più alti se non all’ultimo gradino evolutivo.

    Tale primato si è manifestato in tre momenti: 1°, nell’aggregazione delle particelle elementari a formare il genoma umano; 2°, nella strutturazione delle cellule dell’encefalo umano, estremamente specializzate e capaci di un grandioso corredo di sinapsi; 3°, nel lavoro di neuroni e sinapsi con un vasta tipologia di neurotrasmettitori. Aggregazione, strutturazione e organizzazione sono passaggi evolutivi tutti presenti nel cervello umano e allo stadio più alto e lontanissimo dall’elementarità ipermateriale. Se il pensiero umano è capace di immaginare l’immateriale, lo spirito, se ne deve dedurre che solo a tale ciò sia diventato possibile, dopo 13,5 miliardi di anni dalla nascita della vita. In tale tempo si sono definite quattro regioni ontiche e solo nell’ultima, la più lontana dalle particelle, è apparso un animale capace di creare con la sua fantasia lo “spirito”, sicché il concetto di spiritualità e quello di ipermaterialità non sono solo inconciliabili, ma incommensurabili in ragione della gigantesca  distanza evolutiva.  

    Dal livello-base ipermateriale è nato per aggregazioni successive il livello materiale di energie-masse-legagenze e l’energia, aldilà delle sue diverse “forme”, è massa in movimento in base alla eisteniana E = mc2. Il rapporto massa/energia è press’a poco quello che ci sottolinea Anton Zeilinger quando fa notare che una goccia d’acqua di un mm.3 ha “come massa” la possibilità di produrre “come energia” l’ebollizione di 100 litri di essa (cioè 100.000.000 di gocce) [829]. Per quanto concerne la termomeccanica, un esempio di trasformazione di un tipo energia in un altro si ha nel motore a scoppio, dove la benzina si trasforma (bruciando) in gas ad elevatissima energia di spinta per aumento di volume, che facendo muovere i pistoni nei cilindri diventa energia cinetica. Sulla Terra ci sono due tipi di energia a nostra disposizione particolarmente significativi ed evidenti, quella dei fotoni che escono dal Sole e investono lo spazio in ogni direzione e quella dei gravitoni in ragione della massa totale del pianeta, che tramite essi  “tira” le cose verso il proprio centro. Un oggetto può muovere se ha in sé energia da spendere o se gliela si dà, ed essa si esprime come velocità x massa; sicché le energie spendibili mettono le masse in movimento e le masse + i movimenti creano energia di moto o termica non più spendibili altrimenti.

    La massa è l’aspetto concreto della materia e l’energia è l’estrinsecarsi del movimento; perciò le masse sono sostanze “reali” del divenire e fattore dirimente dell’”esser materia”. Però, siccome non esistono masse del tutto ferme, si può dire che senza movimento non esiste alcuna materia. Il vuoto è nello stesso tempo “privo di materia” e “culla della materia” perché è il livello zero di energia e nominalmente “privo di movimento”, ma se una particella ne salta fuori per immissione di energia tale energia è diventata “moto d’uscita” della particella.  Pare allora possibile dire che a far la differenza sia lo stesso spazio-tempo che le particelle, esistendo, hanno creato; ma il vuoto, dove esse solo pre-esistono virtualmente, pare pre-esistere in qualche modo anche la cst, la costante di spazio tempo. Il vuoto potrebbe allora pre-contenere una costante dinamica di base che è la cst insieme con la potenziale hyloinformazione di tutti i possibili tipi di masse-energie e legagenze. Le masse parrebbero essere anche il “concreto” (l’in-atto) del reale, le legagenze le linee evolutive, il movimento la dinamica generale oscillante tra masse ed energie. In questo quadro “materializzanti” apparirebbero i fermioni, ma parrebbe esserci anche un “dinamizzante” generale espressa nella cst, il cui valore è massimo nel vuoto e per masse nulle, diminuendo con l’aumento delle masse ma entro il limite rappresentato dalla cst stessa.    

    Da ultimo ricordiamo che tra masse e movimenti vi è anche un’altra relazione interessante, poiché, se la cosiddetta massa in quiete è solo un valore astratto che i fisici utilizzano per indicare il valore-base di una massa-ferma (considerata in un sistema di riferimento che include sé e lo strumento di misurazione), nella realtà dinamica la massa gravitazionale e la massa inerziale sono identiche. Questo dato nasconde un significato ancora non chiarito, ma che potrebbe in qualche modo legarsi alla cst ed al rapporto massa/energia/velocità che essa implica in un teorico “sistema vuoto”. Il fatto che l’energia che ci vuole per “spingere” in moto accelerato una massa ferma sia la stessa del gravitazionale “tirarla” verso di sé fa pensare che un rapporto massa/energia/velocità esista, e che la cst potrebbe in qualche modo costituirne una parametro base di riferimento.       

 

 

 

 

                  6.4 Strutture, sistemi e fenomeni

 

    A livello fondamentale ricordiamo che la realtà materiale è costituita dai seguenti fermioni: elettroni, quark up e down, neutrini elettronici; e dai seguenti bosoni: gravitoni, fotoni, gluoni, nucleodeboli. Questi ultimi sono dei “limitatori”, poiché  regolano i decadimenti degli adroni e le possibilità o meno d’esistere dei fermioni. È anche il caso di ricordare che noi siamo sono macchine biologiche (anche se bisogna evitare eccessi riduzionistici tipo “uomo-macchina” di La Mettrie [830]) e che noi siamo costituiti di fermioni + bosoni esattamente come le pietre, il fango, l’aria o l’acqua. Questa realtà va tenuta sempre presente anche quando parliamo di idema [831] (la nostra specificità individuale) o di aiteria [832] (il secondo reale che ci concerne). È incontestabile che noi siamo fatti di materia, ma anche che la nostra esistenza trova il proprio “sapore” e il proprio “senso” in esperienze non-materiali che l’aiteria causa e l’idema capta ed elabora nelle esperienze etiche, estetiche, nei sentimenti e negli affetti, negli entusiasmi della scoperta e della conoscenza. Si tratta della sfera esperienziale che si esprime nell’esistenzialità di ognuno di noi, legata alla qualitativa libertà e non alla quantitativa necessità. Ciò nell’orizzonte del pluralismo ontologico in cui si inscrive il dualismo antropico reale  che vede la realtà umana fatta di esistenzialità ed esistentività, immersi come siamo nella materia ma in rapporto anche con l’aiteria, alla quale è sensibile l’idema come organizzazione neuronale-sinaptica (accanto a psiche, intelletto e ragione). [833]

    Anticipando che qui forniremo indicazioni sommarie su argomenti che riprenderemo ancora più avanti incominciamo col precisare che ciò che è materia “si forma”, ma forse sarebbe più corretto dire che si “con-verte” e si “trans-forma”. Infatti la somma delle masse-energie nell’universo è fissa, né si crea né si distrugge, ma solo si converte e subisce trasformazioni organizzative o disorganizzative. Quel piccolissimo, pesantissimo (mille miliardi di GeV) e caldissimo (cento miliardi di miliardi di gradi Kelvin) nucleo iniziale di materia, da cui 13,7 miliardi di anni fa per espansione è nato “questo” quest’universo, in esso c’era la stessa quantità di massa-energia di oggi. Siccome l’espansione continua, ed anzi accelera, ci saranno ulteriori rarefazione e raffreddamento, aumenteranno gli spazi vuoti, la densità globale diminuirà, le galassie si allontaneranno tra loro, ma la quantità di massa-energia resterà identica, Michio Kaku prevede:

 

Nel quadro che emerge dai dati del satellite WMAP c’è una misteriosa forza di antigravità che sta accelerando l’espansione dell’universo. Se continuasse così per miliardi, o migliaia di miliardi di anni, l’universo finirebbe inevitabilmente per raggiungere un Big Freeze […]  Ciò significa che le trentasei galassie del nostro gruppo locale finiranno per costituire l’intero universo visibile, mentre miliardi di galassie, un tempo vicine, saranno proiettate al di là del nostro orizzonte degli eventi. [834]

 

Ciò che è qui chiamato “forza misteriosa” è parte di quel 96% di cosiddetta “massa mancante”, costituita da materie oscure + energia-forza oscura, di cui non sappiamo nulla. Delle materie oscure presumiamo il loro posizionarsi in “aloni” intorno alle galassie, ma per la seconda siamo al buio.

    Volendo trattare del concetto di struttura è necessario intenderci, poiché non concerne un cosmo insiemale-nominale, bensì gli enti che lo costituiscono: nuclei, atomi e loro assemblaggi. Le materie reali “di oggi”, formanti l’universo (galassie e ammassi), il pianeta su cui stiamo (aria, acqua, terra, ossidi e metalli) i nostri muscoli e la nostra materia grigia (cellule somatiche, neuroni e sinapsi) è formata da 16 particelle su circa un centinaio note, più il probabile higgsone. Le ricordiamo: 8 gluoni, 3 bosoni nucleodeboli, il fotone, il gravitone, 2 quark (up con carica elettrica 2/3 e down con carica -1/3), l’elettrone (carica -1), il neutrino elettronico. Questa pluralità, che raddoppia se contiamo le antiparticelle e raddoppia ulteriormente con le supersimmetriche deve indurci una buona volta ad abbandonare il concetto di materia come unità-totalità reale. La materia non esiste, esistono solo 8 o 16 o più particelle la cui fenomenologia e i cui assemblaggi si esprimono in atomi, molecole, gas, liquidi, solidi, cellule, corpi viventi, menti, pensieri.

    Considerare la materia “madre” degli enti che la formano è un non-senso, essa, qualora esistesse, sarebbe semmai “figlia”. E tuttavia per un fisico, che consideri il cosmo come l’espressione di un insieme di cui studiare l’eventuale struttura soggiacente e da ciò i suoi elementi e come funzionino, può darsi che risulti comodo parlare di “materia”. Il filosofo però non deve farlo, poiché un gluone è ente assai differente dal gravitone, dal fotone e dal nucleodebole, ed è grazie alla differenziazione hyletica che si possono considerare esistenti una materia e un cosmo quali espressioni generali. La struttura interna dell’atomo ha un nucleo centrale (che concentra il 99,9% della massa) costituito da protoni e neutroni, ma neppure essi sono sostanze-di-se-stessi, essendo i primi formati da due quark up e un down, i secondi da un up e due down, sicché la somma delle cariche dei quark rende il protone elettricamente carico e il neutrone no. Gli elettroni che lo circondano, orbitanti e fluttuanti a diversi livelli energetici, fanno sì che l’atomo sia elettricamente neutro e stabile. Ma per tenere insieme i quark ci vogliono i gluoni, mentre i bosoni nucleo-deboli agiscono potendo anche trasformare i quark up in down e i neutrini elettronici in elettroni.

    Sulla fenomenologia delle particelle qualche elemento già lo abbiamo fornito, ma possiamo circoscriverla entro i due estremi delle trasformazioni subatomiche e degli assemblaggi macroscopici. Gli atomi si uniscono per formare molecole semplici che poi si assemblano a loro volta per formare molecole più complesse che nel mondo vivente possono contare catene di migliaia di atomi. Nella RgP i mutamenti sono tutti consequenziali ad un mutamento dello stato energetico del sistema, ovvero del rapporto tra masse-energie e legagenti. Nella RgG i mutamenti sono continui, radicali, profondi in intensione e giganteschi in estensione attraverso fusioni e scissioni (fissioni) nucleari, collisioni, collassi, cannibalizzazioni. Le prime, già iniziate con la nascita dell’universo, continuano ora nelle stelle con fusione dei nuclei di idrogeno a formare nuclei di elio, e da questi (passando rapidamente attraverso il berillio) a quelli di carbonio e di altri elementi pesanti entro quel crogiolo di massa-energia compressa e caldissima chiamato plasma nucleare. Successive aggregazioni di protoni e neutroni arrivano a formare nuclei pesantissimi come quello dell’uranio, quasi 240 volte più pesante dell’idrogeno. Il processo inverso, la fissione, porta a nuclei sempre più leggeri sino a quelli di ferro, nichel e cobalto, che con pesi atomici tra 55 e 59 si offrono con la loro stabilità quali elementi intermedi o finali sia delle fusioni che delle fissioni. Fenomeni che liberano energie enormi che si trasferiscono altrove, sicché (in base alla E = mc2) la massa totale del combustibile nucleare si riduce gradualmente. L’ordine di grandezza della fissione, l’unica che noi oggi siamo in grado di provocare, è che 1 Kg. di plutonio (il volume di un’albicocca) in un reattore produce l’energia di 1.000.000 di Kg. di tritolo [835].  

    Si tratta ora di definire meglio concetti come struttura, sistema e fenomenologia nell’insieme del divenire, il primo riguardando un ente complesso nei suoi componenti, il secondo tale ente nel medium del suo divenire, il terzo la processualità evolutiva. Potremmo indicare la struttura come l’elemento componentistico di un sistema,  il sistema come lo scenario diveniente della struttura, la fenomenologia come la totalità dei processi dinamici. O ancora:  la struttura come correlazione tra singoli elementi e loro insieme, il sistema come ciò che funziona in base a variabili infra-strutturali, il medium come delimitante le funzioni, la fenomenologia come l’insieme dei meccanismi che lo fanno funzionare, trasformarsi ed evolvere. Il banale riferimento al trasporto aereo può aiutarci nella comprensione dei tre concetti e del loro rapporto; dove l’aeromobile è la struttura, il volare di esso nello spazio è il sistema, l’aria è il medium, il volare la fenomenologia.

    Il concetto di sistema non è però sempre chiaro sotto il profilo speculativo, sicché la filosofia non può esimersi dall’affrontarlo poiché solo in riferimento ad esso si possono analizzare elementi, fattori dinamici, leggi e fenomenologie fisiche. È significativo il fatto che per secoli i logici si siano preoccupati di definire il concetto di sistema come un “ideale matematico-linguistico”, mentre la scienza, troppo pragmaticamente, si sia solo preoccupata di definire i sistemi reali e si sia accontentata di aggettivarli (solare, inerziale, degli elementi, ecc.). Tra il constatare dei sistemi reali, descriverli, analizzarne gli elementi fissi, le eventuali leggi interne, le variabili, la fenomenologia, e il formulare una logica su sistemi astratti vi è uno iato incolmabile. Va riconosciuto a Sesto Empirico (Schizzi pirroniani, II, 173) il merito di aver posto per primo un definizione di sistema come “discorso organizzato” nelle sue premesse e nella sue conclusioni. Definizione meramente logica quindi, dove il medico-filosofo si preoccupa di contemperare il suo empirismo con qualcosa di più logico-astratto, per meglio contrastare la teologia stoica e combatterla sul suo terreno.

   Premesse, proposizioni, dimostrazioni, idee e naturalmente “verità” costituiscono invece l’armamentario con cui da Leibniz, a Wolff e a Kant si continua a speculare sul concetto. Con Fichte nasce il concetto di “sistema unico e perfetto dello spirito umano”, poi Hegel la specifica “a suo modo”: 

 

Il libero e vero pensiero è in sé concreto, e perciò è idea: e in tutta la sua universalità, è l’Idea o l‘Assoluto. La scienza di esso è essenzialmente sistema, perché il vero, come concreto, è solo in quanto si svolge in sé e si raccoglie e mantiene in unità, cioè come totalità. […] Un filosofare senza sistema non può esser niente di scientifico […] il tutto si pone perciò come un circolo di circoli, di cui ciascuno è un momento necessario, cosicché il sistema dei suoi peculiari elementi adempie l’intera idea, la quale appare altresì in ciascuno di essi. [836] 

 

Egli conferisce chiarezza al termine come modalità dell’atto del filosofare concernente l’Assoluto (il Dio-Necessità) quale Unità-Totalità, dove i singoli elementi sono circolarmente ricompresi in esso nella fenomenologia del pensiero verso essa. La definizione hegeliana è anti- materialista, se tuttavia proviamo a sostituire l’Assoluto con l’ultra-materialistico “volo aereo” della nostra metafora forse diventa persino plausibile. Il sistema è infatti un “tutto” che non esiste senza “parti-funzioni” che l’organizzano; queste e il tutto si coniugano nel funzionamento dell’insieme e la fenomenologia della materia (invece di quella dello Spirito) concerne il tutto-parti come sistema, dove il tutto risponde alle parti e le parti al tutto in senso esclusivamente “funzionale”.  

    Se il concetto di sistema fa da cerniera tra una struttura e un fenomeno, dobbiamo definire preliminarmente che cosa sia e quale il contesto di riferimento spazialmente e temporalmente determinato dai processi fenomenici. Esso si presenta costituito sia da fattori primari, fissi ed invariabili, che ne sono la cornice e lo sfondo, e sia da fattori variabili. Gli uni e gli altri si rapportano reciprocamente e interagiscono creando la fenomenicità del sistema stesso, intendendo con essa la processualità che lo concerne e lo qualifica come tale. I fattori variabili sono i più interessanti, poiché, costituendo la parte dinamica e in qualche modo “creativa” del sistema, producono i fatti più significativi. Per tali ragioni il cosmo come insieme di funzioni non è un sistema, perché il vuoto che lo costituisce in massima parte isola i sistemi tra loro e li rende incomunicanti ed estranei. Ancor meno può essere visto come una struttura quale componente di un qualche toto-sistema. Il concetto di un toto-sistema cosmico è perciò del tutto privo di filosoficità, ma è una miniera ricchissima di filosofalità, quindi c’è da scommetterci che continuerà ad essere sfruttata ancora molto a lungo.

    Gli ammassi di galassie sono lontani l’uno dall’altro e le galassie al loro interno interferiscono solo se molto vicine, in modo che gli effetti dei gravitoni diventino rilevanti sui molti sottosistemi stellari che le compongono. Pertanto neanche gli ammassi sono sistemi, come sono invece le singole galassie quali sistemi estremamente complessi in ragione della pluralità dei loro componenti:  miliardi di stelle e nuvole di gas e polveri.  Esse sono costituite prevalentemente da stelle, ma anche da polveri interstellari e gas di vario tipo, il tutto attraversato da campi magnetici più o meno intensi, cioè da fotoni. Le stelle, al contrario, sono sistemi molto semplici, hanno sempre forma sferica e il gas atomico (più esattamente il plasma) che le costituisce può esser vista come materia energetica allo stato puro. Sono palle di gas atomico a temperature differenti e luminosità conseguente (azzurre le più calde, rosse le più fredde) che possono esser considerate forme semplici di aggregazione di masse-energie a un livello di poco superiore a quello elementare.  [837]  I cosmologi pensano che la formazione delle galassie sia frutto di processi formativi molto lunghi, ma una recente notizia parrebbe in parte smentire questa tesi:

 

Una galassia distante 12,3 miliardi di anni luce potrebbe mettere in crisi il modello gerarchico di formazione di questi oggetti celesti, secondo cui le galassie sono il lento risultato di ripetute fusioni di frammenti più piccoli. Ma questa nuova galassia, scoperta grazie all’azione combinata di alcuni telescopi terrestri e spaziali (tra cui Hubble e Spitzer) ha invece un tasso stimato di formazione stellare di 4000 stelle all’anno, considerato troppo elevato per quell’epoca dell’universo, che aveva appena 1,4 miliardi d’anni. Con u ritmo di formazione oltre 100 volte maggiore di quello di una galassia come la nostra Via Lattea, una galassia impiegherebbe appena 50 milioni di anni per raggiungere la maturità. [838] 

 

 

 

 

                    6.5 Cause e processi

 

   Qual è la causa dell’universo? Probabilmente la perturbazione di un originario vuoto quantistico pre-bigbang. Ma si tratta di una supposizione. I fisici teorici in generale si limitano a descrivere il certo. Ci ricorda Gordon Kane:

 

 Subito dopo il big bang, l’universo era un gas denso di particelle di ogni genere (comprendendo tutti quark e i leptoni e i bosoni e tutte le altre particelle che troveremo estendendo la teoria standard), le quali si muovevano a caso urtandosi tra loro e subendo tutte le reazioni possibili. [839]

 

Grosso modo Kane così descrive un cosmo nascente a 10-6 dall’inizio, ignorando volutamente ogni “prima” inverificabile. La scienza funziona così, la filosofia però funziona in maniera differente.

    L’idea di causa (implicante anche quello di origine) è estremamente importante nella storia del pensiero, con un risvolto primario, ontologico, e uno secondario, esistenziale. La teologia sdoppia il concetto di causa in due accezioni: Causa Prima (Dio-Necessità o Dio-Volontà) e cause seconde (fisiche, meccaniche, biologiche, ecc.). La freccia del tempo aiuta la teologia a fissare l’identità origine–causa, poiché ciò che nel tempo viene prima può venire percepito e concepito come causa di ciò che viene dopo e come tale sua origine. In questa prospettiva la causalità è sempre solo lineare, poiché ciò che viene dopo è sempre effetto necessitato di un “prima-origine”. Anche nella realtà è perlopiù così, ma può essere anche altrimenti; i processi di retroazione (feed-back), ad esempio, sono piuttosto frequenti in biologia: l’effetto retroagisce sulla causa (ma sarebbe più corretto dire che il “dopo” agisce sul “prima”) ribaltando il rapporto. In fisica le evidenze di processi di questo tipo sono scarse, ma se la nostra tesi dell’epigenesi sostruttiva è legittima, nulla osta che fenomeni di feedback possano riguardare la fisica. Se le particelle elementari, esistendo, si sono date le loro leggi di persistenza, non si vede perché nella loro fenomenologia le trasformazioni non possano retroagire in qualche maniera sulle formazioni primarie ancora presenti.   

    Passiamo a considerare il MS per domandarci se il big-bang, da cui (o attraverso cui) sarebbe nato anche lo spazio-tempo, sia la “causa” del freddo universo attuale in quanto suo effetto. Sul fatto che il big-bang sia stato un evento reale ci sono al giorno d’oggi pochi dubbi, ma si tende ora ad anteporgli un pre-bigbang.  Le energie in gioco in quella fase brevissima dell’universo che segue l’esplosione iniziale (identificabile con quella che talvolta viene chiamata l’era di Planck, a 10-44 secondi dal bigbang) sono elevatissime e con pochissime particelle. Nessuna materia reale è ancora presente perché la nucleosintesi avverrà solo dopo 1 secondo dal bigbang, ed è difficile dire se agisca una sorta di primitivo “sistema solidale” fatto di relatività generale, di meccanica quantistica e di termodinamica, da cui usciranno più tardi gli enti e i meccanismi noti. Nessun progetto, nessuna necessità, ma un fluire di “stati” quantistici, e in seguito massivo-energetici, che hanno avuto inizio in uno “stato perturbato”, una rottura di simmetria a causa ignota.

    Il concetto di causa in fisica si colloca a mezza strada tra l’empirico e il teorico, e tuttavia dev’essere considerato preliminare sia per l’analisi dei fenomeni e sia per una definizione di necessità e caso, i due aspetti coniugati e complementari della causalità generale. Max Born in Natural Philosophy of Cause and Chance del 1949 così scriveva:

 

Noi respingiamo oggigiorno questa filosofia demonologica [col caso opera di demoni-dèi] ma siamo disposti ad ammettere il caso nel dominio della scienza esatta. La nostra filosofia è sotto questo aspetto dualistica; la natura è governata da una certa mescolanza di leggi causali e di leggi casuali. [840]

 

Egli vede giusto, ma commette il banale errore terminologico di contrapporre causalità a casualità, laddove questa è una delle due forme di quella, essendo l’altra la necessità. Né sarebbe fuori luogo asserire che non solo il caso e la necessità sono le due forme della causalità, bensì che essi sono le pre-cause generatrici di essa.

    Born si esprime in maniera approssimativa (almeno dal punto di vista filosofico), però ha le idee chiare sulla causalità fisica, infatti poco dopo afferma:

 

Ritengo dunque che non si debba identificare la causalità col determinismo. Quest’ultimo si riferisce a regole che permettono di predire, partendo dalla conoscenza di un evento A, il verificarsi un evento B (e viceversa), senza però contenere l’idea che esista un nesso fisico atemporale (e aspaziale) fra tutti gli oggetti della specie A e tutti gli oggetti della specie B.  [841]

 

Born vuole fornire il suo contributo esplicativo alla secolare dibattuta questione circa la causalità e la successione di eventi, enunciando due principi:

 

Propongo perciò che essa [la parola causalità] possa venir usata, ma corredandola di alcuni  “attributi” riguardanti lo spazio e il tempo. Si suppone sempre che la causa preceda l’effetto; suggerisco quindi che questo venga detto principio di antecedenza. Inoltre si è generalmente avversi a supporre che una cosa causa un effetto in un luogo nel quale essa non è presente, o col quale non può venir collegata mediante altri oggetti; chiamerò questo principio di contiguità.  [842]

 

    Noi possiamo indagare intorno al concetto di causa proprio perché la realtà ci offre l’esempio sia di accadimenti che appaiono necessitati sia di altri che si presentano come casuali. La logica domanda che ne consegue è se il concetto di causa si riferisca ad un’occorrenza reale nella fenomenologia della materia o non risponda alla nostra esigenza psichica di attribuire ad ogni mutamento nella realtà effettuale un suo immediato antecedente “attivo”. A tal proposito è utile ricordare che Hume (Ricerca sull’intelletto umano, 1748) negava valore al concetto di causa, ritenendolo il mero antecedente rispetto ad un conseguente (l’effetto) che un’esperienzialità storico-empirica verifica come costante, ma senza poterne dimostrare la necessità. Non è detto che Hume avesse del tutto torto con quest’asserzione, se non fosse per la clamorosa incoerenza in cui poi precipita [843] negando le cause seconde ma credendo nella Causa Prima nei termini esposti dalla narrazione biblica.

    Ribadiamo che nella realtà fisica ogni causa è l’effetto di qualche altra causa precedente e che ogni effetto è causa di qualche altro effetto, sicché l’attività cognitiva consiste nel risalire all’indietro nella catena delle cause. Attività di ricerca osservativo-sperimentale e mentale-speculativa molto ardua, ma non per Hume, che in virtù della fede “sa già” qual è la Causa “vera” che sta all’origine di tutte le cause “apparenti”. Una dimostrazione tuttavia ce la offre inconsapevolmente, ovvero che quell’esigenza psichica incoercibile che noi abbiamo chiamato omeostasi produce sempre in chi ha una fede la risposta a tutte le risposte nell’idea di Causa Prima [844]. Le cause seconde, humianamente, sono false illusioni cancellate dalla verità suprema della Sacra Bibbia; noi pensiamo invece che il concetto di causa sia utile e corretto, riferibile a momenti “reali” nelle fenomenologie delle materie. Esso non è invece sempre applicabile al di fuori della sfera fisica, perché è solo in essa che può esser identificabile e definibile, anche se non sempre le origini e gli inizi sono isolabili dal flusso del divenire. E ciò per quanto i rapporti puri e chiari di causa-effetto siano piuttosto rari, mentre perlopiù noi ci troviamo di fronte a processi spurî, con più cause e concause, con effetti plurimi, complessi e talvolta con retroazioni.   

    In ciò che passa surrettiziamente per “storia della filosofia” il concetto di causa ha finito per risultare proprio uno dei più equivoci, dalla sua tematizzazione esaustiva in Aristotele fino alla negazione di validità da parte di Hume, seguito in tempi recenti in qualche modo anche da von Neumann e Reichenbach. Il criterio generale da assumere è comunque che qualsiasi causa è concepibile sempre e solo all’interno di un sistema di riferimento omogeneo e definito, che è contesto di ampiezza “minima indispensabile” a contenere “tutte” le variabili possibili. L’analisi, ovviamente, sarà tanto più semplice e precisa quanto più “contenuta” sarà quell’ampiezza; all’opposto, quanto maggiore sarà (implicando anche maggior complessità) tanto più l’indagine sarà approssimativa ed imprecisa. In un sistema costituito da enti reali, identificabili e verificabili, un qualsiasi processo mutageno deve interessare almeno un ente di esso, che viene assunta come sede di un effetto particolare.  Se un effetto rientra nell’evoluzione normale ed automatica del sistema è legittimo considerarlo necessitato, altrimenti ha senso cercare altre cause non-necessitate all’interno del sistema. Se di vero effetto si tratta, come conseguenza della presenza nel sistema di un fattore ora agente ma prima assente, esso ha verosimilmente una “sua” causa. Se in quel sistema per n volte tendenti all’infinito un accadimento B è preceduto da un accadimento A si è autorizzati a ritenere che A possa essere la causa “necessaria” di B, ovvero che la mutazione in B sia determinata dall’azione di A. Se in quello stesso sistema per n-x volte (per x diverso da 0) si verifica la stessa successione A B si deve parlare invece soltanto di causa “probabile”, dove il grado di probabilità sarà enunciato in funzione dell’entità di x rispetto ad n.

    Ma affinché sia giustificabile il concetto di causa occorrono anche dei requisiti di “serialità” nella successione, che debbono essere forniti dall’empirìa e corroborati dalla teoria, senza dei quali ogni inferenza causale rischia l’arbitrarietà. Una successione seriale del tipo “radiazione nucleare → mutazione genetica” è empiricamente accertata e teoricamente ammissibile, mentre una successione “mutazione genetica → radiazione nucleare” è negata dall’evidenza e soprattutto dalla teoria. Serialità significa anche che tra A e B dev’esserci lo stesso medium di sistema, così nel “sistema biliardo” la palla incidente e quella colpita stanno su un piano perfettamente planare che le rende effettualmente connesse. Se noi consideriamo invece il sottosistema-Sole del sistema-ViaLattea rileveremo che la massa solare fa curvare la traiettoria della Terra verso di sé (l’attrae) e che tale curvatura dello spazio-tempo avviene secondo i principi della RelG, poiché stanno entrambi in un contesto dove lo spazio-tempo è il medium e la RelG ne è legge. Tutti i fenomeni dovuti alla massa quale “curvante di spazio-tempo ”sono dovuti ad una causalità “soggiacente e strutturale” che dobbiamo in qualche maniera distinguere da una causa accidentale (un elemento prima assente) che possa irrompere nel sistema modificandolo. È quindi indispensabile fare una distinzione tra causalità intrinseca (strutturale, continuativa e determinante le caratteristiche del sistema stesso) e una causalità estrinseca ed accidentale, che turba il sistema.

    Elementi molto importanti della realtà fisica sono anche le costanti cosmologiche, che sono dei binari su cui corre la causazione. Esse sono state via via scoperte in maniera perlopiù empirica e la loro natura numerica irrazionale a molte cifre non può che far pensare alla casualità del loro costituirsi o all’inizio del tempo o subito dopo, ma comunque prima della nucleosintesi. Sottolinea giustamente Barrow: «Se le costanti naturali fossero leggermente diverse da quel che sono, la risonanza dell’elio, del berillio, del carbonio non esisterebbe, e non esisteremo nemmeno noi, perché non vi sarebbe carbonio nell’universo.» [845]  Se, come sostengono i platonisti, la matematica fosse strutturale al cosmo, non si capirebbe perché le costanti cosmologiche siano espresse da numeri così bislacchi e soprattutto incommensurabili tra loro. È proprio tale incommensurabilità (e l’evidente sconnessione tra esse) che ci costringe a pensare come casuale il loro costituirsi, contrariamente a ciò che sostengono i teologi dell’intelligent design. Anche un fisico e matematico come Barrow (che sicuramente non è un indeterminista anche quale proponente nel 1986 con Frank Tipler del principio cosmologico [846]) è costretto ad affermare:

 

Alcune di queste costanti sembrano originarsi da eventi quasi-casuali che potrebbero avere esiti diversi; in altre parole, esse potrebbero aver assunto valori diversi in universi governati dalle nostre stesse leggi. È perfettamente possibile che tutte le costanti si originino in modo statistico, anzi, perfino la nostra stessa esperienza di uno spazio tridimensionale potrebbe condividere questa origine casuale. [847]

 

Usare l’espressione «modo statistico» richiama l’indeterminismo del mondo subatomico, qui associato a quello macrocosmico per alludere all’opera del caso nello stabilirsi di costanti fisiche divenute di valore generale. Solo “dopo” si instaura una necessità nella fenomenologia della materia, che stabilizza e conserva l”essente”. Le costanti e le leggi sono strettamente legate e non dissociabili: le prime validano le seconde e viceversa.

    L’analisi della validità nell’effettualità è peraltro il cuore dei processi conoscitivi, il nucleo gnoseologico dell’indagine sulla materia cosmica, a cui sia gli scienziati che i filosofi debbono guardare come irrinunciabile. Ma i processi conoscitivi hanno la loro ragion d’essere nel divenire della realtà, l’unico vero essere, attraverso le relazioni dinamiche degli enti a tutti livelli di aggregazione. Lee Smolin rileva:

 

Dunque non c’è mai stato un Dio, non c’è mai stato nessun pilota che ha fatto il mondo imponendo un ordine al caos rimanendone poi al di fuori ad osservare e a prescrivere. E Nietzsche è morto. Oggi anche lui è morto. L’eterno ritorno, la morte termica eterna non rappresentano più una minaccia: non verranno mai come non verrà ma il regno dei cieli. Il mondo ci sarà sempre, e sarà sempre diverso, più vario, più interessante, più vivo, ma sarà sempre il mondo nella sua complessità e incompletezza. […] Tutto l’Essere è nelle relazioni tra le cose reali, sensibili. Tutto ciò che abbiamo come legge naturale è un mondo che si è costruito da sé. [848]

 

                               

 

                                                   6.6  La sfera e il poliedro

 

    I monisti, pervicacemente, continuano a voler vedere la realtà dell’universo come unitaria, spesso come un gigantesco “corpo” che nega la sua stessa evidente realtà e soprattutto che nega gli enti che gli danno esistenza come espressione linguistica insiemale. Se poi i monisti sono dei panteisti o dei platonici more geometrico vedranno tale Uno-Tutto come una realtà “perfetta” e per rappresentarla  utilizzeranno quella forma perfetta che è la sfera. L’essere è forma e la forma l’essere in un’identità che trova spesso devozione concettuale e qualche volta inconscia adorazione in un’estasi  perfezionale. L’universo-sfera pare diventare allora qualcosa di veramente reale, continuo, chiuso, sufficiente, come effetto di una divina voluntas oppure divinamente causa sui. Esso raccoglie allora nella sua essenza profonda anche la perfetta tridimensionalità formale e unitaria. Già Senofane teorizzava Dio come una sfera ed è Aristotele a dirci in Melisso, Xenophane, Gorgia (cc. 6-8) in che cosa consistesse la sua idea di divinità:

 

Dunque dio è uno solo. Se poi è uno è uguale in ogni sua parte […] Questo dio che è uguale in ogni sua parte è sferico: infatti non può essere per un verso uguale e per l’altro no, ma per ogni verso. Se è eterno è uno e omogeneo e sferico non può essere né infinito né limitato.  [849]

 

Allo stesso modo la pensava il suo possibile allievo Parmenide, a cui la musa in sogno gli raccomanda: «Bisogna che tu impari a conoscere ogni cosa, sia l’animo inconcusso della ben rotonda Verità sia le opinioni dei mortali» [850], e poi gli rivela:

 

Per cui [il Dio-Essere] è tutto contiguo: difatti l’essere è a contatto con l’essere. Ma immobile nel limite di possenti legami sta senza conoscere né principio né fine, dal momento che nascere e perire sono stati risospinti ben lungi […] E rimanendo identico nell’identico stato sta in se stesso e così rimane lì immobile. Infatti la dominatrice Necessità lo tiene nelle strettoie del limite che tutt’intorno lo cinge […] Ma poiché vi è un limite estremo, è compiuto da ogni lato, simile alla massa di ben rotonda sfera. [851]

 

Un passo importante dell’eleata, poiché tutta la metafisica posteriore, con modeste varianti ne ha sempre confermato il concetto base, sostituendo la sfericità con la perfezione o col bello/buono o con l’uno da essa implicati. In tal senso la metafisica non ha evoluzione, ma eternamente ripropone la sua ipostasi di unità-totalità-eternità-immobilità-bene-intelligenza-perfezione.

    La sfera però va benissimo come paradigma estetico, va bene nell’arte e anche nella poesia; dopo tutto molti enti reali del mondo ce la ricordano, dai pianeti alle arance. E tuttavia questa bella immagine è falsa se la si pretende cosmica, poiché l’universo non ha una forma né una struttura, è tutt’al più un guscio di spazio-tempo fatto di vuoto con qualcosa dentro. Può avere sì la forma di una sfera, ma anche di un disco o di una ciambella o di un bel niente, magari molto irregolare, con protuberanze e buchi. La sua multiformità è inimmaginabile perché multiformi e differenziati sono gli enti che costituendolo ci permettono di dire che esso in qualche modo “esista”. Essi sono quasi infiniti per numero, tipologie e fenomenologie, in una ridda perlopiù caotica che si esprime in una continua mutazione e nel trapasso da una realtà in un'altra e poi in un'altra ancora. Nulla di perfetto nell’universo ma tutto imperfetto, poiché è solo nell’imperfezione che può esserci una dinamica che crea una realtà fisica in divenire. Nel caos della sfera, per essa quale “divenuto” ha agito il moto rotatorio come suo “diveniente” come ci spiega in parole semplici Hubert Reeves:

 

«Qual è la forma in cui tutti gli elementi sono il più possibile vicini gli uni agli altri? La palla! Ecco perché le stelle, come i pianeti, sono sferiche, se non troppo piccole.» [852]

 

 

 

La rotazione e la vicinanza atomica o molecolare sono dei “perfezionatori” o molto semplicemente degli “agenti fisici”? Ovvia la risposta. L’idea di perfezione ontologica è meramente metafisica, però non è solo dei mistici e dei teologi, ma spesso anche grandi fisici ci credono. È questa la ragione per cui ce ne dobbiamo occupare.

    Se la sfera vuol’essere metafora della perfezione, ben venga la metafora! In fondo non fa male a nessuno. Il fatto è che l’universo andrebbe piuttosto metaforizzato come un irregoralissimo poliedro dalle cento facce, variamente ondulate e di diversa scabrosità e consistenza, con vuoti e valli, compatte o spugnose, con dei buchi come il formaggio gruviera e fors’anche con cunicoli che attraversano il poliedro da parte a parte.  Però questo, guardato da lontano o con scarsa attenzione (oppure da vicino ma con occhiali metafisici) può anche esser percepito ancora sempre come quella “divina” sfera perfetta che i mistici sognano e descrivono dalla notte dei tempi e a tutte le latitudini. Con maggiore o minor fervore e adesione e da punti di vista specificamente religiosi, pseudo-filosofici o addirittura atei, la perfezione è sempre affascinante e con essa la sfera. D’altra parte l’idea dl poliedro non è nuova: è Roger Penrose a ricordarci (nell’introdurci alla sua teoria dei twistor) che nel 1959 Tullio Regge, nel proporre una nuova teoria della gravità quantistica, ipotizzava che lo spazio-tempo potesse essere interpretato come un poliedro irregolare a 4 dimensioni (politopo), con la curvatura quale “funzione” degli spigoli bidimensionali di esso, funzioni che il fisico italiano aveva chiamato “ossa” dello spazio-tempo [853]. In ogni caso la metafora del poliedro ci aiuta a ribadire il criterio regionalistico, l’unico che spiega frazionamenti e disomogeneità sotto il profilo delle strutture e sia per gli equilibri intrinseci che regnano all’interno di ogni regione e che ne garantiscono la sussistenza in quanto tali. 

    La metafora geometrica ci aiuta quindi a riprendere il tema della “regionalizzazione” anche in funzione dei rapporti tra regioni comunque tutte nate da quel livello di pre-aggregazione che è la subatomica RgP. Le altre regioni, ai vari livelli di aggregazione ed organizzazione degli enti che le costituiscono, sono comunque implicate da essa almeno per quanto concerne il “visibile”del cosmo. Noi non siamo oggi in grado di predire con certezza quale sarà il destino del nostro universo, ma se esso, come appare probabile, avrà un fine “fredda” (azzeramento energetico) il livello subnucleare non ne verrà più interessato. Se invece la sua fine dovesse “calda” (per collasso implosivo) la materia assemblata ai vari livelli potrebbe regredire allo stato elementare tornando a stadi forse simili al bigbang, con bosoni e fermioni allo stato libero. Resta comunque indubitabile, perché ci concerne da vicino, che sia la RgC della biosfera ad essere per noi l’oggetto di indagine più interessante, e tuttavia essa è condizionata in varia misura dalle altre. Osserva il biologo Boncinelli:

 

Almeno in linea di principio, ogni fenomeno che sia compatibile con le leggi della fisica può essere osservato una volta o l’altra in qualche organismo vivente e in realtà siamo colpiti dall’impressionante varietà di soluzioni chimico-fisiche e biologiche escogitate dall’evoluzione biologica per risolvere problemi che sono poi sempre gli stessi. [854]  

 

Gli “stessi problemi” sono quelli della  sopravvivenza e dell’adattamento di ogni specie, quindi a rigore non della “evoluzione” bensì di “entità biologiche in evoluzione” attraverso quei tentativi evolutivi, tendenti all’esaustione, che chiamiamo peirasi. Nella pluralità condizionale e situazionale sulla superficie e all’interno del poliedro irregolare, che abbiamo utilizzato per evocare la realtà all’interno della varie regioni, abbiamo buoni motivi per pensare che tutto il tentabile venga prima o poi tentato nel divenire cosmico. È ragionevole pensare che ogni forma dell’esistere venga tentata e che ogni nicchia dell’esistere sia oggetto di tentativi d’esistenza da parte di certi enti o di altri, di organizzazioni da essi operate, di strutture o sistemi complessi. Ciò non può passare per perfezione, bensì per totale imperfezione; l’imperfezione non la si progetta eppure c’è, e talvolta l’homo sapiens se ne accorge e “la scopre”. Che non ci sia (né ci possa essere) alcuna programmazione organizzativa a-priori lo pensa anche Boncinelli:

 

Ma la scelta effettiva di soluzioni e di parametri specifici è spesso una questione di accidenti evolutivi. Per esempio noi abbiamo alcune strutture anatomiche adulte che derivano da un certo numero di strutture branchiali perché discendiamo da animali acquatici […] Questi eventi accidentali sono stati chiamati “incidenti congelati”. Probabilmente il più famoso di questi è l’universalità del codice genetico. Al meglio delle nostre conoscenze attuali, non c’è nessun motivo per cui nel DNA della stragrande maggioranza degli organismi viventi la tripletta AGG debba codificare l’amminoacido arginina e la tripletta CCA debba codificare la prolina. Ma questo è ciò che osserviamo. L’interpretazione corrente di questo fenomeno è che questa particolare scelta è stata fatta, probabilmente, a seguito di eventi casuali, più di tre miliardi di anni fa ed è rimata invariata, cioè fissata, da allora in poi. Le scelte riflesse nella natura di questo codice non sono né migliori né peggiori di altre, ma dal momento che si sono cominciate ad affermare sarebbe stato sommamente antieconomico cambiarle. [855]  

 

La RgC ci offre esiti accidentali che sono così e potrebbero essere altrimenti, ma dal momento che sono così gli enti interessati o protagonisti di mutamenti evolutivi li mantengono “per economia”. Se un sistema organizzato funziona sufficientemente consentendo persistenza o sopravvivenza non c’è alcun motivo perché l’ente che ne gode cambi organizzazione. In altre parole, la soluzione non è affatto perfetta e neppure la migliore, ma dal momento che è così e che funziona quanto basta alla persistenza, tanto vale lasciarla com’è.

    Seppure la RgP sia a bassissima aggregazione e la RgC ad altissima, nella misura in cui sono i processi fisici, chimici e biochimici ad aver condotto evolutivamente dalla prima alla seconda, ciò significa non continuità ma discontinuità, ed il fatto che l’evoluzione proceda sia in modo graduale che ”per salti” implica processi sia deterministici che indeterministici. Quantunque noi possediamo numerosi elementi storici e teorici sull’’evoluzione della biosfera, avendone pochi sulle particelle elementari, possiamo pensare che un’invarianza, una certa pseudo-teleonomia e la peirasi riguardino tanto la vita quanto la nucleosintesi. D’altra parte tutto l’essere è probabilistico e il divenire è cavalcato dalla necessità quanto dal caso, in processi che sono funzionali ma mai perfetti, come può esserlo al gioco delle bocce una pietra poliedrica e irregolare invece di una sfera perfettamente tornita. La differenza sostanziale sta nel fatto che il primo oggetto rotola naturalmente, casualmente e irregolarmente, mentre il secondo rotola perfettamente in quanto manufatto artificiale. Il cosmo però non è un manufatto artificiale creato da una Necessità o da una Volontà, ma una cosa naturale fatta da infinite particelle fisiche casuali che si sono create la propria necessità, con i loro assemblati che hanno fatto altrettanto creando quell’insieme che chiamiamo universo.

    Il cosmo non può esser visto come una sfera perfetta  “modellata” da un Dio-Necessità o da un Dio-Volontà con la finalità di accogliere “noi” pensarla, ad ammirarla, a studiarla, a descriverla. In realtà a creare sfere è solo il tipo dei movimenti composti che caratterizza perlopiù gli assemblaggi di materia vaganti nel vuoto e soggetti all’azione dei gravitoni determinanti spinte centrifughe e centripete. Il cosmo è quindi solo una metaforica generale-globale concrezione poliedrica irregolare, anche se i bosoni e i fermioni possono produrre assemblati i cui ulteriori assemblati molecolari coagulandosi formino sfere imperfette come stelle e pianeti che si fanno perfette ruotando su se stesse. Ma ciò vale per una realtà a basse energie, quelle della RelG in generale, poiché ad altissime energie (com’era nel cosmo primordiale) le sfere non esistono, essendo le particelle sia questo e sia quello, potendo stare qui e anche là, mutare l’una nell’altra e scambiarsi i ruoli. Così è nato il cosmo, non certo con qualche intelligent design. Il moto di una sfera divina e di ciò che contenesse potrebbe essere solo “uno” in quanto designed una volta per tutte da Dio, come pensavano Cartesio, Leibniz e Spinoza. Il nostro poliedro invece può avere infiniti tipi di moto a seconda del punto da dove è casualmente iniziato e a seconda degli impulsi successivamente ricevuti.

    Come abbiamo sottolineato in La filosofia e la teologia filosofale, l’idealismo ha un’estensione connotativa che va molto oltre quei termini storiografici che la storiografia idealistica stessa ha imposto attraverso i secoli [856].  Quelli che abbiamo chiamati teoristi sono sempre anche degli idealisti e il teorismo è una delle molte sottospecie dell’idealismo. Riteniamo interessante la posizione assunta dalla filosofia della scienza Nancy Cartwright, la quale propone un certo strumentalismo nell’approccio scientifico che ha il pregio di mettere un punto fermo anti-teorista,. Ella sostiene che alla fine tutto ciò che noi possiamo dire di sapere sulla realtà fisica è ciò che ce ne dicono i nostri strumenti:

 

La nostra comprensione scientifica, e corrispondentemente la nostra immagine del mondo, è codificata tanto dagli strumenti che usiamo, dalle nostre tecniche matematiche, dai nostri metodi di approssimazione, dalla forma dei nostri laboratori e dal nostro modello di sviluppo industriale, quanto dalle nostre teorie scientifiche. […] Gli elementi di comprensione in questo modo codificati non dovrebbero essere considerati come asserzioni sulla natura e la struttura della realtà, a cui dovremmo dare un’opportuna valutazione preposizionale variabile in termini di verità o falsità. Piuttosto dovrebbero esser considerati alla stregua di duttili strumenti, contenuti nella comune scatola degli attrezzi scientifici. [857]

 

Siamo del tutto d’accordo nel mettere nella “scatola degli attrezzi scientifici” tutto ciò che può esser utile al conoscere, compresa la fantasia creativa che inventa nuove teorie su basi astratte e matematiche. Ciò che si deve evitare è una visione fondamentalista che pensi di poter produrre conoscenza attraverso un criterio riduzionistico di scelta, tale da dogmatizzare l’utilizzo privilegiato di un attrezzo rispetto agli altri. 

 

 

 

                                          6.7 L’ontologia orizzontale e la relazione

 

    Chiudiamo il capitolo con due concetti importanti: quello di ontologia orizzontale e quello di relazione. Il secondo lo avanzammo già tempo fa e lo enunciavamo così: «La relazione è il modo d’essere dell’insieme di due o più enti effettualmente connessi o in contrasto, i quali sono ontologicamente equivalenti e tra i quali non esiste alcun rapporto gerarchico» [858]. Si trattava di una concettualizzazione generale, che là era posta nel discorso sul pluralismo ontologico e sul dualismo antropico reale come suo correlato. Possiamo qui riprenderla relativamente al pluralismo ontofisico senza alcuna modifica, perché la relazione implica l’orizzontalità dell’essere e questa concerne l’ontologia orizzontale. Con essa noi intendiamo sostenere che, pur esistendo una reale gerarchizzazione di enti del cosmo in ragione e funzione delle catene di cause/effetti e di livelli energetici, la generalizzazione di essa porta a conclusioni false. Sussiste infatti un reale rapporto deterministico di dipendenza tra enti e loro derivati, ma non esiste alcuna scala generale che scandisca la realtà “a livelli” per tutte le regioni e le situazioni presenti nel cosmo. Il fatto è che quello di relazione è oppositivo a quello di dipendenza, poiché se a dipende da b, questo “è ciò che è” in funzione di a e ne dipende; se invece a e b hanno relazione essi “sono ciò che sono” indipendentemente dalla relazione, sicché l’uno e l‘altro possono relazionarsi in diversi modi e anche a c, d, e ... z.  “restando quel che sono”.   

    I concetti di dipendenza e di relazione si correlano ontologicamente alla verticalità e all’orizzontalità, determinando nel primo caso una ger-archia nel secondo un’an-archia. Per capire i termini dobbiamo sganciarli dei loro significati sociologici per tradurli in ontologici, anche per comprendere che il secondo non significa di per sé confusione e caos, bensì soltanto l’assenza di dipendenza. Nel mondo umano l’anarchia porta quasi inevitabilmente a confusione e a caos a causa di una serie di fattori specifici che si traducono in punti di vista, volizioni, ambizioni, convenienze, associazioni, dissociazioni, opposizioni, opportunità, prevaricazioni, parassitismo, neghittosità, forze e debolezze. Nel mondo fisico tutto ciò non c’è, all’opera sono solo degli enti materiali, delle probabilità, delle leggi e delle costanti, per cui l’anarchia fisica qui non è caos, bensì relazione tra eguali che non sono disegualizzabili. Ciò detto, va ricordato che non a caso gerarchia è parola composta da hierós (sacro) e arkhia (comando, superiorità, governo), traducibile con “governo del sacro” prima che come significato traslato di “scala di ruoli”. La gerarchizzazione come concetto sacrale precede e supporta quello moderno di “responsabilizzazione per ruoli” ed implica una verticalità di livelli di status che la metafisica ha tradotto in ontologia.

Quando la metafisica parla di causa, origine, necessità e di effetti o accidenti, contingenze, scandisce “livelli” di dipendenza tra entità che sono alla base anche di sequenze che nella religione si esprimono politeisticamente come capo-padre-degli-dèi→dèi→semidei→uomini→animali, oppure monoteisticamente come Dioangeli→santi→beati→papa→vescovi→sacerdoti→fedeli. Questi concetti, nascenti dalla mitologia o dall’ideologia, una volta posti sono poi quasi automaticamente convertiti in corrispettivi ontologici. Ciò porta a ipostatizzare una realtà primaria ed originaria, voluta o necessitata, generatrice di una catena dell’essere con la quale da tale origine-causa discendono in caduta assiologica tutti gli altri enti come generati e dipendenti. Si determina così una scala sia di valore che di condizione, dove sul gradino più alto sta l’origine e a scendere tutto il resto, essendo chiaro che tale gerarchizzazione determina un’ontologia verticale. Questa non è che non esista in fisica, poiché esistono rapporti di causa/effetto, ma la sua validità è limitatala al locale, al settoriale, al sistemico, mai al generale. Se ciò fosse si avrebbe un regressus ad infinitum di tutte le realtà del cosmo senza distinzioni sino a riconoscersi nel bigbang come causa-origine, mentre esso segna solo il punto di inizio di un processo complesso e pluralistico. Se non fa si fanno queste distinzioni si finisce inevitabilmente nella teologia pura, negando realtà relazionale a fatti e situazioni fondanti la fisica stessa.

    La teologica ontologia verticale può mutare il suo nome e i suoi termini, ma il meccanismo gerarchizzante è sempre lo stesso. L’Origine-CausaPrima dell’essere “fuori di sé”, o “in sé” come Essere stesso o Lógos, Intelligenza, Spirito, Uno ecc., da cui discendono le realtà inferiori sono concettualmente la stessa cosa. Il caso più significativo è quello del Neoplatonismo plotiniano, dove “per emanazione” dall’Uno si genera l’Intelletto, da questo l’Anima, e da questa tutti gli altri enti in una scala in discesa, con la particolare posizione-condizione dell’uomo, che è sì emanato in discesa e appesantito dal corpo, ma che può risalire verso la cima della scala per ascesi mistica.  Nell’ontologia verticale ogni tipo di relazione tra realtà differenti non-gerarchizzabili è esclusa, tutto “dev’essere” gerarchizzato e gerarchizzabile, presupponendo invariabilmente una riduzione delle parti a un Uno-Tutto. Il principio di “dipendenza”, alla base della gerarchizzazione, è invece negato dell’ontologia orizzontale, poiché è il tipo di relazione che nel flusso del divenire può vedere quel che era prima diventare un dopo e la causa farsi effetto in virtù dell’equivalenza ontologica degli enti.

    La dinamicità indeterministica (e quindi probabilistica), sopra enunciata non significa però né in-temporalità e né in-definizione strutturale per assenza-di-tempo o per assenza-di-realtà, ma solo che gli enti fisici si collocano su un piano relazionale legato a momenti, luoghi e stati energetici, a “situazioni” che possono essere perduranti o transitorie, ripetivive o irripetibili, ma mai assiologico-gerarchizzabili. In ogni caso, qualora si possa vedere nel mondo fisico qualcosa che faccia pensare ad una gerarchizzazione questa è “esclusivamente” su basse massivo-energetica, è infatti solo il rapporto energetico a scandire la realtà. L’ontologia orizzontale è implicita nel pluralismo ontologico grazie al principio di relazione e di non-gerarchia degli enti dell’essere. Possiamo riassumere sottolineando che l’orizzontalità ontologica implica: 1° la negazione del monismo, che sottintende sempre una scansione verticale dei gradi dell’essere; 2° la cassazione del determinismo come principio ontologico che si basa su un a-priori origine-causa da cui derivano degli a-posteriori “per necessità”; 3° mette in mora la tentazione di assiologizzare l’ontologico attraverso il trasferimento dell’antropicità alla comicità, con l’apposizione agli enti fisici di connotazioni ad essi del tutto estranee. 

 

 

 

NOTE

 

[791] R.Feynman, La legge fisica, Torino, cit., p.175.

[792] E.Castellani, Riduzionismo ed emergenza, in: AaVv, Scienza e realtà, a cura di G.Peruzzi, Milano, Bruno Mondadori 2000, pp.95-96.

[793] C.Tamagnone, La filosofia e la teologia filosofale, cit., pp. 7-9.

[794] M.Gell-Mann, Il quark e il giaguaro, cit., pp.167-197.

[795] Ivi, pp.173-174.

[796] Ivi, p.179.

[797] C.Tamagnone, La filosofia e la teologia filosofale, cit., pp.39-45 e pp.103-108.

[798] Per intenzionalità si intende il porsi dell’uomo di fronte ad un oggetto sempre con uno scopo “proprio” rispetto ad esso. In altre parole: il rapporto dell’uomo all’altro-da-sé è sempre tendenzialmente un per-sé e non per-l’altro.

[799] M.Lachièze-Rey, Oltre lo spazio e il tempo, cit., p.107.

[800] E.Morin, Il Metodo I. La natura della natura, Milano, Raffaello Cortina 2001, p.38.

[801] Ivi, p.48.

[802] Ivi, p.56.

[803] Ibidem.

[804] Ivi, p.60.

[805] Ivi, p.64

[806] Ivi. p.91

[807] Ivi. p.95

[808] Ivi. pp.103-104

[809] Ivi. P.104

[810] Ivi, p.120

[811] Ivi, p.121

[812] Ivi, p.127

[813] Ivi, p.128

[814] Ivi, pp.129-130.

[815] Ivi, pp.130-131.

[816] Ivi, p.135.

[817] Ivi, pp.136-137

[818] Ivi, p.138

[819] Ivi, p.139

[820] Ivi, p.142

[821] Ivi, p.143.

[822] Ivi, p.148.

[823] Ivi, p.150.

[824] Ivi, pp.155-157.

[825] Ivi, p.167.

[826] Ivi, pp.210-211.

[827] Ivi, p.262.

[828] M.Kaku, Mondi paralleli, Torino, Codice 2006, p.166.

[829] A.Zeilinger, Il velo di Einstein, cit.,, p.126

[830] C.Tamagnone, L’Illuminismo e la rinascita dell’ateismo filosofico, Firenze, Clinamen 2008, pp.724-752.

[831] C.Tamagnone, Necessità e libertà, Clinamen 2004, pp.169-176.

[832] Ivi, pp.154-157 e 169-172.

[833] Ivi, pp.45-68 e pp.145-180.

[834] M.Kaku, Mondi paralleli, cit., p.316

[835] S.Weinberg, I primi tre minuti, cit., p.75.

[836] G.W.F Hegel, Enciclopedia delle scienze filosofiche, Roma-Bari, Laterza 1984, pp.22-23.

[837] M.Hack, L’universo alle soglie del Duemila, cit., p.146.

[838] E.Ricci, La superfabbrica di stelle, in: Le Scienze, settembre 2008, p.32

[839] G. Kane, Il giardino delle particelle, cit., p181

[840] M.Born, Filosofia naturale della causalità e del caso, cit, p.14.

[841] Ivi, p.19

[842] Ibidem.

[843] C.Tamagnone, L’incertezza dell’essere e la certezza di Dio, David Hume, in L’Illuminismo e la rinascita dell’ateismo filosofico, tomo II, cit., pp.439-445.

[844] Causa Prima, in generale, è l’ipostasi di un entità trascendente o immanente (Dio-Volontà, Dio-Necessità, Intelligenza, Spirito, Essere, Lógos e simili) concepita quale origine e causa del tutto.

[845] J.D.Barrow, Le origini dell’universo, Milano, Rizzoli 2001, p.122.

[846] J.D.Barrow – F.J.Tipler, The Anthropic Cosmological Principle, Oxford, University Press 1986. 

[847] J.D.Barrow, Impossibilità, nota 27, p.369.

[848] L.Smolin, La vita del cosmo, cit., p.382.

[849] I presocratici, Testimonianze e frammenti, tomo I, Senofane,  Roma-Bari, Laterza 2004, p.155.

[850] Ivi, Parmenide, p.270.

[851] Ivi, p.276

[852] H.Reeves, L’universo, cit., p.37.

[853] R.Penrose, La strada che porta alla realtà, cit., p 960.

[854] E.Boncinelli, Fisica e biologia, in: AaVv, Scienza e realtà, cit., p.136.

[855] Ivi, pp.136-137.

[856] C.Tamagnone, La filosofia e la teologia filosofale, cit., p.32 e pp.39-40

[857] N.Cartwright – T.Shomar – M.Suarez, The Tool Box of Science,  Amsterdan 1995, p.138; cit.in: J.Ladyman, Filosofia della scienza, cit, p.260.

[858] C.Tamagnone, Necessità e libertà, cit., p.283.