free web hosting | free website | Business Web Hosting | Free Website Submission | shopping cart | php hosting

 

 

 

 

                                                              Capitolo IX

                                           Il pluralismo ontofisico e i suoi correlati

 

 

            9.1  Un giorno speciale.

 

    Ci alziamo ogni mattina per iniziare un nuovo giorno, compiamo atti abitudinari per vivere nel migliore dei modi, per esistere insieme ad altri in modo possibilmente buono, ci attiviamo per intraprendere un lavoro, per procurarci di che vivere, per svagarsi o per divertirsi. Se non siamo dei professionisti della fisica, non ci interessa “capire” come si strutturi e funzioni il mondo che ci ospita. Immaginiamo invece di vivere un giorno speciale: un giorno “per conoscere” qualcosa in più su quel mondo della fisica a cui guardiamo perlopiù con indifferenza o disattenzione. Ci alziamo che è ancora notte e usciamo sul balcone da cui cogliamo la meraviglia di un cielo stellato. In realtà non ci sono solo stelle, ma anche pianeti del nostro sistema che distinguiamo per la loro luce non pulsante ma fissa. Quali sono le stelle che vediamo? Quelle molto vicine o più lontane ma con luce molto energetica; comunque non più di un miliardesimo della miliardesima parte di quelle esistenti. Possiamo anche chiederci: perché il cielo notturno è scuro? Se il cosmo è vuoto e se la luce si diffonde in tutte le direzioni il cosmo dovrebbe essere pieno di luce e non conoscere mai il buio! È la domanda che si era posto Heinrich Wilhelm Olbers alla fine del ‘700, ma in realtà preceduto da Thomas Digges nel 1576, da Keplero nel 1610 e da altri. Olbers diede al “paradosso” una risposta sbagliata nel 1823, supponendo che tra le stelle esistesse una qualche materia opaca che fermasse la luce. Herman Bondi  nel 1920 coniò l’espressione “Paradosso di Olbers”, e tale è rimasto.  

    La risposta al paradosso di Olbers è complessa e semplice nello stesso tempo; in realtà il paradosso nasce da tre assunti errati: 1° che l’universo sia infinito; 2° che esista da sempre e 3° che le stelle, come fonti di luce incorporea siano anch’esse incorporee. Ma le stelle sono “corpi” e un qualsiasi raggio di luce (o meglio un qualsiasi fotone) trova sempre prima o poi un corpo che lo ferma e l’assorbe: il viaggio dei fotoni luminosi impatta quasi sempre su qualche corpo degradandosi a calore. Ma questa è la spiegazione intuitiva; la vera spiegazione si trova in un equazione fisico-matematica che sostituiamo discorsivamente. L’universo si espande e la luce al red shift; ma essendo l’infrarossa e le rosse le meno energetiche tra le radiazioni, vanno poco lontano. Ne abbiamo la controprova se ci chiediamo: ”perché il cielo è azzurro?” Lo è perché la luce azzurra è la più energetica e ci arriva, mentre le altre si perdono per strada. Il red shift deriva dal fatto che l’universo si espande e che la luce “scappa” con esso, per cui molta tarda a raggiungerci e altra non ci raggiungerà mai. La fuga delle galassie accelera e quella in cui stiamo (la Via Lattea) si allontana dalle altre. Inoltre il nostro universo è nato  13,7 miliardi di anni fa e oggi è gigantesco, espanso e freddo, con fotoni che solo in infinitesima parte puntano su noi. Ciò che c’è dappertutto sono i debolissimi neri fotoni della radiazione di fondo, il “fossile” del big-bang, quelli (per capirci) dei fornetti a microonde.

    Il cielo stellato non è qualcosa che il Buon Dio ci regala per riempirci “l’animo di ammirazione e venerazione sempre nuova e crescente” [1] come pensava Kant, ma un fatto ottico, che non per questo deve indurci a minor emozione, ammirazione ed entusiasmo estetico. Rientriamo in casa e accendendo la luce per illuminare la cucina in cui prepareremo la prima colazione; è quasi bianca perché imita quella del sole, ma potremmo farla di qualsiasi altro colore. Che la luce bianca sia composta lo sappiamo, meno che per quanto ci paia omogenea e fissa sia invece eterogenea e caotica. Ci ricorda Feynman: «Una sorgente di luce bianca, che è una sovrapposizione di molti colori emette fotoni in modo caotico; l’angolo dell’ampiezza varia bruscamente e irregolarmente, a sbalzi.» [2] Ma accendendo una lampadina siamo spettatori di uno dei più straordinari comportamenti dei fotoni, senza i quali la nostra vita sarebbe oggi inimmaginabile: l’elettricità. Ma che cos’è e come ci viene all’utilizzo tale energia? La cosa è semplice: si ha un conduttore buono ed economico che è il rame ridotto per trafila in cavi di diametro direttamente proporzionale alla quantità di fotoni che gli elettroni devono trasportare all’utilizzo.

    Metaforicamente il cavo elettrico è la strada, gli elettroni i veicoli, i fotoni la merce che deve arrivare a destino. Il sistema distributivo attuale è “a corrente alternata” per questioni di sicurezza, ciò significa che la polarità viene continuamente invertita secondo una frequenza (normalmente 50 herz) e con una forza d’uso di 220-230 v. Un voltaggio che va bene per i grossi elettrodomestici, ma che in molti altri casi un trasformatore riduce al voluto (di solito: 12 o 9 v), mentre se andassimo alla centrale dove si produce elettrica che la produce vedremmo grossi cavi che trasportano fotoni a 500.000 o 380.000 v. Con la rete domestica al massimo rimediamo una scossa, ma se entriamo in una stazione di trasformazione con cavi anche solo a 20.000 v a meno di 20 cm. troveremo morte immediata. Se accendiamo la radio per ascoltare le notizie del mattino mettiamo in funzione un ricevitore di onde radio, flussi di fotoni con lunghezze d’onda tra 10 8 e 10 10 nm., come manderemo o riceveremo fotoni simili parlando al  telefonino con qualcuno. Se poi accendiamo il fornetto a microonde (tra 10 6 e 10 8 nm.) esse metteranno in caotico movimento le molecole dell’H2O nei cibi, producendo uno degli aspetti più evidenti dell’entropia, il calore prodotto dagli urti tra le molecole dell’acqua. Se usiamo lampadine di vecchio tipo, quelle a incandescenza, costituite da un’ampolla sotto vuoto con all’attacco un filamento metallico che si arroventa, dobbiamo stare attenti poi a non toccarla, dopo poco scotta. Quel calore, quei fotoni non diventati luce, è energia sprecata (entropica), e ciò vale per ogni elettrodomestico che disperda calore, dal frigorifero al rasoio elettrico al modem con cui accediamo a internet.

    Finita la notte, appena l’alba risulterà incipiente, ci ritroveremo di fronte a uno spettacolo ancora più stupefacente, col cielo solcato all’orizzonte da vapore condensato in nuvole con luci e colori che vanno dal giallo al rosa al grigio, in un caleidoscopio che muta di istante in istante sino a che il Sole si alza e illumina via via vegetazione, montagne, mari, case e cose, nella loro rinascita al giorno. Ebbene, tutto ciò è ancora sempre il frutto dei fotoni sparati dalla nostra stella e dei loro differenti stati energetici, frequenze, lunghezze d’onda che il nostro occhio può cogliere. Se poi intenderemo continuare a vivere il nostro giorno speciale dovremo dedicarci a qualcosa di meno poetico ma non meno interessante. Uscendo all’aperto in pieno sole e posando le nostre mani su tutti gli oggetti che ci verranno a portata ci accorgeremo che non tutti hanno la stessa temperatura, e se avessimo con noi un termometro a contatto potremmo anche misurarle. In questo caso i fotoni possono essere considerati soggetti passivi,  poiché sono i corpi, e specialmente la loro superficie, a determinare il tipo di assorbimento che determina la loro temperatura superficiale e il colore che percepiamo.

    Il rapporto tra colore superficiale e calore disperso è stretto, ci accorgeremo subito che a parità di struttura molecolare i corpi neri sono i più caldi, seguono i bruni, i rossi, i gialli, i verdi, gli azzurri e infine i bianchi. Ciò dipende dal fatto che il nero assorbe tutte le frequenze, gli azzurri poche e il bianco nessuna. Il calore è l’energia ceduta dai fotoni assorbiti, mentre quelli a frequenze respinte danno il colore alle superfici e diffondono luce riflessa. Se vediamo bianco è perché quella superficie rimanda indietro tutti i fotoni del visibile (se passassero attraverso un prisma vedremmo i sette colori dell’iride), se vediamo nero è perché li assorbe tutti. Abbiamo detto a parità di struttura molecolare nello spessore del materiale investito, ma è la tipologia della superficie ad assorbire o respingere. I conduttori (p.e. lamiere) e i colori scuri assorbono e si scaldano, i coibenti (isolanti termici) e i colori chiari respingono. Se abbiamo lasciato la nostra auto in pieno sole, a prescindere dall’angolo tra la superficie considerata e i raggi incidenti, ci accorgeremo che la macchina è e rovente, ma il color bianco del muro è quasi fresco. Ciò dipende dalla differente conducibilità della lamiera di ferro, ma dipende anche da compattezza e porosità, cioè dalla quantità d’aria che il corpo racchiude nei suoi alveoli, per cui i coibenti sono sempre molto porosi e leggeri.

    Con il legno, ma ancor più col sughero o qualsiasi altro coibente posto sotto il nostro tetto di casa eviteremo che il calore estivo lo surriscaldi e che il gelo invernale lo raffreddi. Ogni volta che però apriremo un infisso l’aria calda (a molecole agitate) tenderà a andare verso la fredda (a molecole ferme) e viceversa. Questo fenomeno dipende dalla tendenza di ogni realtà termodinamica ad equilibrare il più e il meno verso l’eguale, cioè i fotoni si spostano da dove sono più fitti ed energetici a dove sono più radi e a bassa energia. Ma torniamo all’entropia, la dispersione di calore da lavoro, per scoprirla nella nostra auto e nel nostro corpo se abbiamo deciso di fare un po’ di jogging in un parco. Prendiamo l’auto e viaggiamo una manciata di minuti; ma appena a destinazione ci accorgeremo che il cofano è caldo. Quel calore è piccola parte di tutta l’energia sprecata dal motore e dagli attriti per far girare le ruote. La trasformazione di energia esplosiva in movimento delle ruote comporta una serie di passaggi e trasformazioni lineari-rotatorie a spreco elevato. Ci metteremo finalmente a trotterellare nel verde, ma dopo un po’ proveremo un senso di disagio perché saremo accaldati e sudati. Ciò perché la trasformazione di energia muscolare (di zuccheri) in movimento degli arti va in parte sprecata ed espulsa con la sudorazione per mantenere l’isotermia del corpo. Constatiamo così che il moto corporeo è un processo meccanico di trasformazione energetica con elevata entropia, per quanto con un resa maggior di un motore a scoppio od elettrico.               

    Le considerazione fatte sopra riguardano i fotoni, generatori di elettromagnetismo, che nel libero spazio si offrono a noi come luce, forza motrice, onde radio, calore, microonde, ecc., mentre all’interno degli atomi essi agiscono da quanti di energia. Nel parco ci siamo immersi nel verde, ma perché la vegetazione è in prevalenza verde? È un frutto dell’evoluzione che riguarda molti vegetali; appena l’ossigeno (elemento di per sé distruttivo) ha incominciato ad abbondare sulla Terra gli organismi hanno imparato ad utilizzarlo (ma quanta peirasi e quanta ektromasi prima di arrivarci!). Per adattamento e opportunismo biologico anche i fotoni solari erano utili energie, poi anche l’anidride carbonica (CO2 da C + 2 O) è stata usata per produrre tessuti, trovando nella clorofilla uno straordinario catalizzatore essendo il verde il colore a maggior rendimento metabolico. Ciò significa che è la parte rossa della luce solare a venire assorbita perlopiù dai vegetali, “scaldando” la pianta e migliorando il metabolismo. Per i fiori la questione è più complessa, in essi i colori si coniugano con le forme a scopi sessuali più che metabolici, infatti sono appendici non-strutturali ma sessuali e temporanee. Il loro scopo favorire l’incontro tra il seme maschile e quello femminile, che costituisce la struttura profonda del fiore. Questa strategia sessuale si manifesta in molti modi, ma la più comune associa colori e forme per attrarre gli insetti impollinatori e usarli come vettori del polline all’ovario.

    Le nostre precedenti considerazioni, e altre simili di carattere fisico, chimico-fisico, chimico, bio-chimico, biologico, riguardano fenomeni che sono del tutto indipendenti dall’homo sapiens. Il fatto che ci sia un mammifero intelligente che osserva la realtà, ne analizzi gli aspetti, li classifichi e li definisca, è irrilevante. Ancor meno che sia in grado di elaborare conoscenze, inventare equazioni, formulare teorie; tutte belle cose che anche solo alla natura terrestre non aggiungono né tolgono nulla (anche se possono distruggerla!). Ciò che l’uomo constata esiste già da oltre 13 miliardi d’anni mentre egli è comparso meno di 200.000 fa.  Per 12.999.800.00 anni il mondo è esistito senza la presenza dell’homo sapiens e la sua venuta non lo ha cambiato in nulla.  L’uomo è superfluo per la realtà cosmica, sicché per lui il “senso del cosmo” è tutto sommato “il senso di sé”: Della realtà cosmica possiamo anche infischiarcene perché è la realtà antropica ad interessarci, quella importante “per vivere”. Il cosmo non ha senso e noi non abbiamo senso in esso, ma per evitare il nichilismo un senso dobbiamo darcelo e per poter trovare un significato dell’essere-nel-mondo e dell’esistere-in-quanto-uomini su questo infimo pianeta di un infimo sistema stellare alla periferia di una tra miliardi di miliardi di galassie, dobbiamo tematizzare l’esistenzialità.  

    Abbiamo vissuto un giornata “fuori contesto”, nel fisico e nel biologico, mentre i più l’avranno vissuta “in contesto” e molto spesso pensando a qualcosa di meta-fisico, qualcuno leggendo oroscopi, altri stringendo agli amuleti. Ogni qual volta l’uomo è dimentico della natura, dei fenomeni, del divenire, delle cose e dei fatti, è sempre a rischio di cadere nel metafisico. Come evitarlo? Ci sono strade per evadere dalla materialità senza tradire la realtà umana? Vediamo. Noi siamo fatti interamente di materie: di fermioni (elettroni, quark-up e quark-down) e di bosoni (fotoni-quanti, gluoni e bosoni nucleodeboli). Dalle unghie dei piedi alla parte più complessa della corteccia cerebrale siamo degli assemblati di fermioni + bosoni + quanti: tutto qui. E il pensiero? È una forma sfuggente di epi-materia, un epifenomeno del sistema nervoso prodotto da cellule molto speciali, i neuroni coi loro assoni collegati da sinapsi, le cose più misteriose e stupefacenti della materia. In numero elevatissimo per neurone, misteriose, quasi immateriali, esse costituiscono i veri attori di quel fenomeno straordinario che è il pensiero. Più in là, allo stato attuale, non sappiamo andare, anche se quella nuova disciplina che in relazione alla sua interdisciplinarità tra competenze diverse ha assunto il nome di scienze cognitive, riesce a produrre sempre nuove conoscenze su come funziona il cervello.

    Dal punto di vista della biologia e della neurofisiologia è difficile aggiungere altro; forse perché ogni “aggiunta” ci riprecipita nella metafisica? Non necessariamente. In Necessità e libertà abbiamo intravisto una via extrafisica [3] tenendoci lontanissimi dalla metafisica. Che cosa intendevamo? Che la fisica non esaurisce affatto la realtà antropica. Per quanto”ci concerna”, nella nostra vastità esperienziale, fatta non solo di percezione ma anche di emozioni e di sentimenti, la fisicità ha peso modesto. Il dualismo antropico reale (entro la cornice del pluralismo ontologico) è perfettamente compatibile col pluralismo ontofisico. L’ontologia pluralistica permette di coniugare il pensare la realtà cosmica e sentire la realtà antropica perché l’esistenza di un homo sapiens è anche esistenzialità (cioè possiede individualità) e non solo esistentività (che concerne un ruolo e tutt’al più una personalità). D’altra parte i meccanismi del pensare sono tutto sommato abbastanza uguale per tutti i cervelli, ma è il sentire che è una fenomenologia individuale, particolarissima. Un “individuo” infatti non è solo un homo sapiens ma molto di più; egli non è solo una persona ma molto di più, perché sia la parola latina persona che la corrispondente greca πρόσωπον significano “maschera”. La maschera è il ruolo dell’attore sulla scena della tragedia greca, ma anche l’attore “sulla scena del proprio esistere reale”, con una situazione, una condizione, un ruolo. L’individualità molto di più e molto altro, è una singolarità unica e irripetibile, una specificità che distingue l’uno dall’altro sei miliardi di individui che vivono su questo pianeta e di cui l’idema è nucleo caratterizzante. [4]

 

 

   

                                      9.2 Epigenesi sostruttiva ed epigenesi hyletica

 

    L’insieme delle leggi fisiche, oltre che rappresentare le linee evolutive del nostro universo, sarebbero l’a priori del suo esistere? Molti lo pensano, nella fantasia popolare l’origine e la causa di tutto ciò si chiama Dio e molti fisici, anche illustri, ne sono altrettanto convinti. L’idea che le leggi fisiche preesistano alla fenomenologia delle materie, e che quindi ne siano origini-originate da una Necessità o da una Volontà è priva di alcun fondamento. Eppure è concetto-base di tutte le cosmogonie in tutte le culture storiche presenti sul pianeta, da polo a polo, da meridiano a meridiano, e pone invariabilmente il concetto di una origine-causa-legge-prima-ultima. Credenza legittima e che in quanto utile alla psiche dei molti non è affatto riprovevole, ma che ci fa anche capire perché molti tra i moltissimi possano essere bravissimi fisici. Non però Lee Smolin, che afferma:

 

Si apre la possibilità che molte proprietà delle particelle elementari (o anche tutte) siano contingenti e dipendano da quale soluzione delle leggi viene scelta nella nostra regione dell’universo o nella nostra particolare era. Potrebbero esser diverse a seconda delle regioni; potrebbero addirittura cambiare nel corso del tempo. [5]

 

In un saggio del 2000 l’epistemologo Mauro Dorato svolge il tema delle leggi di natura analizzandone significati e connotazioni e pone, in chiusura dell’introduzione, due fattori all’origine del concetto di “legge naturale”: «l’influenza dello sviluppo tecnologico sui nostri modi di rappresentare la natura e la derivazione teologica del concetto di legge naturale.» [6], concludendo:

 

Accingendoci a esaminare queste due componenti, facciamo presente che dedicheremo più spazio alla seconda che non alla prima: l’universalità e la necessità che ancor oggi associamo alla nozione di legge di natura trovano infatti la loro spiegazione storica nell’idea che la natura sia espressione dell’immutabilità della volontà divina. [7]

 

“Universalità e necessità” direttamente o indirettamente riconducono al concetto di divino e “lo confermano” quale origine-fondamento. Ad una terza componente non meno importante Dorato accenna in una nota, rilevando che una «soggiacente struttura matematica» del cosmo è il contributo di Platone nel Timeo [8]. Contributo non accessorio, ma fondamentale anche per le teologizzazioni moderne   

    Il Nostro nota che è con Cartesio che nasce il concetto di “legge” su base matematica, poiché quella di Galileo sulla caduta dei gravi e le tre di Keplero «non vengono mai chiamate “leggi”» [9], per quanto il primo avesse detto che l’universo « è scritto in lingua matematica » derivando da Dio «la Scrittura Sacra e la natura, quella come dettatura dello Spirito Santo, e questa come osservantissima esecutrice de li ordini di Dio» [10] Keplero, da parte sua, si era riferito ai solidi platonici per descrivere la forma del cosmo con l’assunto «che Dio sia garante della comprensibilità dell’universo fisico, avendo egli stesso creato le leggi.» e che «Dio viene chiaramente assimilato a un matematico che ordina l’universo in  base a un criterio di “bellezza geometrica”». [11] Anche Copernico sottintende la legge come frutto della volontà di Dio, e Ticho Brahe afferma: «le meravigliose ed eterne leggi dei movimenti celesti, così diverse eppur così armoniose, provano l’esistenza di Dio.» [12]  Le leggi, infatti, pare non possano essere che divine, e in quanto ci sono ratificano l’esistenza di un Dio legislatore, chiudendo un cerchio dialettico e tautologico che è apologeticamente molto efficace.

    Cartesio è il grande notaio che sentenzia (§ 21 del Principia Philosophiae): «per quanto riguarda [la causa prima e più universale del  movimento] mi sembra evidente che non ce n’è altra che Dio» [13]. Ne segue:

 

Che è una perfezione di Dio non solo di essere immutabile nella sua natura, ma anche di agire in un modo che egli non cambia mai […] poiché egli ha mosso in maniere molto differenti le parti della materia, quando le ha create, e le mantiene tutte nella stessa maniera e con le stesse leggi che egli ha fatto osservar loro nella creazione, conserva incessantemente in questa materia un’eguale quantità di movimento. [14]  

 

Esiste un rapporto diretto tra la divinità, la perfezione e la necessità che il creato si muova “esclusivamente” in base alla volontà di Dio come legislatore di tutto il Creato (dell’uomo un po’ meno!). Spinoza e Leibniz non mutano sostanzialmente questa impostazione, limitandosi ad operare sui dettagli ma divaricandosi sul dualismo necessità/libertà, l’olandese radicalizzando la prima e il tedesco la seconda. Ma il sostanziale platonismo di Cartesio continua a dominare lo scenario fino a Russell, Whitehead e oltre.

    Le equazioni differenziali e il calcolo infinitesimale nella definizione delle leggi ci riportano a William Whewell (già citato a proposito della simmetria),  che a metà dell’800 sosteneva che l’indagine del “come” fenomenico presuppone la “connessione dei fatti” in base a tre fattori: 1°, le condizioni iniziali quale variabile dipendente; 2°, l’equazione differenziale rispondente alla legge come variabile indipendente; 3°, i coefficienti da applicare all’equazione. Tripartizione fattoriale ripresa anche da Barrow nel suo The World within the World del 1988 ponendo nell’ordine: 1°, la struttura algoritmica; 2°, le condizioni iniziali; 3°, le costanti di natura [15]. L’excursus di Dorato prosegue analizzando diverse posizioni dell’epistemologia contemporanea per arrivare a Bad van Fraassen, teorizzatore di un empirismo costruttivo (si veda § 6.1) che rappresenta l’abbandono del platonismo per il pragmatismo. A lui la nozione di legge pare: «un retaggio del passato della scienza moderna, legato a suggestioni teologiche senza più ragion d’essere» sicché: «è un relitto di un’età tramontata, e sopravvive, come la monarchia, perché si suppone erroneamente che non rechi danno » [16]. Posizione radicale presupponente che il concetto di legge possa essere superato in quelli di simmetria e probabilità, che introiettandolo ne eliminano significati equivoci e svianti.

    Se l’epistemologia analizza le affermazioni della scienza noi tendiamo a rivolgere la nostra attenzione direttamente sugli oggetti di essa, in rapporto alle loro denotazioni (alla datità) e alle connotazioni (all’interpretazione). Sul tema delle leggi la nostra impressione è che ci si preoccupi assai più di definire il concetto di legge che cercare di capire che rapporto ci sia col “legificato”, visto quasi sempre come l’oggetto passivo che la subisce “per essere”. Ciò a noi pare irragionevole, anche perché le leggi fiche che governano la materia inorganica solo in parte sarebbero capaci di governare la vita e le leggi biologiche sono del tutto “nuove” rispetto ad esse perché frutto di evoluzione.  È l’apparire di un primo vivente auto-replicabile a produrre proto-leggi del vivente che con l’evoluzione si sono via via poi affinate. È stata proprio la non-ripetizione che ha determinato il passaggio dall’inorganico all’organico e poi al vivente grazie al caso, che ha scompaginato le carte dell’essere. Che poi la vita sia nata proprio qui o altrove, portata da un corpo esterno (una meteorite o una cometa), sempre di caso si tratterebbe.

    Abbiamo chiamato epigenesi sostruttiva la processualità assemblativa delle particelle elementari, degli atomi, delle molecole inorganiche e di quelle organiche più semplici (grosso modo sino a 10-12 atomi di carbonio), sia nel loro singolo divenire e sia per le strutture più complesse che vengono create. Epi-genesi, quindi,  nel senso che ogni ente genera il futuro di se stesso, sostruttiva (dal latino substruěre) perché insieme con l’esistere e l’evolvere ogni parte auto-crea le “fondamenta” del proprio perpetuarsi ed insieme concorre all’evoluzione. Sono quindi sempre le parti a stare “prima” e “sotto” ad un tutto, sì da determinarne la genesi globale di esso col loro divenire: esse sostruiscono le “fondamenta” dell’esistere del sistema che hanno organizzato. Ma essa è anche retroazione ristrutturante (molto evidente in biologia) dove un effetto diventa causa e retroagisce modificando la causa che lo ha determinato (feedback). Non è peregrino pensare che anche l’ente fisico possa in qualche modo produrre qualche feedback in una prevalente causalità lineare intercalatala casualità intricata (casuale-stocastica). Gli esiti di nuove direzioni si tradurranno nella maggior parte dei casi in ektromasi, ma ogni tanto una mutazione sopravviverà come novità evolutiva insignificante o forse importante.

    L’epigenesi hyletica è il modo di assemblarsi e di organizzarsi” verso la complessità, ma il semplice e il complesso convivono e si sovrappongono, con rimescolamento degli indirizzi, Gell-Mann vede l’indagine sulla mescolanza del semplice e del complesso come un problema scientifico, scrivendo:

 

Una delle grandi sfide che si pongono alla scienza contemporanea è quella di ricostruire il miscuglio di semplicità e complessità, regolarità e casualità, ordine e disordine su per tutta la scala, dalla fisica delle particelle e dalla cosmologia fino al regno dei sistemi complessi adattativi [il vivente]. Vi è poi l’esigenza di capire in che modo la semplicità, la regolarità e l’ordine dell’universo alle origini abbiano dato luogo, nel tempo, alle costruzioni intermedie tra ordine e disordine che sono prevalse in molti luoghi in epoche posteriori, rendendo possibile, fra l’altro, l’esistenza di sistemi complessi adattativi come gli esseri viventi. [17]     

 

I processi epigenetici del vivente non solo sono ultra-complessi, ma implicano quel “salto” all’olistico degli organismi viventi che resta un mistero storico. Ma anche il processo sostruttivo che ha creato i rapporti tra i fermioni e tra essi e i bosoni sino ad arrivare agli atomi è difficile da capire. L’epigenesi hyletica rappresenta comunque una maniera del farsi della materia che va distinta da quella sostruttiva, fissando molte “regole del gioco”, ma non tutte. È il motivo per cui la chimica può utilizzare molti concetti della fisica, ma poi deve anche crearne di propri.

 

      

         

         9.3 Le regioni della realtà

 

    Il sostantivo femminile latino regio, dal verbo regĕre (reggere, governare ), indica sia la linea di confine e sia il territorio da essa delimitato; in subordine “campo”, “distretto”, “sfera”, “dominio”. Con regioni noi indichiamo i contesti infra-cosmici che presentano caratteri di relativa omogeneità con l’operatività sia di leggi generali che di altre specifiche. La biosfera quale RgC, è la “nostra”, quella che ci  ospita e ci include, campo e fonte primaria delle concettualizzazione umane. Ma la RgM, che onticamente abbiamo tenuta separata, la “abbraccia” al suo contorno. Nella RgG i corpi contano tipologie sterminate per strutture, forme e fenomenologie. La RgP, infine concerne gli enti descritti dalla MQ. E tuttavia  la regionalizzazione opera solo un primo e sommario discrimine tra contesti di realtà a-specifici, perché ogni contesto contiene sotto-contesti, sistemi e sotto-sistemi. La realtà per capirla è indispensabile farla a fette e poi ridurre le fette in piccoli dadini da affettare ancora. Heisenberg era un monista, però negli anni ’30 affermava:

 

Con ciò si pone ex novo il compito di ordinare le diverse connessioni o «ambiti della realtà», di comprenderle e di determinarle nel loro rapporto reciproco; di porle in relazione alla divisione di un mondo «oggettivo» e in uno «soggettivo»; di delimitarle reciprocamente e di esaminare in che modo si condizionino l’un l’altra; di spingersi infine verso una comprensione della realtà che colga le diverse connessioni come parti di un unico mondo ordinato in modo sensato. [18]

 

La conclusione è monista, ma il concetto di «ambiti della realtà» è pluralista.  Quantunque molti principi posti dal grande fisico andassero in un senso pluralista era legato al suo background monista.

    Le regioni sono solo specchi del complesso e tutto ciò che è complesso va analizzato innanzitutto nei dettagli, ma un dettaglio è analizzabile soltanto su uno sfondo “proprio”. Conoscere il complesso implica il suo smembramento e l’analisi di singole porzioni; quanto più saranno piccole tanto più saranno indagabili e “diranno di sé”. Le tesi olistiche vanno bene per la psicanalisi e l’agopuntura, perché ogni persona è olistica; non sempre per la medicina, meno per la chirurgia, per nulla in fisiologia. L’olismo è un criterio perfetto per indagare ciò che è olistico, non in fisica dove di olistico non c’è nulla. Ma anche di un ente olistico si saprebbe ben poco se non si fossero dissezionati cadaveri per isolare e studiare singolarmente nervi, tendini, muscoli, ghiandole, organi, neuroni. Per comprendere meglio com’è fatto e funziona il cervello ci è voluta la PET (la tomografia ad emissione di positroni) e l’analisi di tessuti compromessi è diventata possibile solo con la TAC. Capire scientificamente l’homo sapiens è capirne i dettagli, altrimenti si fa filosofia, antropologia culturale o psicologia. A maggior ragione il cosmo in generale andava sezionato per “gruppi di dettaglio”, ma le regioni non sono topologiche, bensì funzionali.

    Però il monismo deterministico è sempre incombente. Il grande Einstein, da spinoziano irriducibile, dichiarava:

 

Sono un determinista, obbligato ad agire come se il libero arbitrio esistesse, poiché se desidero vivere in una società civilizzata, devo agire in maniera responsabile. So che filosoficamente un assassino non è responsabile dei suoi delitti, ma preferisco non prendere il the insieme a lui […] Ogni cosa è determinata, il principio come la fine, da forze su cui non abbiamo alcun controllo. È determinata per l’insetto quanto per la stella. Esseri umani, vegetali o polveri cosmiche, tutti danziamo a un ritmo misterioso, intonato a distanza da un suonatore invisibile. [19]  

 

A parte il tono, più o meno è la posizione di Fritjof Capra senza l’esperienza mistica:

 

Cinque anni fa ebbi una magnifica esperienza […]  “vidi” scendere dallo spazio esterno cascate di energia, nelle quali si creavano e si distruggevano particelle con ritmi pulsanti; “vidi” gli atomi degli elementi e quelli del mio corpo partecipare a quella danza cosmica di energia; percepii il suo ritmo e ne “sentii” la musica: e in quel momento “seppi” che questa era la danza di Śiva, il Dio dei Danzatori. [20]

 

Monismo, determinismo ed olismo si rincorrono, anche se il terzo è ascetico e i primi due no. La regionalizzazione va in direzione opposta e tiene anche conto dl fatto che l’universo, espandendosi, “si sfibra”. Anche per questo non può essere olistico, perché l’olismo per sua natura avvicina, struttura, lega, integra e omogeneizza, mentre in un cosmo che si gonfia tutto s’allontana.

    Regionalizzare la realtà implica il pluralismo ontofisico stesso come concettualizzazione filosofica ma non scientifica, poiché l’operare della filosofia non produce scienza, essa opera cognitivamente in modo differente. La regionalizzazione evita anche il rischio di cadere nella trappola dei “livelli”; essi, per definizione, gerarchizzano in ontologia verticale, indicano piani sovrapposti e anche discontiguità. Le regioni, al contrario, sono perfettamente contigue e intersecate, ma in uno stesso territorio che è la realtà generale, ed il loro rapporto è di compenetrazione fisica, ma solo in parte funzionale. Come le regioni geografiche si qualificano “nel territorio”, così le regioni della realtà si distinguono per fenomenologici differenti entro una realtà d’“insieme”. Le quattro regioni da noi poste alludono a quattro “stati” (o “fasi”) della materia, per ognuno dei quali valgono meccanismi propri. Situazioni ontiche che funzionano effettualmente in modo diversificato, dove “a distanze minime” le leggi macrocosmiche sono inoperanti, mentre “a distanze enormi” (nella ReG) ci sono altri modi d’essere. Che le regioni si “offrano” a diversità di percezione ed osservazione da parte nostra è irrilevante, sono gli stati assemblativi a caratterizzarle; con la RgC contesto tutto a sé.

    Assemblati di atomi che costituiscono i gas, i liquidi e i solidi, cioè i componenti della realtà per noi “ordinaria”, che riguarda il mondo “dei fatti e delle cose” caratterizzano la RgM. Un mondo del quale si occupano varie branche della scienza come meccanica, elettrodinamica, termodinamica, ottica, acustica e chimica. Quest’ultima, colle acquisizioni maturate nel XX secolo, viene da molti considerata una branca della fisica per il fatto che trova i propri fondamenti proprio nella MQ [21]. Essa, pur concernendo effetti “macroscopici” è uno dei pochi campi dove il “sotto” resta operante anche se il “sopra” non ne reca segni evidenti.  Mentre la RgP è intelligibile soltanto alla strumentazione e al calcolo matematico, il mondo sur-atomico è accessibile anche ai nostri occhi.      La RgG è costituita quasi interamente da vuoto, solcato da sparute “collane” di  quegli enormi aggregati di materia che sono gli ammassi di galassie. Essa indica anche il cosmo nella sua generalità “extra-solare” con la stella più vicina (l’Alpha Centauri) raggiungibile dall’uomo soltanto in 4.000 anni di viaggio con un’astronave che volasse a 1.000.000 di Km./ora.

    In realtà di ciò che sta nel cosmo noi “vediamo” solo radiazioni ed effetti gravitazionali, poiché la RgG si distende per miliardi di anni luce [22], continua ad espandersi ed anche accelera. Forse è l’energia oscura a “gonfiarla”, mentre continuano a nascere e morire astri, farsi e disfarsi addensamenti diversi attraverso processi di tipo sia creativo che distruttivo. Le galassie sono in maggioranza ellittiche (discoidi) o a spirale (come la nostra e l’Andromeda), per quanto ce ne siano altre dove le irregolarità prevalgono o compaiono regolarità strane come forme “a tamburo”,   testimoniando il fatto che i processi gravitazionali portano a esiti differenziati e casuali. Le galassie totalmente irregolari, non classificabili, sono circa il 10% del totale, presentano forme tanto bizzarre quanto affascinanti. Le nubi gassose sono invece pseudo-corpi e laboratori cosmici dove nascono le stelle per assemblaggio di particelle instabili ad alte energie, formanti quel gas nucleare caldissimo chiamato plasma. Una particolarità di esso sta nel fatto di essere neutro, poiché i suoi costituenti sono totalmente ionizzati (non-legati) e il numero di essi a carica elettrica positiva (nuclei di idrogeno o elio) sono in numero corrispondente a quelli a carica negativa (elettroni). [23]

    Le stelle sono certamente gli oggetti più affascinanti della RgG; palle di fuoco variamente strutturate che formano galassie aggregandosi a miliardi. Anche i processi energetici stellari avvengono in maniera perlopiù caotica e casuale, infatti la “resa” delle condensazioni in un gas proto-stellare è abbastanza bassa, dell’ordine del 40% [24], con una massa costituita prevalentemente di idrogeno ed elio. Le stelle variano in luminosità (densità di fotoni) e tipo di luce (energia di essi), e i loro colori coprono la gamma dello spettro; dall’azzurro (per temperature più alte) al rosso (per temperature più basse) passando per il bianco e il giallo (come il nostro Sole). Per stelle azzurre di tipo O e B le temperature (espresse in gradi Kelvin) vanno da 5 x 10 4 a 2,5 x 10 4, le stelle bianche (tipo A) sono circa da 8,5 x 10 3, le gialle (tipi F e G) da 6,5 x 10 3 a 5 x 10 3, stelle arancio (K) sono sui 4 x 10 3, ed infine, sui 2 x 10 3, quelle rosse [25] . 

    Abbiamo lasciato per ultima la RgC, che condivide elementi strutturali con le altre, ma si caratterizza come un sistema a sé e come anarchia assoluta. La visione che di essa noi abbiamo coincide con quella espressa da Jacques Monod nel già citato Il caso e la necessità, con la mutazione genetica che porta il “nuovo”, lo sporadico successo di qualche processi evolutivo, e miliardi di aborti (ektromasi). Ciò che permane categorialmente nella biosfera, le specie viventi, sono caratterizzate da due leggi “di persistenza” che il grande biologo chiama invarianza e teleonomia in “macchine che si costruiscono da sé e che si riproducono” [26]  Egli così definisce l’invarianza:

 

Si tratta della capacità di riprodurre una struttura con un grado d’ordine molto elevato, e poiché il grado d’ordine di una struttura si può definire in unità d’informazione, diremo che il “contenuto d’invarianza” di una data specie è la quantità d’informazione che, trasmessa da una generazione all’altra, assicura la conservazione della norma strutturale specifica. [27]   

 

E la teleonomia:

 

Tutti gli adattamenti funzionali degli esseri viventi, al pari di tutti gli artefatti di loro produzione, realizzano progetti particolari che si possono considerare come aspetti o frammenti di un unico progetto primitivo, cioè la conservazione e la moltiplicazione della specie. […] il progetto teleonomico essenziale consiste nella trasmissione, a una generazione all’altra, del contenuto di invarianza caratteristica della specie. […] si può ritenere che ogni struttura e ogni prestazione teleonomica corrisponda a una certa quantità d’informazione che deve esser trasmessa perché quella struttura si realizzi e quella prestazione si compia. Questa quantità può esser definita “informazione teleonomica”. [28]   

 

Non aggiungiamo nulla ai passi citati dal momento che il concetto di “macchine che si costruiscono da sé” rende efficacemente l’essenza del vivente, mentre le due leggi-base della fenomenologia biologica esauriscono il quadro di riferimento in cui inserire ogni dettaglio.

    Resta un’ultima considerazione da fare, poiché, escludendo i sognatori della TOE, è evidente che la fisica contemporanea sia dualistica, portata da due vettori teorici differenti, la RelG e la MQ. Ma sappiamo bene che molti fisici tendono oggi a voler “quantizzare” anche il macrocosmo (e forse non senza qualche ragione). In effetti, come nota Lachièze-Rey : 

 

Essa [la RelG] incespica tuttavia sui primi istanti del Big Bang o sulla fisica dei buchi neri, non riuscendo a trattare gli effetti quantistici attesi in queste situazioni. Più semplicemente, l’uso della relatività generale impone di “dimenticare” il carattere fondamentalmente quantistico dell’universo. [...] Ricordo semplicemente che la superfluidità e la superconduttività ci hanno mostrato come il campo di applicazione della fisica quantistica non si limiti alle scale microscopiche. Siamo sicuri che il contenuto dell’universo non abbia qualche proprietà quantistica, non ancora individuata, che svolge qualche ruolo a livello cosmologico? [29]

 

No, non ne siamo affatto sicuri, però lo pensiamo improbabile. L’atteggiamento filosofico da noi assunto, basato sul “reale”, sia pure con tutti i suoi limiti è però chiaro nell’aprire l’orizzonte ma nello stesso tempo prudente nei confronti di una visione troppo “elastica” delle realtà di “questo” cosmo espanso e freddo, ma non freddissimo. Il fatto che esso sia l’unico che permetta all’homo sapiens di esistere come suo teorico non c’entra col WAP, il principio antropico debole, palesemente  tautologico, bensì con l’esistenzialità di un animale che potendo percepire la realtà “se ne fa idea”. Come può “produrre artificialmente” nuove realtà in certe condizioni, ma che restano antropiche, non cosmiche. Noi siamo capaci di produrre nei nostri laboratori superfluidità, però dobbiamo creare temperature prossime a 0°K (zero assoluto)  mentre il cosmo ha una temperatura media di circa 2,7 °K.  Questa sola è “reale”, la nostra è “artificiale”. Per i superconduttori il problema dell’artificialità è solo in parte legato alla temperatura, è possibile infatti produrre superconduttori a temperature molto lontane dalla zero assoluto. Ossidi misti di ittrio + bario + rame diventano superconduttori a 90°K (-180°C), il problema è però che tali ossidi misti li fabbrichiamo noi, ma pare proprio che non esistano nella realtà, a parte l’assunto che “il possibile prima o poi si verifica”.    

                            

 

                         

                             9.4  Energia, hyiloinformazione ed antropoinformazione

                                  

    Le cose sono fatte di masse-energie e il divenire di processi; la realtà si costituisce con questi due sommari ingredienti. Ma noi constatiamo anche che le prime sono strutturate”in un certo modo” e che i secondi si verificano “in un certo modo”. La modalità dell’esistere e dell’accadere si manifesta come un insieme di fenomeni più o meno dinamici, definiti o indefiniti, chiari o nebulosi.  Quel che, al fondo di ogni nostra osservazione, riusciamo a capire è solo quel “certo modo” di darsi degli enti di natura. Intuiamo infine che al disotto della fenomenicità si cela una sorta di paradigma che fonda anche il “certo modo” in cui si danno i nostri manufatti, con cui si comportano e funzionano i nostri congegni, i nostri strumenti, le nostre macchine. Ciò che l’homo faber produce è risultato poietico di un processo osservativo-riflessivo che l’homo cogitans ha eseguito “prima”. Sono l’osservazione, la riflessione e l’esperimento a permetterci di cogliere negli enti qualcosa del loro divenire per “come appaiono” e “come funzionano”. Ma ciò è possibile solo per una piccola porzione di realtà a nostra portata, per distanza, per mezzi, per intelligenza. Da ciò la domanda: ma “quanto” rimarrà sempre fuori-portata? Se si riesce a capire strutture e funzioni si è stati bravi e fortunati e si ha in premio lo scoprire hyloinformazione, ma non sappiamo se si tratti di “in-sé” o solo di intelligibilità. Gli enti di natura sono endo-formati mentre gli oggetti del faber sono etero-formati rispetto al loro essere, quindi antropoinformati. L’in-formazione è simile, ma né ha le stesse cause  né le stesse modalità, poiché con noi entrano in gioco ”fini ed usi” estranei alla natura.          

    Com’è noto il concetto di forma è in Aristotele natura in atto in contrapposizione a materia come mera natura in potenza (Fisica, II, 1, 193 b 28). Egli puntualizza col monismo l’indissolubilità di materia e forma in rapporto critico col dualismo di Platone, che vedeva la forma come elemento divino calato nella hylé, ed in quanto tale êidos piuttosto che morphé. Come forma essenziale per l’esistenza di una sostanza-essenza (ousìa) il concetto viene ad avere un rapporto diretto con quello di causa formale (infusa nella materia) distinta dalla efficiente (agente) in vista della finale. La causa materiale (come il bronzo a cui la causa efficiente applica la formale per conseguire la finale) è al livello più basso della realtà. Se per gli atomisti il fondamento della realtà era la materia e si giustificava l’indagine sul suo essere intrinseco (gli atomi), per gli idealisti e i post-idealisti il fondamento della realtà è la sostanza che implica forma, e la materia (in quanto natura in potenza) finisce per diventare un “insostanziale”. Scrive infatti nella Metafisica (V, 4, 1025 a 6,7): « Noi diciamo che esse [le cose materiali] non posseggono ancor la propria “natura” qualora non abbiano la specie e la forma. E pertanto ha una sua naturale esistenza ciò che possiede insieme la materia e la forma.» [30]

    La teologia filosofale sino al ‘600, a vario titolo e scopo, ha rielaborato il concetto aristotelico senza andare oltre, finché Bacone propone un’evoluzione significativa del concetto di forma, vedendovi un elemento dell’essenza della natura “non deducibile” discorsivamente (quindi non logico-metafisico), bensì inducibile con l’osservazione e l’esperimento e solo attraverso essi definibile. In altre parole, la forma è “estraibile” dall’oggetto con la conoscenza, fatta emergere attraverso un’operazione intellettuale a-logica in “reale” rapporto con la cosa. Posizione teorica di grande portata e tuttavia perlopiù trascurata, perché il condizionamento idealistico rimane dominante. Ma per capire come mai Bacone possa andare oltre la metafisica occorre tener presente il fatto che la sua concezione ontologica non è più monistica ma pluralistica. La complessità plurale della realtà appare solo nel momento in cui viene abbandonata la metafisica per guardare “alle cose” nella loro realtà, differenziata, complessa, molteplice. Dopo di lui i teologi filosofali Cartesio, Leibniz, Kant e seguaci non hanno fatto altro che rimasticare il concetto antico, “saltando” quindi Bacone e riconfermando l’eredità teologica. 

    Solo guardando alla contemporaneità, specialmente in riferimento al concetto di “perdita d’informazione” nell’entropia e agli sviluppi dell’informatica come latrice di “flussi d’informazione”, si va oltre. Ne deriva una reinterpretazione del concetto di forma e del suo derivato formazione che sfocia nel concetto di hyloinformazione, intrinseca agli enti fisici ai vari livelli di aggregazione. Il termine formazione è stato importante nella cultura germanica post-illuministica quale Bildung [31], e noi stessi lo abbiamo utilizzato nella formulazione del dualismo antropico reale [32].  Ma qui la parola formazione la intendiamo in senso fisico, corrispondente quale hyloinformazione, mentre nel caso degli esseri viventi parleremo di bioinformazione. Gli interventi umani alterano le forme “di natura” in una etero-forma come denotazione aggiuntiva, un’antropoinformazione entropicamente perdibile. L’hyloinformazione, “strutturale” alla materialità dell’ente di natura, rimane perlopiù invariata nei casi di “rottura” di un oggetto umano, ma più o meno alterata nel caso di materiali a base organica come il legno, che ha anche molta bioinformazione. La “forma” del legno (come organizzazione di carbonio, idrogeno ed ossigeno), dell’argilla (come organizzazione di silicio e di alluminio) o del bronzo (come organizzazione di rame e stagno) hanno hyloinformazione. Quindi hyloinformati in quanto endo-formati onticamente nel loro essere quel che sono, mentre quali materie prime utilizzate dall’uomo per produrre oggetti ricevono antropoinformazione. Le cose dell’uomo contengono pertanto informazione a due livelli, hyloinformazione come materiale d’uso più antropoinformazione quale oggetto finito. Se sul nostro tavolo c’è un bicchiere e va per terra non sarà più “oggetto per bere” perché l’antropoinformazione è stata compromessa, ma l’hyloinformazione è immutata. C’è stata entropia solo come perdita “di definizione d’impiego” e di “funzione d’impiego”. Senza un’operazione di fusione e di ri-informazione quel vetro non sarà più utilizzabile per l’uomo se non come qualcosa che “può tagliare”.

    Tale vetro de-antropoinformato possiamo lasciarlo al suo destino di materia inerte e inutilizzabile, oppure re-informarlo, ma in tal caso dovremo spendere energia per fondere il vetro, e poi altra ancora per farne di nuovo un bicchiere o un posacenere o una lampadina. Dovremo riconferire antropoinformazione al vetro affinché serva di nuovo a qualcosa. Se i cocci finiranno nella spazzatura generica e verranno sotterrati in una discarica quel vetro diventerà definitivamente inutile, ma, con hyloinformazione immutata, potrà sempre venir dissotterrato e nuovamente fuso per fabbricare qualcosa. Il non infrequente destino di qualsiasi oggetto fragile ci permette di porre le coordinate di ciò che si deve intendere per hyloinformazione. Nel mondo contemporaneo l’informazione è diventata uno dei cardini dello stesso concetto di cultura. L’informazione del vetro ha per scopo il suo “utilizzo” nella quotidianità, quella di un chip riguarda un “produrre” dati informativi, un informazione per produrre ulteriore antropoinformazione e molto altro ancora se la si mette a frutto.

    L’hyloinformazione contiene però anche aspetti più complessi e noi dobbiamo chiederci quale rapporto esista tra una legge fisica nel divenire e ciò che ci sia di essa in qualche “divenuto”; poiché la legge contribuisce al divenire ed entra in un divenuto. È la ragione per cui un divenuto (un effetto) è potenzialmente causa in virtù del tipo d’informazione ricevuta, che potrà produrre altro-da-sé come massa-energia hyloinformata. Il rischio gnoseologico è che l’informazione, in quanto “immateriale” secondo il senso comune possa esser vista come non-materia, pensiero, intelligenza, lógos, divinità informatrice. In realtà non può esistere alcuna informazione senza masse-energie che “la portino” e può stare soltanto dove ci sono cose e fatti, essendo l’essere di questi “informato-informatore” potendo informare altro-da-sé. È nel momento in cui sono nati i primi fotoni che nascendo hanno creato la “propria” informazione, quella di massa zero che li fa volare a 299.792.458 Km/sec. insieme all’energia che hanno li fa essere bui o luminosi, caldi o freddi, portatori di vita o di morte. Perciò il primo fotone è viandante archetipico “che va” e costruisce l’universo nel verso machadiano: Se hace camino a l’andar.         

    La realtà che ci concerne è costituita da enti privi di massa come i fotoni e da altri dotati di massa, come i gas dell’aria fatti di idrogeno, azoto, ossigeno e carbonio. Una parte degli enti composti sono facili a distruggersi e noi sfruttiamo ciò per produrre energia termica.. In generale qualsiasi sostanza può mutare e le sue trasformazioni strutturali consistono nell’assorbire energia o cederla. Un solido passa allo stato liquido assorbendo energia e poi a quello gassoso assorbendone altra, sì parla perciò di “stati” per la maggiore o minore capacità di cedere o assorbire energia. Si suole dire, in base al secondo principio della termodinamica, che si produce energia “in perdita” ogni qual volta la materia passa da uno stato ordinato ad uno disordinato. Le molecole di acqua nei cristalli di neve sono massa molto ordinata, se ricevono energia (calore) si sciolgono, se l’acqua riceve ulteriore energia si trasforma in vapore e questo è lo stato più disordinato in cui può presentarsi l’H2O.  Ma la sua struttura interna nel passare da solido a liquido e poi da liquido a gas, ha perso vieppiù ordine interno, passando a stati sempre più disordinati, infatti perdere ordine vuol dire perdere informazione e acquistare energia. La “forma” esterna (nettissima nel cristallo, modesta nell’acqua, inesistente nel vapore) indica l’“istruzione” [33] d’ordine interno in ragione della proporzionalità inversa energia/informazione.

    Un atomo di idrogeno possiede più informazione (maggior complessità strutturale) e meno massa dei suoi costituenti presi separatamente. Se un protone e un elettrone si assemblano (con questo che va in orbita intorno a quello) si ottiene un atomo di idrogeno ed “in più” si forma un fotone ultravioletto molto energetico. Lo stato finale del sistema rivela che un protone e un elettrone combinandosi, ovvero connettendo le loro masse per strutturarsi in un atomo, formano un ente che contiene meno massa ma più informazione, e che la massa mancante si esprime come un bosone che porta energia libera. Ma siccome l’atomo così formato possiede meno massa dei suoi costituenti e più informazione, se ne può dedurre che questa maggior informazione si ha a spese delle masse di partenza. Ciò significa anche che la massa di arrivo è ad un livello di informazione strutturale più alto avendo “pagato” in energia per assumerlo: questa è la modalità con cui da strutture materiali più semplici si passa ad altre più complesse. Ciò vale in generale, sia per le naturali aggregazioni biologiche sia per i manufatti e sia per le manipolazioni della natura. L’informazione è direttamente proporzionale alla complessità di un ente o di un sistema e ove due entità fisiche, dotate di una certa massa e di una certa struttura interna (informazione-istruzione), si assemblino, la nuova entità che ne deriva possiede un po’ meno massa-energia e un po’ più informazione.

   Ci sono quindi almeno tre tipi di informazione negli enti del mondo: l’ hylo-informazione nelle materie-masse e nei legagenti, la bio-informazione negli organismi viventi, l’antropo-informazione nei manufatti e nelle opere dell’uomo.  Dal punto di vista dell’informazione anche la cosmogonia si offre in una nuova luce. La fase inflazionarla è stata infatti un passare dall’omogeneità alla differenziazione e con essa all’aumento progressivo di hylo-informazione degli enti che “facendo-facendosi” hanno pagato in energia. Nulla ci vieta di immaginare addirittura una pre-hyloinformazione primordiale molto elementare, che potrebbe verosimilmente esser stata dal più al meno di tipo simile a quella che possiamo riscontrare nel kenón. Se alla “origine” c’era un vuoto quantistico simile a quello ottenibile in laboratorio, l’origine può darsi possedere già un qualche tipo di informazione, non strutturale  ma vettoriale o tendenziale in senso evolutivo.

    L’informazione, quella che disegnerà il divenire cosmico, la si può pensare di tre tipi: 1°, insita nell’àkeiron,  mare quantistico originario; 2° portata dall’elemento perturbativo; 3°, coniugazione di entrambe in evoluzione. Quando diciamo che lo stato energetico e l’hyloinformazione caratterizzano l’essere di una particella, intendiamo anche alludere al fatto che la materia elementare non essendo “fatta per noi” non è tenuta a rendersi a noi intelligibile. Abbiamo visto che quando l’homo sapiens “pretende di sapere” dove stia una particella e a che velocità si muova (che energia possieda) è un perturbatore che irrompe in una regione della realtà cui è estraneo. Siccome deve usare strumenti che gli permettano di “vedere” la particella la deve illuminare da fuori con dei fotoni, deve quindi immettere nel sistema una quantità di energia “orientata” che lo altera. Nello stesso tempo l’apparecchio costringe la particella ad uscire dalla sua indeterminazione per congelarsi in una “determinazione“ a nostro uso, per “mostrarsi” alla nostra percezione e alla nostra intellezione.

    Il collasso della funzione d’onda è un “congelamento” a nostro uso e consumo di un “passato” della particella uscita temporaneamente dal suo reale accadere, dove posizioni e velocità sono fluttuanti, casuali e connessi nella complementarità. La RgP è un mondo sensibilissimo all’energia, dove una massa-energia diventa una altra se vanno o vengono dei fotoni. I veri protagonisti di questo mondo subatomico, per noi in buona parte misterioso, sono infatti i quanti, i “distinti” scoperti da Planck contro l’idea di “materia continua”. Il fatto curioso è che una certa ritrosia ad ammettere ciò c’è stata persino da parte di chi ha operato in modo diretto nella ricerca e nella teorizzazione delle stesse leggi della MQ, a testimonianza di quanto resti forte l’attaccamento alle weltanschauungen teologiche. Lo stesso Bohr, che pure ha rappresentato l’opposizione ad Einstein nel sostenere l’indeterminazione del mondo quantistico, si è sempre espresso in proposito con prudenza. Ciò si rileva persino nella teorizzazione del principio di complementarità, che fissa la doppia natura di corpuscolo e di onda delle particelle elementari, implicante il fatto che qualsiasi esperimento che evidenzi l’aspetto corpuscolare di una particella esclude automaticamente la possibilità di coglierne l’ondulatorio. Egli nel 1937 precisa:

 

Il punto di vista della “complementarità” non equivale infatti a una rinuncia arbitraria all’analisi dei fenomeni atomici, ma è al contrario l’espressione di una sintesi razionale del complesso di esperienze in questo dominio, che si estende oltre i limiti entro cui l’applicazione del concetto di causalità è naturalmente confinato. [34]

 

Ma nel 1954 chiarisce ulteriormente:

 

Da questo punto di vista [quello probabilistico] la meccanica quantistica rappresenta una generalizzazione coerente della descrizione meccanica deterministica, che essa contiene come limite asintotico nel caso di quei fenomeni fisici che sono su una scala sufficientemente grande da permettere di trascurare il quanto d’azione.» [35]  

 

In altre parole, l’indeterminismo della materia elementare è l’aspetto più “generale” dell’essere della materia, mentre quello macroscopico è a ”contingenza regionale” per il fatto che gli effetti quantistici diventano irrilevanti a causa dei gravitoni.

    Se a livello quantistico i “definibili” sono degli “indefiniti”, ciò significa che per alcuni aspetti un’entità quantistica può esser una cosa e un’altra, che l’hyloinformazione a livello elementare non ha i caratteri di intelligibilità da noi pretesi, cioè determinabili. Ricordiamo la solita deriva psicologica che recita : quando non riusciamo a “determinare” è perché soffriamo di ignoranza.. In termini di economia psichica ammettere l’ignoranza può costare poco, ma sempre moltissimo rinunciare alla credenza. Abbiamo visto che l’hyloinformazione della RgP, già sconvolgente, lo è ancor più di fronte all’entanglement col quale una particella è contemporaneamente “qui e là” e due fotoni nati insieme e poi separati, anche a distanze relativamente enormi continuano a “sentirsi”. Questo fatto assume grande interesse nella progettazione dei computer quantistici, che sono ancora al di là da venire ma di cui esistono prototipi. Un esperto come Seth Lloyd del MIT di Boston dice:

 

I computer quantistici sfruttano proprio la “stranezza” della teoriaper affrontare compiti troppo complessi per i computer classici. Un bit quantistico, detto qubit, può esser simultaneamente nello stato 0 e nello stato 1 (cosa ovviamente impossibile per un bit classico). Grazie a questa proprietà, un computer quantistico riesce a svolgere molti milioni di operazioni allo stesso tempo. L’informazione è immagazzinata negli atomi, negli elettroni e nei fotoni. Sotto questo aspetto un computer quantistico è un congegno molto democratico: ogni particella elementare dà il suo contributo al fine di conservare e manipolare l’informazione. [36]   

 

 

 

                                      9.5 La peirasi e i processi evolutivo-creativi

 

    La peirasi, a cui abbiamo già accennato (dal greco πείρα = tentativo) la vediamo come  la modalità fondamentale del verificarsi dei processi fisici, chimici e biologici in quanto “possibili”. I costituenti della materia, ai vari livelli di assemblaggio ed organizzazione, operano “tentando il tentabile” compatibilmente con il contesto generale da essi evolutivamente determinato, ma che in qualche misura retroagisce su essi. Non c’è quindi alcuna continuità nei processi cosmici ma discontinuità totale, sicché persino un platonico come Barrow osserva:

 

Dovremo forse abbandonare questa semplificazione [della continuità della materia] se vogliamo vedere l’Universo come un vasto “programma” piuttosto che un grande “schema”. Alla fine si tratterà di stabilire se le leggi della fisica impongono delle restrizioni alle capacità estreme di un processo limitandone la velocità, l’ampiezza e la precisione; oppure se le cosiddette leggi della fisica non sono altro che vaghe e estrapolazioni delle leggi di calcolo generali che governano un Universo fondamentalmente discontinuo. [37]

 

    Per quanto ci si sforzi ideologicamente di vedere nel cosmo continuità, ordine, necessità, intelligibilità, sistemicità  e così via,  tutte queste caratteristiche, che ci pure ci sono e forse persino prevalgono, non sono mai assolute né globali e lasciano sempre spazi più o meno ampli ai loro contrari.  Il cosmo è un non-sistema che contiene sistemi, i quali sono in grado di retro-condizionare i propri costituenti nel “tentare” vie del divenire come modalità d’essere della realtà. La divenienza si esprime attraverso tutte le possibili evoluzioni e mutazioni compatibili in un sistema, il quale “frena” sempre l’evoluzione in quanto conservativo. Gli atti evolutivi sono “tentativi d’essere” che solo in minima parte “generano”, mentre in massima parte “abortiscono”. Non è quindi necessaria ipostatizzare alcuna esistenza di progetti o disegno “intelligenti” per spiegare il divenire; esso si svolge attraverso il contingente e ininterrotto imboccare ogni strada evolutiva possibile. Seth Lloyd osserva ironicamente:

 

Però se attribuite intelligenza al cosmo non potete negare la validità di un delle sue più brillanti invenzioni: la selezione naturale. Per miliardi di anni la progettazione delle nuove strutture è avvenuta con un certosino e lentissimo lavoro di tentativi ed errori. Ogni novità nasceva da una piccola fluttuazione quantistica, le cui conseguenze erano elaborate dalle leggi fisiche. Qualcuna ha funzionato, qualcun’altra no. Il risultato di questo procedimento siamo noi e tutto ciò che ci circonda. [38]    

 

La grande differenza tra l’evoluzione fisica e quella biologica è che la prima avviene per peirasi e la seconda per adattamento, poiché l’essere vivente possiede intelligenza o almeno istinto, l’essere fisico no. Il fisico procede per iterazione peiratica e “a caso” sinché raggiunge una necessità perpetuativa di strutture e sistemi. La peirasi non è quindi altro che la versione filosofica di un principio che in fisica è espresso con l’affermazione: “tutte le interazioni delle particelle che sono possibili di fatto prima o poi si verificheranno”. Una tesi che è stata chiamata da Murray Gell-Mann “principio totalitario” e recentemente da Jonathan Flynn “principio anarchico” [39]   

    In base a tale tesi non solo ogni interazione possibile accade, ma la tipologia delle interazioni tra particelle virtuali è più ampia di quella tra particelle reali, perché nella virtualità le possibilità sono assai più ampie, sicché diversi sono i contributi quantistici (il termine è di Lisa Randall) che concorrono a determinare i tipi di interazioni. Per quanto le particelle virtuali abbiano esistenza effimera sono reali i loro effetti, d’altra parte le particelle reali in certe condizioni possono trasformarsi in virtuali, che interagendo possono ritrasformarsi in reali, ma non necessariamente in quelle di partenza [40].  Analogamente, elettroni e positroni virtuali interagiscono tra loro emettendo fotoni; ma questi fotoni possono generare altre particelle virtuali, in un processo mutevole, casuale e teoricamente infinito [41]. Però anche il cosmo-contenitore ha delle sue virtualità nella misura in cui gonfia e gonfiandosi è anche l’allontanatore delle cose che contiene. In un cosmo iper-gonfiato i gravitoni possono diventare così radi da essere inefficienti, ma all’opposto anche concentrarsi localmente a creare buchi neri.

    Le supernove sono fenomeni derivanti dalla morte di stelle al disopra di una certa massa, mentre le nane bianche nascono da quelle che ne stanno sotto e così accade per le nane rosse, quelle brune, per i quasar, per i buchi neri, per le comete, per i pianeti, per gli asteroidi, ecc. La massa è in generale un fattore determinante per il destino di un corpo cosmico, tale che per oggetti che si muovono nel vuoto, costanti o mutevoli, stabili o precari, fluttuanti od orbitanti, solitari od aggregati, è essa a condizionarli. Dal punto di vista “creativo” sono comunque stelle di grande massa che esplodendo in supernove determinano localmente quantità gigantesche di energia attiva che si traduce in creatività. Lee Smolin osserva:

 

Il collasso di una stella massiccia è qualcosa di simile alla caduta di un impero autocratico: le cose avvengono partendo dall’interno verso l’esterno. La prima cosa che succede quando la stella esaurisce il suo combustibile nucleare è che il nucleo interno della stella sotto la forza di gravità si contrae fino a diventare denso come un nucleo atomico. Il che produce un sacco di energia che deve in qualche modo trovare il modo di uscire. Il nucleo è troppo denso perché la luce [i fotoni] possa allontanarsene molto e solo i neutrini, che sono in interazione debole con la materia, riescono a sfuggire. Così, mentre la stella collassa, vengono creati molti neutrini che trasportano l’energia fuori dal nucleo. [42]

 

Con l’energia uscita dal nucleo, “all’aperto”, i fotoni possono estrinsecarsi liberamente per produrre quella luce intensissima che è la massima che sia dato vedere nel cosmo, ed ha inizio un nuovo processo creativo delle particelle, che vanno a formare nuove stelle di varie tipologie secondo peirasi. Di ciò che indichiamo con questo termine l’astrofisico canadese Hubert Reeves fa una questione di “sapienza” della natura nel dare un senso all’opera del caso:

 

Attraverso uno straordinario rovesciamento delle cose il caso, noto soprattutto come agente di disorganizzazione e di disordine, diviene ora l’agente stesso dell’organizzazione. La natura ha “saputo” creare le strutture biochimiche che consentono di conservare i colpi fortunati e di ignorare invece i suoi insuccessi. È la “selezione” naturale. Einstein diceva: “Dio non gioca ai dadi”. Ma è sbagliato. Dio adora giocare ai dadi. E si capisce bene perché. Nel suo casinò, i simpatici croupier ignorano i colpi perdenti … Si trattava inoltre di inventare questo casinò.  Come l’uomo preistorico riuscì a “imbrigliare” il cavallo per farsene un potente alleato, così la natura, attraverso l’invenzione del DNA, ha imbrigliato il caso. [43]

 

Il DNA come frutto oppure, come pensiamo noi, l’esito fortunoso di un certo percorso evolutivo? In ogni caso la vita non è pensabile come eccezione cosmica, ma semmai solo come un esempio stupefacente dell’evoluzione cosmica. Nella nostra visione le supernove sono degli straordinari croupier non-intelligenti e senza che nessun’altra intelligenza intervenga. Il fenomeno delle supernove induce peraltro due riflessioni: la prima conferma che la realtà macrocosmica è insieme discreta e caotica in assenza di qualsiasi continuità, stabilità o determinazione. La seconda è che essendo solo le stelle massive a finire come supernove, cioè indica l’esistenza di “macro-soglie differenziali” omologhe a quelle quantistiche. Ricordiamo però che col bigbang non hanno alcun rapporto perché le supernove sono vere esplosioni “nello spazio” mentre il bigbang è stato un’espansione “creante spazio”.

    In riferimento a ciò che abbiamo chiamato epigenesi sostruttiva (creazione di leggi), Smolin nota:

 

Ma l’energia prodotta nella stella fa sì che si produca una pressione diretta verso l’esterno che agisce sul gas, perché i fotoni prodotti nelle reazioni nucleari cercano di sfuggire verso la superficie, il che fa diminuire la pressione nel centro. Ne consegue che ogni stella scopre un suo equilibrio stabile in cui questi due processi risultano bilanciarsi l’un l’altro. La stella mantiene la sua produzione di energia ad un tasso costante intorno a questa posizione di equilibrio grazie a un processo che funziona esattamente come un termostato. [44]   

 

Equilibri e disquilibri, termostasi e sbalzi termici vanno a costituire lo scenario da noi descritto nel capitolo VIII, fatto di relazioni dinamiche tra gli enti cosmici in una ridda di ektromasi, peirasi ed epigenesi. Siccome l’espansione dell’universo accelera, il quadro si definisce attraverso due macro-causalità opposte, quella che “attira” e quella che ”dilata”, la prima dovuta ai gravitoni e la seconda a fantomatici bosoni tipo dilatoni, forse costituenti la cosiddetta “energia oscura”. All’altro estremo fenomenico stanno quelli abissi gravitazionali che chiamiamo buchi neri, che ingoiano tutto compresi i fotoni entro il loro orizzonte gravitazionale, e le galassie pare siano piene di buchi neri piccoli e grandi, rotanti e fissi.                   

                        

 

 

NOTE 

 

[45] I.Kant, Critica della ragion pratica,  Roma-Bari, Laterza 1974, p.197.

[46] R.Feynman, QED La strana teoria della luce e della materia, cit, p.130.

[47] C.Tamagnone, Necessità e libertà, cit, pp.72-74

[48] Ivi, pp.133-134.

[49] L.Smolin, L’universo senza stringhe, cit., p.62.

[50] M.Dorato, Il software dell’universo, Milano, Bruno Mondadori 2000, p.14.

[51] Ibidem.

[52] Ivi, p.15.

[53] Ivi, p.47.

[54] Ivi, p.50.

[55] Ibidem.

[56] Ivi, p.48.

[57] Ivi, p.53.

[58] Ivi, p.54.

[59] Ivi, pp.75-76.

[60] Ivi, pp.167-168

[61] M.Gell-Mann, Il quark e il giaguaro, cit., p.146.

[62] W.Heisenberg, Indeterminazione e realtà, Napoli, Guida 1991, p.78

[63] M.Kaku, Il cosmo di Einstein, Torino, Codice 2005, p.126 (Da: D.Brian, Einstein: a life, New York, Wiley & Sons 1996, p.185.  

[64] C.Tamagnone, La filosofia e la teologia filosofale, Firenze, Clinamen 2007, p. 166.

[65] Fondamentali in tal senso sono stati gli apporti del chimico-fisico americano Linus Carl Pauling (1901-1994) che ha fatto importanti scoperte sulla vera natura del legame chimico e che gli sono valse nel 1954 il Premio Nobel.  

[66] Si ricorda che l’anno-luce è una distanza pari a 9.460.055.000.000 chilometri.

[67] M.Hack, Dove nascono le stelle,  Milano, Sperling & Kupfer 2004, p.153.

[68] M.Roncadelli, Aspetti astrofisica della materia oscura, Napoli, Bibliopolis 2004, p.138

[69] Ivi, p.136.

[70] J.Monod, Il caso e la necessità, Milano, Mondadori 2003, pp.16-18

[71] Ivi, p. 18

[72] Ivi, p. 19.

[73] M.Lachièze-Rey, Oltre lo spazio e il tempo, p.180.

[74] Aristotele, Opere, 6, Metafisica, Bari, Laterza 1973, p.129.

[75] Il termine Bildung nasce intorno alla fine del Settecento in area tedesca e in ambito educazionale (formazione dell’uomo), ma assume anche il significato più vasto di “sviluppo culturale”. Sia Herder che Goethe lo assumono; il primo in senso meramente storico, il secondo in senso vitalistico, poiché il nisus formativus è sia il “tendere” della sfera del vivente ad assumere sempre nuove forme (un principio che desume dall’antropologo Johann-Friedrick Blumenbach) e sia quello della cultura e dell’arte “a farsi formandosi” evolutivo.

[76] Abbiamo indicato con formazione il processo di autocrescita dell’individualità sia dal punto di vista funzionale (dell’idema) e sia dal punto di vista ontologico extra-fisico (dell’idioaiterio)

[77] Nel prosieguo del nostro discorso useremo il termine informazione sottintendendo la duplicità informazione/istruzione.

[78] N.Bohr, Biologia e fisica atomica (1937), in: I quanti e la vita, Bollati Boringhieri, Torino 1999, pp.43-44.

[79] N.Bohr, Unità della conoscenza (1954), in: I quanti e la vita, cit., p.67.

[80] S.Lloyd, Il programma dell’universo, Torino, Einaudi 2006, p.8.

[81] J.D.Barrow, Perché il mondo è matematico?, cit., p.102.

[82] S.Lloyd, Il programma dell’universo, cit., p.192.

[83] L.Randall, Passaggi curvi, cit., p.239.

[84] Ibidem.

[85] Ivi, p.241.

[86] L.Smolin, La vita del cosmo, cit., p.139

[87] H.Reeves, L’evoluzione cosmica, Milano, Feltrinelli 1982, pp.173-174.

[88] L.Smolin, La vita del cosmo, cit., pp.162-163.