Archivi categoria: filosofia della mente

Un approccio relativistico dissolve lo hard problem?


lines travel future space

Nir Lahav e Zachariah A. Neemeh hanno scritto nel 2022 un articolo fondamentale dal titolo A Relativistic Theory of Consciousness.

L’ambizione del saggio è duplice: dissolvere lo hard problem della coscienza (sollevato da David Chalmers) e dissolvere anche il problema del carattere privato della coscienza.

Come è noto, Chalmers considera “difficile” il problema di spiegare perché abbiamo una coscienza, dal momento che tutto potrebbe benissimo funzionare identicamente anche se fossimo tutti zombies senza coscienza.  Tale tesi deriva dall’assunzione che il nostro funzionamento come sistemi percettivo-cognitivi sarebbe identico anche se non fossimo coscienti. Infatti, se intendiamo che un sistema di questo tipo funzioni egregiamente se risponde agli stimoli/input che gli provengono dall’ambiente “computando” (attraverso il sistema nervoso centrale) comportamenti/output adeguati, che bisogno c’è che a questa macchina meravigliosa si aggiunga anche la coscienza?

La cosa si comprende ancor meglio se si considera il dilemma posto classicamente dalla filosofia della mente:

  1. o la coscienza (in quanto sopravviene, cioè “si aggiunge” all’attività dei circuiti neurali) assolve una funzione, cioè ha un ruolo causale, che l’organismo/cervello  senza di essa non assolverebbe [ma allora, in questa prospettiva definibile come dualistica, alcunché di “immateriale” interagirebbe con il cosmo fisico (come la res cogitans cartesiana attraverso la ghiandola pineale), in modo tale che in questo cosmo accadrebbero cose diverse da quelle che accadrebbero in assenza della coscienza medesima, e ne risulterebbe rotta la chiusura causale del mondo fisico (e sarebbe confutato il c.d. fisicalismo)];
  2. oppure  la coscienza è un tratto free rider, una sorta di ombra che accompagna l’attività neurale, che non modifica in alcun modo il decorso degli eventi determinato da questa attività neurale [ma in questo caso la coscienza resterebbe del tutto gratuita ed essenzialmente inesplicata (cosa che appare davvero bizzarra, dato il carattere particolarissimo della coscienza)].

Come fanno gli autori dell’articolo in parola a dissolvere questo hard problem?

Essi rifiutano anche la prospettiva illusionistica (o eliminativistica) secondo la quale la coscienza è alcunché di illusorio e inesistente (cosa che ovviamente ripugna all’esperienza che ne abbiamo).

Essi, adottando un approccio essenzialmente monistico (per la precisione un dual aspect monism), negano (attraverso una complicata formalizzazione matematica che, tuttavia, non è strettamente necessaria per comprendere il cuore della loro argomentazione) che sia possibile che un sistema percettivo-cognitivo (identico a quello umano), descritto sotto il profilo esclusivamente neurocomputazionale, possa essere zombie, cioè “assolutamente” privo di coscienza.

La tesi fondamentale degli autori è la seguente:

A system either has or doesn’t have phenomenal consciousness with respect to some observer.

Un sistema percettivo-cognitivo appare privo di coscienza soltanto per un altro sistema percettivo-cognitivo, cioè all’interno di un sistema di riferimento centrato su questo secondo sistema,

esattamente come uno stesso corpo, in base alla teoria della relatività, può avere masse diverse (e anche essere caratterizzato da lunghezze spaziali differenti e intervalli temporali di differente durata) a seconda che lo si osservi dal suo punto di vista o da un punto di vista esterno.

In generale:

Phenomenal consciousness is neither private nor delusional, just relativistic. In the frame of reference of the cognitive system, it will be observable (first-person perspective) and in other frame of reference it will not (third-person perspective). These two cognitive frames of reference are both correct, just as in the case of an observer that claims to be at rest while another will claim that the observer has constant velocity. Given that consciousness is a relativistic phenomenon, neither observer position can be privileged, as they both describe the same underlying reality.

Questo stesso ragionamento porta a spiegare la ragione per la quale le “esperienze soggettive” sembrano avere carattere privato e incomunicabile (quello che percepisco io in questo momento, tu, che mi leggi, non lo percepisci; quanto meno non mai esattamente come lo percepisco io).

Ciò che io percepisco è un insieme di fenomeni mediati dal mio sistema percettivo-cognitivo che, nella mia prospettiva, si rende trasparente a se stesso (così come, se inforco occhiali adatti e ben puliti, posso vedere distintamente le cose che mi circondano senza vedere le lenti).

Philosophers refer to this feature of phenomenal consciousness as “transparency”: we seem to directly perceive things, rather than mental representations, even though mental representations mediate experience.

Ma se facciamo centro in un altro sistema percettivo-cognitivo (ad esempio nel tuo) ecco che il mio sistema percettivo-cognitivo appare come un intrico di reti neurali attraversato da scariche elettriche e flussi di neurotrasmettitori, senza che tu abbia alcuna percezione di ciò che io percepisco.

While Alice may observe herself feeling happiness as she’s looking at a rose, Bob will only measure patterns of neural activity. [Like in] the case of constant velocity, wherein Alice claims to be at rest while Bob is moving, while Bob claims that Alice is the one moving and that he is stationary. From Alice’s perspective, she has qualia and Bob only has patterns of neural activation, while from Bob’s perspective Alice just has patterns of neural activation while he has qualia.

Dunque non si ha mai un sistema percettivo-cognitivo che funziona come uno zombie, ma si ha sempre solo un sistema percettivo-cognitivo che è conscio di qualcos’altro; e questo qualcos’altro può anche essere un altro sistema percettivo-cognitivo che appare al primo sistema in modo diverso da come appare a se stesso; anzi, in quanto è trasparente a se stesso, in modo diverso da come non appare a se stesso.

Qualia and eidetic structures are not private and hence phenomenal consciousness is neither some mysterious force beyond the realm of science nor an irreducible element of reality. Rather, they appear to be private because in order to measure them, one needs to be in the appropriate frame of reference, viz., that of the cognitive system in question [...]. It is ultimately a question of causal power. Only from this frame of reference is there causal power for the representations in the dynamics of the system. Only from the frame of reference of the cognitive system are these neural patterns recognized as representations [...]. These representations are the input and output of the cognitive system [...]; they are the ones that cause the dynamics in this cognitive frame of reference. From outside that observer reference frame, as in the position the neuroscientist takes as a third-person observer, the same exact phenomena appear as neural computations. This is because the third-person perspective is constitutively outside of the dynamics of representations of the cognitive system in question, and hence these representations do not have any causal power over the neuroscientist

Gli autori giungono a definire un principio di equivalenza in base al quale “qualitative and quantitative aspects of consciousness are formally equivalent“, cioè la mia percezione p.e. di una mela rossa è sempre traducibile, mediante opportune trasformazioni, in un insieme di processi neurocomputazionali correlati a tale mia percezione (tali processi sarebbero nient’altro che questa stessa mia percezione così come appare non a me, ma a un altro che studia il mio cervello mentre io ho questa percezione).

In questa prospettiva, dunque, non si tratta di entità diverse: una materiale (il cervello) e l’altra immateriale (la coscienza) di cui occorra comprendere la relazione e, soprattutto, perché (hard problem) e come (easy problem) la prima generi la seconda (per assolvere quale funzione). Si tratta del medesimo sistema riguardato (cioè come appare) all’interno di sistemi di riferimento diversi (il proprio e un altro).

Questa prospettiva corrisponde, come gli stessi autori suggeriscono, a una prospettiva fenomenologica naturalizzata, come quella “sognata” ad es. da Francisco Varela (prima di morire): ciò che un (filosofo) fenomenologo individua come tratti caratteristici della coscienza che abbiamo del mondo (l’esempio che fanno gli autori, che evocano Husserl e Heidegger, riguarda il modo in cui facciamo esperienza del tempo) può essere “spiegato” anche in termini di funzionamento di strutture di tipo neurocomputazionale.

Questo progetto è senz’altro condivisibile, nella misura in cui non pretende di ridurre il lato fenomenologico al lato “meccanico”, ma, in un orizzonte monistico, li tiene insieme entrambi come aspetti di un tutto inscindibile.

Gli autori, infatti, si considerano giustamente fisicalisti, ma di  un fisicalismo tuttavia allargato e non riduzionista. La coscienza non sarebbe illusoria (come per l’eliminativismo), ma sarebbe, per così dire, “l’altra faccia” dei sistemi fisici.

Physical patterns (e.g., of neural representations) and phenomenal properties (e.g., qualia) are two sides of the same coin.

Si sarebbe tentati, tuttavia, di trarre da questo approccio conclusioni piuttosto minimaliste: la coscienza potrebbe essere considerata, in questa prospettiva, un carattere in ultima analisi free rider, emergente in modo eccezionale e accidentale in condizioni molto particolari, all’interno di un universo prevalentemente meccanicistico, cieco e inconscio.

Proprio in quanto lo hard problem risulta dissolto pare che si debba rinunciare anche alla connessa ipotesi “panpsichistica” cara ad es. a Chalmers (cioè all’ipotesi che la coscienza sia qualcosa di “trascendente” che pervade l’universo, invocata come tale appunto in quanto inesplicabile fisicalisticamente).

Ma l’hard problem è davvero dissolto?

Si e no.

Certamente, gli autori, come altri prima di loro (Marco Giunti, ad esempio), hanno portato buoni argomenti contro l’ipotesi zombie, cioè che possano concettualmente esistere organismi viventi in tutto e per tutti simili a noi, ma privi di coscienza.

Tuttavia, resta la differenza tra a) sistemi di elaborazione di informazioni privi di coscienza, come ad es. una videocamera (che traduce informazioni tratte da onde luminose in informazioni registrate su supporto magnetico) o anche un organismo profondamente addormentato che, tuttavia, minimalmente, reagisce agli stimoli dell’ambiente, e b) sistemi di elaborazione di informazioni coscienti (sistemi cognitivi, nel linguaggio degli autori).   Quando, come e perché in certi sistemi sorge la coscienza? Qui torniamo alle risposte classiche di Tononi, Baars etc.  Ma, se queste possono, almeno a livello congetturale, risolvere lo easy problem (quale soglia deve essere superata, p.e. in termini di integrazione tra le informazioni, affinché si dia coscienza;  o quali componenti del sistema nervoso centrale devono essere eccitati etc.), rimane il problema di capire perché le stesse funzioni assolte dalla coscienza non potrebbero essere assolte in assenza di essa.

Sotto questo profilo l’esistenza della coscienza, anche se considerata dagli autori un “non problema”, in quanto essa, all’interno del loro paradigma monistico, sarebbe “spontaneamente” parte di un sistema cognitivo, che evidentemente abbia raggiunto una certa complessità (senza che tale sistema possa operare in “modalità zombie“, cioè inconsciamente), resta nei fatti un problema, a meno che non ci si risolva, appunto, minimalisticamente, a considerarla un tratto free rider, privo di ruolo causale, accidentalmente associato a certi stati cerebrali.

Gli autori stessi sono consapevoli di questo problema, quando scrivono:

There are still several open questions that need to be addressed in the future. For example, what are the necessary and sufficient conditions for a cognitive frame of reference to have phenomenal consciousness?

Tuttavia, secondo me, l’intuizione degli autori, consistente nel considerare l’emergere della coscienza dal punto di vista relativistico, oltre a risolvere l’annosa questione del carattere privato della coscienza, ha il pregio di rimarcare il carattere che chiamerei trascendentale e, come tale, irriducibile della coscienza (gli autori, del resto, come detto, si proclamano fisicalisti, ma non riduzionisti).

Consideriamo la cosa sotto il seguente profilo. Tutto il ragionamento sviluppato dagli autori, come abbiamo visto, si regge sulla tesi ampiamente argomentata dell’impossibilità di sistemi zombie. Addirittura gli autori si spingono a sostenere che un sistema cognitivo artificiale (“ALICE”) in tutto e per tutto assimilabile per il suo funzionamento a un sistema naturale (“Alice”) dovrebbe essere altrettanto cosciente.

N. B. Quest’implicazione, astrattamente corretta, a me pare implausibile: un sistema artificiale, cioè non organico, potrebbe non avere un’organizzazione interna davvero assimilabile a un sistema vivente. Tuttavia, sono d’accordo con gli autori che, se un determinato sistema fosse del tutto equivalente a un sistema vivente cosciente, sarebbe un sistema vivente cosciente.  Non è però scontato che sia sufficiente che l’equivalenza debba riguardare soltanto i due sistemi in quanto processano informazioni, come pensano gli autori quando sostengono che, senz’altro,

the neurocomputational structures are equivalent to the phenomenal structure.

Infatti, può darsi che la coscienza richieda altro rispetto a ciò che oggi comunemente associamo al termine “cognitivo” in senso funzionale (“neurocomputazionale”, nel lessico degli autori). Ma la questione qui può essere lasciata aperta, in quanto non è pertinente alle ragioni del mio interesse per la teoria degli autori.

La coscienza, dunque, in quanto caratteristica di ogni sistema percettvo-cognitivo propriamente detto (cioè tale da aver raggiunto, evidentemente, la sufficiente complessità), dovrebbe essere molto più diffusa di quello che si potrebbe credere (come argomentano, ad esempio, in modo convincente, Ginsburg e Jablonka, sulla base di un principio di analogia, in riferimento agli animali che consideriamo “inferiori”).

Ma, soprattutto, tutto il ragionamento poggia sul diverso modo in cui appaiono le cose (e, in particolare, i sistemi percettivo-cognitivi) a seconda che si adotti una prospettiva in prima persona (cioè a partire da un sistema percettivo-cognitivo trasparente a se stesso)…

the first-person perspective [...] is the cognitive system from its own observer perspective

… o una prospettiva in terza persona. Il “mio” sistema percettivo-cognitivo, che a me appare trasparente (cioè non appare affatto), ad altri può apparire come intrico di neuroni etc.

Quello che non è dato sapere è come siano le cose in se stesse. Quando gli autori invocano i diversi “sistemi di riferimento” di fatto invocano diverse “prospettive” cioè diverse forme della coscienza. Al di fuori di un sistema di riferimento (proprio o altrui), nella stessa logica degli autori, sembra difficile poter parlare di “universo” o di “realtà”

(come del resto accade anche se si adotta la prospettiva della relatività generale per la quale è necessario conoscere lo stato dell’osservatore, p.e. in quiete o in moto relativo, rispetto ai diversi sistemi fisici che osserva o in cui è immerso, per caratterizzare questi stessi sistemi fisici).

È vero che gli autori, dichiarandosi fisicalisti, precisano quanto segue:

We avoid the term “first-person perspective” because of its occasional association with immaterial views of consciousness; cognitive frames of reference refer to physical systems capable of representing and manipulating inputs. These systems have physical positions in space and time and instantiate distinct dynamics.

Tuttavia, nonostante queste avvertenze, va ricordato che per gli autori

a cognitive frame of reference [---] is the perspective of a specific cognitive system from which a set of physical objects and events are being measured

Ne segue che

  1. un sistema di riferimento cognitivo trasparente a se stesso (peraltro chiamato dagli autori anche “osservatore”) è esattamente una prospettiva in prima persona;
  2. il fatto che questo sistema abbia “una posizione fisica” nello spazio e nel tempo non comporta che tale posizione sia “assoluta”: spazio e tempo non possono che dipendere dallo stesso (o da un altro) sistema di riferimento (nulla, compresi spazio e tempo, è ciò che è assolutamente, ma ha certe proprietà solo a partire da un determinato sistema di riferimento / osservatore).

Del resto gli stessi autori dichiarano:

The essence of the relativistic principle is that there is nothing over and above the observer.

In definitiva l’invito (forse involontario) di questo articolo mi sembra sia quello di adottare una prospettiva radicalmente fenomenologica e di istituire relazioni (matematiche) tra fenomeni senza che vi sia alcuno spazio residuo per una pretesa “realtà in sé”.  Se non è panpsichismo, è comunque una prospettiva in cui la coscienza (l’osservatore), nelle sue diverse manifestazioni (prospettive), appare imprescindibile.

N.B. Qualcuno potrebbe obiettare che “osservatore” o “sistema di riferimento”, nel lessico della relatività di Einstein, non implicano necessariamente la “coscienza” in senso fenomenologico. Ma, se questo è vero appunto nella fisica di Einstein, non è vero nella teoria relativistica della coscienza: infatti, la tesi degli autori è che un sistema percettivo-cognitivo, in quanto tale, è sempre anche “naturalmente” cosciente.

Si potrebbe, infatti, trarre la seguente conclusione: se, come gli autori suggeriscono, adottiamo una teoria relativistica della coscienza, cioè, in ultima analisi, consideriamo che gli stessi sistemi cognitivi di riferimento possono apparire o meno coscienti a seconda che siano osservati da se stessi o da altri, ciascun sistema cognitivo di riferimento è trasparente quanto meno a se stesso e, dunque, cosciente; non è dato, cioè, alcun sistema cognitivo di riferimento, rispetto al quale l’universo sia completamente privo di osservatori, in quanto ciascun sistema cognitivo di riferimento deve essere considerato sempre anche come un osservatore.

Alla luce di questo modello si potrebbe ad esempio risolvere l’annosa questione del sonno profondo. Quando dormo di sonno profondo agli occhi di altri, cioè all’interno di altri sistemi cognitivi di riferimento , io sono vivo, respiro e scorre del tempo. All’interno del mio sistema cognitivo di riferimento questo tempo, tuttavia, non esiste assolutamente. È saltato. Io mi addormento e mi risveglio senza soluzione di continuità, dal momento che un sistema cognitivo di riferimento trasparente a se stesso non può mai essere inconscio.

Che dire di quando morirò?

Qui si apre la classica alternativa: o non ci sarà risveglio, come nelle prospettive materialistiche à la Epicuro, oppure ve ne sarà uno altrove, come nelle prospettive soteriologiche à la Platone, legate o meno a dottrine trasmigrazioniste.

Curiosamente gli argomenti platonici a favore dell’immortalità dell’anima possono vantare la stessa matrice degli argomenti di Epicuro contro la paura della morte. Si tratta del teorema di Parmenide “Ciò che è è e non può non essere”, traducibile, nel lessico degli autori dell’articolo qui discusso, come: “Non si dà nessun sistema cognitivo di riferimento che non sia cosciente e trasparente a se stesso”.

Come è noto, nella Lettera a Meneceo Epicuro rassicura il suo corrispondente con l’osservazione: “Quando c’è la morte non ci siamo noi, quando ci siamo non c’è la morte”.  Stranamente, però, Epicuro non ne deriva l’immortalità dell’anima, ma solo l’impossibilità di fare esperienza del passaggio dalla vita alla morte (proprio come non si può fare esperienza del passaggio dalla veglia al sonno).

Viceversa, nel Fedone, Platone, deriva dalla nozione di “anima” come sostanza contraddistinta dalla proprietà dell’esser viva (noi diremmo: di esserci) l’impossibilità (la contraddittorietà) per l’anima dell’esser morta.

Chi ha ragione?

A mindful universe?

41Vh1p4YqXL._SX328_BO1,204,203,200_

Il volume di Henry P. Stapp, Mindful Universe: Quantum Mechanics and the Participating Observer, London, Springer 2014 convince e delude insieme.

Se vi si cerca una risposta alla questione degli NCC (i correlati neurali della coscienza), che è l’explanatory gap del mio “sistema”, non si va molto lontano.

 

Supponiamo che quella che chiamiamo “coscienza” non sia altro che la transizione dal possibile al reale (o meglio all’attuale) di un universo che, altrimenti, esiste in sovrapposizione di stati possibili, come ci insegna la meccanica quantistica (MQ) e ci suggerisce una certa versione del principio antropico.
Perché tale transizione richiede, a quanto sembra, un organismo cerebrato di un certo tipo (secondo alcuni non solo un sapiens ma anche un polpo, ma non ad es. un verme o un batterio) in stato di veglia o di sonno non profondo? Perché una “struttura dissipativa” (Prygogine) così complicata perché le “onde di probabilità” quantistiche si “coagulino” in un cosmo ordinato e coerente?

 

La mia intuizione è che la risposta vada ricercata nel fatto che i viventi abbattono l’entropia interna, come se risalissero la corrente del tempo verso l’origine e così, in qualche modo, si prestassero al passaggio da un “disordinato possibile” a un “ordinato reale”.
Ma al di là di queste immagini come concretamente dobbiamo concepire questo passaggio? E perché si richiede presumibilmente un sistema nervoso perché questo sia possibile? E perché uno stato di veglia, contraddistinto da onde beta o gamma? E una neo-corteccia?

 

Insomma cercavo qualcosa che spiegasse perché il collasso della funzione d’onda della MQ, almeno secondo l’interpretazione di Copenhagen (in von Neumann e Wigner ad es.), richiedesse una “coscienza” e perché mai questa a sua volta richiedesse quella complicata struttura cerebrale.

 

Bene, Stapp non risponde assolutamente alla mia domanda che rimane inevasa.

 

Però Stapp, nella sua “ingenuità”, mi ha aiutato a mettere un punto abbastanza definitivo su una questione.

 

In estrema sintesi dal suo libro, molto ripetitivo, molto “classico”, ben poco audace, emerge quanto segue.
  1. La chiusura causale del mondo fisico contraddistingue soltanto il determinismo proprio della fisica classica.
  2. La MQ è una teoria incompleta sotto questo punto di vista.
  3. Il cervello, nelle sue parti “fini” (come le sinapsi, gli assoni ecc.), obbedisce necessariamente alle leggi della MQ e non a quelle della fisica classica.
  4. Non ha dunque senso applicare un modello deterministico-meccanicistico al cervello.
  5. Il libero arbitrio (“free will” o “free choice“), inteso come il fatto che le nostre azioni, in quanto determinate del cervello, non possano essere spiegate deterministicamente sulla base di un certo numero di leggi e di condizioni di partenza, anche se le conoscessimo nel dettaglio, è assolutamente possibile.
  6. A noi sembra di possedere il libero arbitrio, inteso anche come la facoltà di decidere di noi stessi liberamente, p.e. di alzare un braccio senza che tale nostra scelta sia predeterminata e resa inevitabile da qualcosa prima che la decisione sia presa.
  7. Lo sforzo di spiegare questo “libero arbitrio” come puramente apparente e di ricondurlo a catene causali meccaniche è mal riposto: non c’è alcuna necessità di questa riduzione, anzi essa è in linea di principio impossibile.
  8. Tutto lascia credere che l’impressione che abbiamo di essere liberi corrisponda alla realtà: nello stesso modo in cui facciamo della nostra esperienza il criterio per valutare la veridicità di asserzioni che si riferiscono al mondo esterno, non c’è ragione di rifiutare questa esperienza quando si tratta del libero arbitrio.
A me sembra che questo ragionamento sia abbastanza convincente.

 

Purtroppo non ci dice molto della ragione per la quale noi esistiamo (Stapp allude qua e là al principio antropico, ma non sviluppa questo tema).

 

Non ci dice neanche come si forma, nel cervello, altrimenti condannato anch’esso, come ogni altra cosa, a esistere in sovrapposizione di stati possibili, quella “coscienza” che fa collassare la funzione d’onda, riducendo gli stati a uno solo, quello reale.

 

Stapp lega questo collasso al libero arbitrio.
Il processo decisionale è descritto da Stapp facendo riferimento al cosiddetto “effetto Zenone”. In sostanza quando alzo un braccio di fatto decido di far collassare la funzione d’onda “osservando” il mio braccio che inizia ad alzarsi piuttosto che il braccio in sovrapposizione di stati che resta ancora abbassato. Continuando poi a osservare il braccio continuo a far valere quella determinata “scelta”, impedendo al sistema di scivolare verso le altre possibilità. Questa “fissazione” dovuta all’osservazione è paragonata (secondo me in modo un po’ fuorviante) al paradosso della freccia di Zenone (che rimane ferma in ogni istante nello stesso luogo).

 

Questa “interpretazione” quantistica dell’atto deliberato è stata criticata e in effetti mi sembra un po’ forzata e difficile da dimostrare.
“Chi” sarebbe colui che “decide” di alzare il braccio?
E perché lo decide?
Inoltre, posso decidere se alzare o meno un braccio, così come se aprire o meno il box in cui si trova il “gatto di Schroedinger” (di far collassare o meno una certa funzione d’onda), ma non posso decidere se il gatto sia vivo o morto, quando lo osservo.
Chi o che cosa decide quale stato fisico “sopravvive” all’osservazione (e ne viene determinato) e perché?

 

Stapp non si fa scrupolo di rivalutare il dualismo anche se non lo intende proprio come cartesiano.
Ci sarebbe qualcosa (una res cogitans? uno spirito?) che “sceglie” quale stato della “materia” privilegiare approfittando dell’incompletezza della descrizione che la MQ offre del mondo fisico. Ma non ci dice come.

 

Nondimeno la serie di considerazioni che Stapp fa e che ho sopra ricordato sono difficilmente confutabili. Esse aprono uno spazio di manovra per una teoria più completa che “riempia i buchi” sia della MQ sia della stessa teoria di Stapp (egli evoca più volte la teoria filosofica di Whitehead, ma non è chiaro come questa teoria possa aiutarmi ad es. a superare il mio explanatory gap in dettaglio),

 

La teoria più comprensiva dovrebbe rispondere, tra gli altri, ai seguenti quesiti.
Che cosa decide della vita o della morte del gatto di Schroedinger (del modo in cui collassa una funzione d’onda)?
Perché scegliamo una cosa piuttosto che l’altra?
Chi sceglie attraverso il nostro corpo?
Perché, affinché questo processo si verifichi, si richiede un corpo cerebrato di un certo tipo e in un certo stato?

Come intendere il cosiddetto “principio antropico”?


voyager

Il libro di Nick Bostrom, Anthropic bias: Observation Selection Effects in Science and Philosophy, London, Routledge 2002 (ed. on line 2020), è senz’altro di grande interesse, anche per chi si interroga su origine e natura della coscienza, in quanto fa il punto con rigore “matematico”, per così dire, sulla vexata quaestio del cosiddetto “principio antropico”.

Secondo questo principio il nostro universo sarebbe caratterizzato da certi parametri (in termini di condizioni iniziali e/o di leggi fisiche) perché questi sarebbero gli unici compatibili con la “nostra” stessa esistenza (in questo senso sarebbe un universo “fine-tuned”, finemente sintonizzato).

Bostrom sgombra il campo innanzitutto (nel cap. 1) da un equivoco: per “nostra” stessa esistenza si deve intendere non tanto l’esistenza dell’Homo sapiens, come specie vivente, anche se originariamente (nel 1974) Brandon Carter aveva denominato questo principio equivocamente, appunto, “antropico”, quanto l’esistenza di “osservatori” dell’universo stesso (o anche, come anche talora Bostrom si esprime, l’esistenza, sulla Terra o altrove, di “vita intelligente”, in generale, cfr. sempre cap. 1 e passim). In sostanza si tratta della questione delle ragioni per le quali il nostro universo sarebbe non solo esistente, ma anche “osservabile”.

Anche se, come discuterò più oltre, la nozione di “osservatore” non è del tutto sovrapponibile a quella di “coscienza”, in tutti i possibili significati delle due nozioni, la questione dell’origine di un universo osservabile e quella dell’origine della coscienza sono tra loro palesemente legate.

Riguardo all’origine del nostro universo, in quanto universo osservabile, le macro-teorie che Bostrom discute si possono ricondurre a due: o a) il nostro universo sarebbe osservabile (ospiterebbe vita intelligente e cosciente) per un intelligent design (cioè sulla base di un progetto, verosimilmente divino, che avesse fin dall’origine per fine la nostra apparizione) oppure b) esso sarebbe tale per caso.

Bostrom non prende sul serio la prima ipotesi: l’intelligent design viene respinto, tra l’altro, con l’argomento che, per sostenerlo, bisognerebbe dimostrare che il nostro sarebbe il migliore dei mondi possibili, tratto che Bostrom giudica evidentemente poco plausibile. Sottinteso in diverse parti del volume, questo argomento viene formalizzato, sia pure in via ipotetica, ricorrendo al teorema di Bayes, nel cap. 11 con queste parole:

If our universe is not of the sort that one might have suspected a creator to create if he created only one universe (if our universe is not the “nicest” possible one in any sense, for example), then the conditional probability […] on any creator-hypothesis involving the creation of only one universe might well be so slim etc.

Bostrom considera più attendibile (probabilmente la sola degna di una trattazione scientifica) la seconda ipotesi, cioè che l’universo sia sorto per caso.

E come mai, allora, è così fine-tuned come se avesse per fine la nostra esistenza o, meglio, l’esistenza di osservatori?

La tesi di Bostrom è sostanzialmente la seguente: il nostro universo appare “miracolosamente” fine-tuned per un (banale) observation selection effect: non potremmo certamente osservare un universo in cui non vi fossero osservatori! In generale, per Bostrom, in campo scientifico bisogna tener conto di questi observation selection effects (questa sarebbe la grande lezione del principio antropico, reinterpretato come “pregiudizio antropico” o, forse meglio intendere, “distorsione antropica”): le cose (leggi di natura, leggi dell’evoluzione, condizioni iniziali ecc.) ci appaiono in un certo modo piuttosto che in altro anche sulla base del fatto che possano essere osservate da noi. Leggi di natura o condizioni iniziali non compatibili con la nascita della vita intelligente (e cosciente) sulla Terra non possono ovviamente venire “scoperte”. Ciò non esclude (ma, secondo Bostrom, piuttosto suggerisce) che vi siano infinitamente più cose “in cielo e in terra”, che, “per costruzione”, non conosceremo mai, quelle, appunto, che non possiamo osservare.

In particolare, accettata questa prospettiva ateologica e ateleologica, che dà rilevanza al puro caso, le ipotesi sono di nuovo due: o 1) il nostro universo è il solo universo esistente oppure 2) esso è soltanto uno di innumerevoli o infiniti altri “universi”, il solo appunto osservabile (o uno dei pochi o molti osservabili), ragione per la quale noi appunto osserviamo questo universo e non altri.

Bostrom sembra propendere decisamente per questa seconda ipotesi.

L’argomento è sostanzialmente questo: sarebbe davvero strano che sia sorto casualmente un solo universo e che proprio questo sia fine-tuned e ospiti anche vita intelligente, soprattutto se supponiamo che questa, in se stessa altamente improbabile, sarebbe stata impossibile in un universo anche solo poco diverso dal nostro. Molto più verosimile, dunque, l’ipotesi del multiverso.

Questa tesi non è argomentata soltanto discorsivamente, ma ricorrendo a strumenti logici e matematici, essenzialmente al teorema di Bayes e a suoi derivati. Essa viene sostenuta, in particolare, a partire da un’assunzione centrale nel libro, la Self-Sampling Assumption (SSA), che, nella sua prima formva (introdotta alla fine del cap. 3 e successivamente migliorata e corretta), suona come segue:

One should reason as if one were a random sample from the set of all observers in one’s reference class

Cioè: “si dovrebbe ragionare come se si fosse un campione tratto casualmente dall’insieme di tutti gli osservatori appartenenti alla propria classe di riferimento”.

Per capire che cosa intende Bostrom con questa assunzione e, in particolare, per comprendere il suo rilievo “matematico” si può evocare il suo impiego nell’analisi del traffico, come fa Bostrom stesso (nel cap. 4). Se finisci imbottigliato in una coda dove una corsia è più lenta e una più veloce il fatto di trovarti più probabilmente in quella più lenta non è dovuta a una dannata “legge di Murphy”, come potresti pensare, ma alla banale circostanza che la corsia più lenta è anche quella dove si trova il maggior numero dei veicoli, dunque probabilmente anche il tuo! In questo esempio tu sei un “campione” (sample) tratto dall’insieme di tutti gli automobilisti che si trovano nel traffico (classe di riferimento). Appare più probabile che tu ti trovi nella corsia più lenta che in quella più veloce semplicemente perché in questa vi sono più veicoli, dunque più automobilisti.

Come si applica quest’assunzione al “principio antropico”? Bostrom (nel cap. 4) fa una serie di esperimenti mentali per illustrarlo, immaginando altrettanti “universi giocattolo”; quindi (nel cap. 5 e seguenti) applica quest’assunzione a diverse questioni scientifiche aperte, variamente collegate o collegabili col principio antropico, come l’origine di questo universo, la spiegazione di Boltzmann della freccia del tempo, l’evoluzione della vita intelligente sulla Terra ed eventualmente in altri pianeti ecc.

Ecco, ad esempio, come si applica la SSA nell’esperimento mentale (introdotto nel cap. 4 e ripreso nel cap. 10) dell’incubatore. Immaginiamo di lanciare una moneta: se esce croce viene creata una stanza contenente un uomo con la barba nera; se esce testa vengono create due stanze: una contenente un uomo con la barba nera e un’altra contenente un uomo con la barba bianca. In assenza di altre informazioni, se noi fossimo uno di questi uomini appena “creati” e conoscessimo il modo in cui questa creazione è avvenuta, considereremmo egualmente probabile che sia uscita croce e che sia uscita testa. Tuttavia, se si accendesse la luce e scoprissimo di avere la barba nera, secondo Bostrom, in base alla SSA (Self-Sampling Assumption), dovremmo ritenere che sia uscita croce con due probabilità contro una. Il ragionamento, espresso senza ricorrere alla matematica, potrebbe suonare così: in assenza di altre informazioni le probabilità di testa e di croce si equivalgono, ma ciò non è più vero quando scopro di avere la barba nera: infatti, se fosse uscita testa, avrei potuto avere la barba anche bianca: dunque è più probabile che sia uscita croce. In effetti quello che si applica è il teorema di Bayes: le probabilità iniziali di un determinato evento E possano aumentare o diminuire (trasformandosi così in probabilità finali o condizionali), qualora si verifichi o non si verifichi un determinato altro evento F o nel caso che sia vera o falsa una determinata teoria H. Nel caso dell’incubatore il fatto di sapere di avere la barba nera (evento nuovo) mi fornisce un’informazione supplementare (a favore di una teoria piuttosto che di un’altra) che mi fa modificare la mia stima delle probabilità iniziali.

Come si applica questa SSA a questioni scientifiche nelle quali è coinvolto il principio antropico?

Ad esempio Bostrom usa questa SSA per sostenere (cap. 5) che sia teoricamente possibile testare sperimentalmente quale tra due classiche interpretazioni della meccanica quantistica sia più probabilmente vera, tra quella secondo la quale è data “una sola storia” e quella “a molti mondi”. Secondo la prima interpretazione ogni volta che si registra il collasso della funzione d’onda di una particella, essa va in una certa direzione e non in un’altra, che essa pure avrebbe potuto seguire (dato il principio di indeterminazione). Secondo la seconda interpretazione ogniqualvolta è coinvolto un momento di indeterminazione il mondo si sdoppia, anzi si moltiplica e tutti i percorsi che la particella può seguire sono seguiti, ciascuno, però, in un mondo diverso.

L’idea di Bostrom è la seguente. Supponiamo che si possa un giorno dimostrare che l’apparizione di osservatori nell’universo fisico sia qualcosa di infinitamente improbabile date le leggi di natura note e le condizioni iniziali dell’universo. “Noi”, dunque, non dovremmo probabilmente esistere. Se esistiamo ciò dipende allora dal fatto che è probabilmente vera l’interpretazione a molti mondi, in cui anche gli esiti più improbabili si verificano. Per il teorema di Bayes, infatti, se qualcosa E ha probabilità a priori scarse (nel nostro caso: che appaiano osservatori), ma si potrebbe verificare con molta maggiore probabilità se fosse vera una certa ipotesi H (nel nostro caso: l’interpretazione “a molti mondi”), allora, se questo qualcosa E si verifica, è probabile che anche quest’ipotesi H sia vera.

In precedenza, prima di introdurre la SSA, Bostrom, come detto, aveva analogamente argomentato discorsivamente a favore della teoria secondo la quale il nostro sarebbe uno di molti altri universi: ciò dovrebbe rendere più probabile l’esistenza, altrimenti assai improbabile, del nostro universo (caratteristicamente fine-tuned e contraddistinto dall’emergere di osservatori coscienti).

La SSA ha anche il pregio di rendere altamente improbabile, anche se non impossibile, l’apparizione dei cosiddetti “cervelli di Boltzmann” (Bostrom non li evoca, ma parla, analogamente, nel cap. 3, di “freak observers”, osservatori strani scaturiti “random” magari dall’evaporazione di buchi neri). L’idea di Bostrom è questa: non si può escludere che noi viviamo in un’illusione (come il celebre cervello nella vasca), come osservatori scaturiti del tutto casualmente ad es. dall’evaporazione di buchi neri e contraddistinti da percezioni ingannevoli. Tuttavia, all’interno della “classe di riferimento” costituita da tutti gli osservatori possibili, è assai più probabile che le cose stiano come appaiono, cioè che siamo osservatori evolutisi per selezione naturale da altri organismi viventi. Infatti, in un universo fine-tuned il numero degli osservatori “normali” è ragionevolmente molto superiore a quello degli “osservatori strani”. Proprio come, quando c’è traffico, è più probabile trovarsi nella corsia più lenta, perché vi si trovano più veicoli, così, nell’universo, è più probabile appartenere a una specie evolutasi in milioni di anni che può contare miliardi di individui che all’insieme ristretto di “intelligenze” scaturite per puro caso dalla combinazione di particelle quantistiche dall’evaporazione di un buco nero. Anche se non si può escludere che qualche “osservatore” abbia questa bizzarra origine, è assai poco probabile che “noi” apparteniamo a questo “club esclusivo”, per così dire.

Tirando le somme, applicando l’approccio “antropico” di Bostrom e adottando la sua “matematica” (che nel cap. 10 assume la forma di una vera e propria equazione osservazionale), si dovrebbe concludere che noi esistiamo per puro caso all’interno di un multiverso di cui osserviamo una porzione estremamente limitata, il “nostro” universo, il solo che possiamo appunto osservare (per un evidente observation selection effect). Non ci sarebbe nulla di meraviglioso o di strano in tutto questo. Il fatto che l’universo sia fine-tuned sarebbe a sua volta un observation selection effect: se non fosse tale, non ci sarebbe nessuno a testimoniarlo e, soprattutto, non ci saremmo noi a poterlo fare.

 

Limiti dell’approccio di Bostrom

Si tratta di una conclusione convincente? Secondo me, no. Una cosa, infatti, è sostenere che, se ci sono innumerevoli universi, è probabile che, prima o poi, o da qualche parte, si verifichi qualcosa che, se esistesse un universo solo, sarebbe di per sé improbabile: cioè che appaiano osservatori. Altra cosa è sostenere, sulle stesse basi (cioè, se ci sono innumerevoli universi), che sia probabile e, quindi, spiegabile il fatto che siamo apparsi noi (e, inversamente, che, se ci siamo noi, sia probabile che ci siano innumerevoli universi).

“Noi” non siamo osservatori qualsiasi apparsi prima o poi da qualche parte. Siamo osservatori apparsi qui e ora. Inoltre siamo contraddistinti dall’essere coscienti, cosa che significa qualcosa di più che “osservare” se per osservare intendiamo un’azione che potrebbe venire compiuta da qualcosa o da qualcuno che potrebbe tranquillamente non essere “noi” (come p.e. un’intelligenza extraterrestre) e pensiamo, viceversa, la coscienza come qualcosa che possiamo sperimentare solo essendo coscienti in prima persona.

Riassumendo: Bostrom asserisce che è tanto più probabile l’apparizione di un universo fine-tuned che permetta l’emergere di osservatori, quanti più altri universi precedenti (e successivi) ammettiamo (ipotesi del multiverso).  L’obiezione (mia e di un certo Roger White, citato da Bostrom stesso nel cap. 2) è che ciò non vale se l’universo fine-tuned è il nostro, cioè gli osservatori in questione siamo noi.

Apparentemente questa obiezione non sembra sensata. Bostrom stesso (sempre nel cap. 2) fa notare a White (e implicitamente anche a me) che, se, in generale, l’apparizione di un universo fine-tuned, che permette l’emergere di osservatori, favorisce l’ipotesi di una successione pressoché infinita di universi (il multiverso), sarebbe strano che quello che vale, in generale, per gli universi contenenti osservatori non valga proprio per questo nostro universo (intendendo “questo” come riferimento rigido), cioè per l’universo in cui ci siamo noi.

Bostrom afferma che White non porta argomenti convincenti a favore della sua tesi (secondo la quale quello che vale in generale per universi fine-tuned non varrebbe per il nostro).

Ma l’argomento convincente secondo me c’è. Per ironia della sorte ce lo offre lo stesso Bostrom su un piatto d’argento (lo cita sempre nel cap. 2). Si tratta di un argomento tratto dalla cosiddetta fallacia inversa del giocatore d’azzardo.

Consideriamo la fallacia diretta, quella più nota. Un giocatore d’azzardo sbaglia a pensare che, quanto più numerosi sono i lanci di due dadi dai quali non esce un doppio 6, tanto più probabile sarà che al prossimo lancio esca un doppio 6.  Di fatto a ogni lancio la probabilità è sempre di 1/36.

La fallacia inversa è: se ora è uscito un doppio 6, ciò significa (crede erroneamente il giocatore d’azzardo) che ci sono stati prima molti lanci nei quali questo risultato non è uscito.

Ma è facile intuire che questo non è affatto necessario, perché questa serie di lanci antecedenti non renderebbe affatto più probabile l’uscita del doppio 6.

Analogamente – io sostengo – il fatto che questo nostro universo contenga osservatori e sia fine-tuned, non comporta affatto che vi siano stati prima altri numerosi universi differenti.

Certo, se lancio molte volte due dadi, la probabilità che prima o poi un doppio 6 esca aumenta; non però questo doppio 6, ma solo un doppio 6. Infatti, se non vogliamo cadere nell’inverso della fallacia del giocatore d’azzardo, dobbiamo riconoscere che, se adesso esce un doppio 6, ciò non aumenta affatto la probabilità che siano stati lanciati molte volte i dadi in precedenza piuttosto che poche volte o nessuna.

Così, se fosse vera l’interpretazione della meccanica quantistica “a molti mondi” (che Bostrom crede di poter suffragare sulla base della SSA, a condizione che certe condizioni sperimentali siano soddisfatte), la probabilità che prima o poi appaiano osservatori, certo, crescerebbe.

Ma il fatto è che questi osservatori non appaiono prima o poi agli occhi magari nostri o di altri osservatori che possano registrare l’evento. Questi osservatori siamo noi adesso.

Se non vogliamo, dunque, cadere nella fallacia inversa del giocatore d’azzardo, dobbiamo ammettere quanto segue: la nostra (pur assai improbabile, in se stessa) presenza non rende più probabile né un multiverso rispetto a un semplice universo limitato come quello che osserviamo (non rende più probabile il fatto che la Natura abbia lanciato innumerevoli volte i dadi invece che poche o una sola), né l’interpretazione “a molti mondi” della meccanica quantistica rispetto a quella “a una storia sola”.

Insomma, il fatto che gli osservatori di cui parliamo siamo noi stessi, ora, questo cortocircuito, fa un’enorme e decisiva differenza.

Perché, allora, la SSA funziona con il traffico e non con la meccanica quantistica? Perché io, che già esisto e sono cosciente di esistere, posso senz’altro prevedere che, se mai sarò imbottigliato nel traffico, sarà sempre più probabile che mi trovi nella corsia più lenta (e più affollata) piuttosto che in quella più veloce. Ma come potrebbe la “corsia”, di cui calcolare la probabilità, essere la mia stessa esistenza futura di osservatore cosciente? Non c’è un “luogo” dal quale io possa calcolare la probabilità che io possa nascere, perché “io stesso”, in quel luogo, non ci sarei ancora.

Viceversa, se e quando ci sono, ci sono adesso, in un presente (la cui probabilità è pari a 1), che non è un momento qualsiasi in cui “qualcuno” diviene cosciente prima o poi.

È soltanto il momento qualsiasi in cui emerge un osservatore qualsiasi a suggerire, posto che l’emergere di un osservatore sia cosa rara e improbabile, che prima la Natura deve avere fatto molti tentativi vani di farlo emergere. Ma il momento attuale, il “mio” momento, il momento in cui “io” ci sono, il momento in cui emerge la coscienza propriamente detta (quella sperimentata in prima persona), se non si vuole cadere nella fallacia inversa del giocatore d’azzardo, non richiede affatto di essere preceduto o affiancato da tentativi falliti (da altri universi in un multiverso o da “molti mondi” nella citata interpretazione della meccanica quantistica).

È come se Bostrom calcolasse in astratto la probabilità che emergano osservatori nell’universo, ad esempio nella forma degli Homo sapiens. E questo lo facesse come se egli fosse un alieno o un calcolatore privo di coscienza e fuori dai giochi. Poi notasse: “Ohibò, ma noi siamo questi osservatori e lo siamo adesso!”. Quindi – ragiona – quello che si applicava all’Homo sapiens si applica proprio a noi!

Ma proprio qui si nasconde il sofisma (il “bias” per fare il verso a Bostrom). Questo non è un passaggio innocente, esattamente come è diverso

a) dire che a furia di tirare coppie di dadi aumenta la probabilità di un doppio 6 (l’apparizione di vita intelligente nell’universo), cosa senz’altro corretta, e

b) dire che il fatto che ora sia uscito un doppio 6 (noi siamo qui coscienti di esistere) militi a favore del fatto che siano state tirate un sacco di coppie di dadi, cosa nient’affatto corretta.

Insomma, se non si vuole cadere nella fallacia inversa del giocatore d’azzardo, dal momento che a ogni lancio un doppio 6 può uscire con probabilità 1/36, quando registriamo un doppio 6 potrebbe benissimo trattarsi del solo e unico lancio effettuato. Certo, potrebbero essercene stati anche altri prima, ma non “affinché” uscisse questo doppio 6 (o affinché fosse più probabile, qui e ora, un doppio 6), visto che il risultato a cui qui e ora assisto non è reso affatto più probabile neppure da un milione di lanci precedenti (fallacia diretta del giocatore d’azzardo, che scommette sui numeri che non sono usciti da un certo tempo).

Il fatto che si tratti di un lancio fatto “qui e ora” rende questo lancio misteriosamente diverso, checché ne argomenti Bostrom. Infatti, ha ragione Bostrom: quanti più lanci si fanno, tanto più, in generale, è probabile che esca un doppio 6 (come qualsiasi altra coppia di numeri compresi tra 1 e 6). Ma non adesso! Adesso la probabilità è sempre dannatamente 1/36 (indipendentemente dal numero dei lanci precedenti).

Analogamente il fatto che qui e ora si dia vita intelligente in questo universo non ci dice dannatamente se prima di questo vi siano stati altri universi oppure no. Se vale l’argomento tratto dalla fallacia inversa del giocatore d’azzardo, Bostrom si sbaglia a considerare alta la probabilità del multiverso.

Il perfezionamento finale della SSA (nel cap. 10) nei termini della SSSA (Strong Self-Sampling Assumption) non cambia la sostanza e sottende lo stesso sofisma. Il fatto di trasformare gli “osservatori” in “momenti di osservazione” migliora le prestazioni della SSA, evitando potenziali argomenti a sfavore, ma rimane il problema di passare da questi “momenti di osservazione”, descritti in terza persona, all’esperienza in prima persona, mia o tua, di questi momenti. Ciò che vale per questi momenti descritti in terza persona, non vale più se siamo noi a viverli (saltano tutte le stime relative alla probabilità di questa o quell’ipotesi sulle condizioni al contorno che avrebbero reso possibile o probabile la nostra esistenza cosciente).

 

Un altro approccio: la funzione ontopoietica dell’osservatore

Come spiegare, allora, la nostra esistenza di osservatori coscienti, se il ragionamento di Bostrom cade in questa fallacia e se non possiamo evocare il tradizionale argomento di un intelligent design?

Ammettiamo pure (senza concederlo) che la struttura dell’universo sfavorisca l’argomento dell’intelligent design, concepito grossolanamente. Un creatore intelligente, infatti, avrebbe potuto creare l’uomo (una coscienza) in tempi e spazi molto più contenuti, manipolando opportunamente energia e materia (anche se in questo modo le cause finali e formali sarebbero apparse fin troppo scoperte, come quando si distingue un artefatto da un prodotto naturale). Inoltre il creatore avrebbe potuto fare le cose ancora migliori (“nicest”) di come sono. Le dimensioni spaziotemporali dell’universo e i chiari segni di imperfezione che esso contiene suggeriscono invece che il tutto sia avvenuto casualmente. Bene, ammettiamo che sia andata così.

Ora, se l’ipotesi dell’intelligent design va respinta e se ho ragione io a trovare inverosimile anche l’ipotesi del multiverso (che Bostrom sostiene probabile, ma che a me sembra, oltre che una flagrante violazione del rasoio di Ockham, un’ipotesi inutile, in quanto l’ingannevole apparenza della sua utilità è un mero effetto della fallacia inversa del giocatore d’azzardo), come spiegare l’origine della coscienza (cioè, identicamente, di un universo osservabile, anzi, di fatto, osservato)?

La coscienza sembra bensì scaturire del tutto casualmente (senza che nessuno l’abbia progettata, se escludiamo l’ipotesi del design). Essa è resa soltanto un po’ più probabile, nella sua intrinseca improbabilità, dalle dimensioni enormi del nostro universo (più precisamente, come argomentano Barrow e Tipler in The Anthropic Cosmological Principle, Oxford, Oxford University Press, 1986: se il nostro universo non fosse così grande e vecchio, la vita intelligente con ogni probabilità sarebbe semplicemente impossibile). Eppure possiamo senz’altro immaginare innumerevoli universi di tutte le dimensioni possibili in cui essa non sia mai scaturita. Il fine-tuning è stato dunque un incredibile colpo di fortuna (l’analogo del doppio 6 di cui sopra)?

Se eliminiamo la spiegazione che si appella al multiverso e anche quella di un intelligent design grossolanamente inteso, che cosa rimane da pensare?

La mia ipotesi è che il fine-tuning del nostro universo non sia stato affatto un colpo di fortuna, ma dipenda del fatto che, affinché possa esistere un universo, occorre che se ne sia coscienti. La mia ipotesi è che un universo, come una particella quantistica, per esistere in modo non sfocato o contraddittorio, deve essere osservabile, anzi deve essere osservato.

Come si vede in questa prospettiva l’aspetto indexical (relativo all’osservatore) di ciò che si osserva è determinante. Anche Bostrom dà rilevanza a questo aspetto. Ad esempio nel caso del traffico è perché sono più lento di altri che posso inferire che mi trovo nella corsia percorsa da un maggior numero di veicoli. Tuttavia, questo aspetto indexical è trattato da Bostrom in modo dichiaratamente fisicalistico (come egli argomenta nel cap. 8) ossia oggettivistico. Le informazioni che ricaviamo dalla nostra peculiare prospettiva sono considerate bensì preziose, ma vengono utilizzate soltanto per arricchire di ulteriori elementi informativi le nostre conoscenze oggettive, come nell’esempio di Bostrom: il fatto “indexical” che io abbia gli occhi azzurri mi informa del fatto “non indexical” che ci sono persone con occhi azzurri. In altre parole le informazioni che ricaviamo in quanto esistiamo in prima persona vengono sempre tradotte come informazioni che “si” possono ricavare, cioè informazioni ricavabili da terze persone.

La mia è ipotesi è diversa: quello che viene calcolato come probabilmente reale (tramite la SSA) quando si considerano gli osservatori come terze persone (ad esempio il multiverso) deve essere considerato come soltanto possibile se si parte dall’esperienza in prima persona (qui e ora): non è necessario supporre innumerevoli mondi e universi “reali” prima di noi o accanto a noi per rendere ragione dell’elevata improbabilità della nostra esistenza; basta riconoscere che tra tutti gli innumerevoli universi soltanto possibili solo uno è quello reale, quello in cui vi siamo noi che possiamo osservarlo e renderlo, perciò, tale (reale).

Da questo punto di vista il multiverso potrebbe venire inteso semplicemente come il multiverso degli universi possibili, ma resi irreali dalla circostanza che nessuno vi è cosciente.

Analogamente tutti i lanci di due dadi (ca. 35 lanci) che dànno risultati diversi dal doppio 6, al quale un giocatore d’azzardo assiste, possono venire “recuperati” non come “antecedenti” materiali del doppio 6, ma come spettrali compagni “virtuali” del doppio 6, tutto ciò che sarebbe potuto accadere, ma non è accaduto.

Vale la pena fare al riguardo un’ultima precisazione. Sempre nel capitolo 2 Bostrom nega la pertinenza al caso dell’universo osservabile dell’esempio del doppio 6 (e, quindi, dell’inverso della fallacia del giocatore d’azzardo).  Sostiene che l’uscita di un doppio 6 non ha a che fare con observation selection effects. Vi avrebbe a che fare se si immaginasse che il giocatore d’azzardo venisse lasciato fuori da una porta e venisse chiamato solo quando chi è nella sala da gioco assiste a un doppio 6. Questo “accordo” farebbe sì che l’assistere a un doppio 6 sarebbe l’effetto di una selezione osservativa (il giocatore potrebbe assistere “solo” a doppi 6, per convenzione).

Ma è proprio il contrario! Se il giocatore venisse lasciato fuori, egli esisterebbe anche tutte le volte che dentro la sala non esce nessun doppio 6. Egli esisterebbe e sarebbe cosciente di esistere. Se poi dovesse aspettare ore e ore prima di venire chiamato dentro, avrebbe anche ottime ragioni per pensare che prima del doppio 6 siano uscite molte altre coppie di numeri.

È chiaro che, se l’analogia tra il lancio dei dadi e l’apparizione di osservatori deve funzionare, il doppio 6 deve rappresentare direttamente l’apparizione di osservatori (o della coscienza). Non ci deve essere un’altra coscienza, quella del giocatore, che aspetta di assistere a qualcosa, esattamente come non c’è una coscienza che aspetta di vedere se su questo o quell’universo compare un essere… cosciente.

Alla mia ipotesi, cioè che questo universo esista semplicemente perché è il solo di cui si è coscienti (e non come uno tra innumerevoli altri, altrettanto “esistenti”, ma di cui non si è coscienti), si può arrivare anche per un’altra via, nella quale la SSA ritorna ad avere un ruolo.

Un pregio della SSA consiste nel fatto che essa, come dimostra Bostrom (nel cap. 5), consente di smontare la pretesa di Boltzmann, seguito in questo da molti altri, di giustificare la freccia del tempo che caratterizza il “nostro” universo. Secondo Boltzmann l’incremento irreversibile di entropia che contraddistingue il nostro universo, spezzandone la simmetria rispetto al tempo, sarebbe dovuto al fatto che in universo molto grande non sarebbe impossibile registrare fluttuazioni locali nei valori dell’entropia, sicché in alcune regioni (come quella in cui ci troviamo noi) l’entropia potrebbe essere casualmente molto bassa e destinata, quindi, a crescere (come effettivamente registriamo che accade). Ciò sarebbe compatibile, dunque, con l’immagine di un universo globalmente simmetrico rispetto al tempo.

Bostrom ha buon gioco a dimostrare che, se è valida la SSA, queste fluttuazioni sono certo possibili e “noi” potremmo senz’altro trovarci in una regione contraddistinta da incremento di entropia e, dunque, da una freccia del tempo (sola condizione compatibile con la manifestazione e l’evoluzione della vita). Tuttavia, tale regione, probabilisticamente, dovrebbe essere molto più piccola del nostro universo largo ca. 40 miliardi di anni luce (che appare globalmente contraddistinto da incremento irreversibile di entropia). Infatti, le fluttuazioni di cui parla Boltzmann dovrebbero essere sia piccole sia grandi. Quelle piccole dovrebbero essere assai più frequenti e numerose. Dunque, per la SSA, osservatori coscienti dovrebbero apparire molto più frequentemente e numerosamente in regioni di universo assai più piccole del nostro. Per la SSA noi dovremmo dunque abitare un universo molto più piccolo, almeno dal punto di vista del calcolo delle probabilità. Poiché così non è, la spiegazione di Boltzmann delle ragioni per le quali registriamo un incremento irreversibile di entropia è probabilmente falsa.

Questa critica all’argomento di Boltzmann resta valida anche se la SSA, come io sostengo, non può essere usata per argomentare (come fa Bostrom) che il nostro universo sia apparso casualmente all’interno di un multiverso molto più vasto. Infatti, usata contro l’argomento di Boltzmann, la SSA non si applica direttamente all’emergere della coscienza qui e ora (che, come ho già argomentato, se non si vuole cadere nella fallacia inversa del giocatore d’azzardo, è un evento che non permette di stimare la probabilità del multiverso), ma al problema della freccia del tempo, determinata dalla direzione dell’incremento di entropia (che è un dato oggettivo, non riferito al “qui e ora”). La conclusione di Bostrom è, dunque, corretta: le fluttuazioni congetturate da Boltzmann non spiegano perché la freccia del tempo contraddistingua un universo grande come il nostro.

La mia spiegazione di questo mistero va nella stessa direzione della mia spiegazione dell’origine del nostro universo osservabile: come non può esistere se non un universo del quale si è coscienti, così non può non esistere se non un universo che ammette osservatori viventi, ossia un universo contraddistinto da un incremento irreversibile di entropia e da una conseguente freccia del tempo (sola condizione alla quale possono esistere esseri viventi). Insomma è la stessa coscienza a decidere quale universo (non solo ci appaia, per un “banale” observation selection effect, ma anche semplicemente) esista, sia a) per quanto riguarda il suo essere, genericamente, fine-tuned, sia b) per quanto riguarda il suo essere, specificamente, caratterizzato da incremento irreversibile di entropia.

E qui accenno, infine, a un altro limite dell’approccio di Bostrom. Bostrom ragiona realisticamente come se spazio e tempo potessero essere reali (esistere) in assenza di osservatori. Espandendo a piacimento spazio e tempo Bostrom può allora immaginare multiversi, molti mondi e altre possibili condizioni capaci di rendere meno improbabile l’apparizione di osservatori coscienti. Pur alludendo nel cap. 1 a Kant come a un precursore della necessità di tenere conto degli observation selection effects, sembra ignorare la lezione fondamentale del filosofo di Koenigsberg: il primo effetto (distorcente) dovuto all’osservazione potrebbe essere la credenza nel fatto che l’universo sia immerso in un sistema di assi spaziotemporale, sistema spaziotemporale che potrebbe però non avere alcuna consistenza in assenza di osservatori, essere cioè parte del sistema percettivo.

Ma, se, con Leibniz, Kant e molti altri, supponiamo che spazio e tempo siano “soggettivi”, dipendano cioè dal fatto che vi siano osservatori, siano insomma solo un modo di osservare la realtà, ecco che il “multiverso” che Bostrom postula come plausibile condizione dell’apparizione di osservatori coscienti potrebbe essere di nuovo “salvato”, ma solo a patto di concepirlo come qualcosa di “virtuale” o di puramente “concettuale”, come l’insieme immaginario (“spettrale”) dei tiri diversi dal doppio 6 che noi stessi siamo.

Bisogna dire che il libro di Bostrom, al di là delle sue tesi specifiche, ha il grande merito di discutere analiticamente, ricorrendo come accennato a strumenti matematici adeguati, le diverse ipotesi in gioco formulate da lui e da numerosi altri autori, fornendo al lettore un panorama vasto e affascinante.  Esso motiva anche a un lettore che non concordasse con la tesi formulate da Bostrom stesso ad argomentare tesi alternative con altrettanto rigore. Ed è esattamente quello che ho provato a fare.

 

 

From autopoiesis to consciousness?

occhio

Thompson’s idea in Mind in Life: Biology, Phenomenology, and the Sciences of Mind. Harvard University Press, 2010, is that the explanatory gap (with which he identifies the Chalmers’ hard problem) can be “reduced”, if not solved, on the basis of the analogy between the autopoietic mode of functioning of the living being and that of consciousness. Ultimately it is the problem of understanding why we are conscious (in my view: why is it that certain things that happen in our brain appear to us as conscious experiences? and: why couldn’t our brain be just as effective at whatever it is it does if we were not conscious?).
(On a whole other basis – evolutionary – it also seems the intuition that inspires the Simona Ginsburg and Eva Jablonka’s book The Evolution of the Sensitive Soul: Learning and the Origins of Consciousness, MIT Press, Massachusetts, 2019, in which the markers of the origin of life are treated as “analogous” to the markers of the origin of consciousness).

To understand in what sense Thompson posits this analogy (between the form of life and the form of consciousness) we must remember the meaning of “autopoiesis” (originally defined in the book written by Francisco Varela and Humberto Maturana Autopoiesis: the organization of the living (1972) expanded and integrated with a previous paper on cognition in Autopoiesis and Cognition, Dordrecht, Netherlands, Reidel, 1980): a living being is basically a machine capable of continually regenerating itself. In particular, it is marked by self-organization, that is, it produces the components that, by interacting with each other, produce themselves and the whole of which they are part.

It is an interesting antireductionistic approach (for in the living would operate a downward causation from the whole to the parts, such that the whole is “greater than the sum of the parts”, in a holistic sense), but admittedly deterministic and mechanistic (it is not believed that “final causes”, “morphogenetic fields”, “occult forces”, “souls” or otherwise non-material entities operate as in vitalism).

What interested me in this approach was the fact that even the “boundary” of the organism is determined by the organism itself and, in turn, it determines the development of the organism, as in the paradigmatic case of the cell. According to the authors, the “autopoietic machine”, unlike a computer, does not work with input/output information and information processing, but only tends to reproduce itself: external “inputs” are only “perturbations” not unlike those that might come from inside the machine, to which the living machine reacts by reworking itself to maintain its self-organization. This process is also a form of cognition (we would say: learning or adaptation).  Moreover, not only are the boundaries established by the living being itself while it lives, but also the environment (the ecological niche) as a whole is co-determined by the organism. Each living being has the universe it deserves, we could say (we perceive certain light frequencies and space in a certain way, but an amoeba lives in a completely different environment; moreover each organism, together with the other conspecifics, is not only conditioned by the environment but contributes to define it).

As explained in the book written by Thompson with Francisco and Eleanor Rosch, The Embodied Mind: Cognitive Science and Human Experience, MIT Press, 1991 (in which the concept of autopoiesis mysteriously disappears, in favor of a simple, but synonymous “self-organization” – autopoiesis reappears anyway in Mind in Life) the interaction between organism and environment has “enactive” character. The action is influenced by the perception and the perception by the action in a circle of unceasing feedback in which information would not be processed in a computer sense, but would take place a process that is cognitive and “adaptive” together (and where the environment is also “produced” to some extent). Although with different language it is not a very different approach, in my opinion, of those of Seth and Hoffman: the “mind” would “bayesianly” work projecting on the “world” their own hypotheses or expectations  and would gradually correct the shot based on the feedback he receives (in my opinion the model is the way a young child learns to grasp objects by trial and error without any “gene” having predetermined the exact mode of operation to succeed).

What struck me was this idea of co-evolution or co-determination between organism, with blurred boundaries, and universe. I saw an embryonic form of extreme monism (like that to which I adhere). It is as if the organism were the universe itself that assumes a certain configuration, without clear boundaries between the part and the whole (we must not forget that the boundaries are fixed by the organism itself and apply only to it; in other words they do not have an objective character and do not mark a real external world, as suggested by the fact that the organism cannot really distinguish between inputs from outside and perturbations generated inside it).

This is where it becomes important to understand the difference between “life” (thus or otherwise conceived) and “consciousness”. Mind in Life seemed, in this regard, very promising.

Thompson, who is a philosopher, first of all develops an interesting discussion on the epistemological limits of the cognitive sciences, highlighting the transcendental (my term) function  of consciousness (and, therefore, the epistemological “need” of philosophy and especially of the phenomenology of Husserl, Heidegger, Merleau-Ponty etc.). The cognitive scientist often does not question the fact that, when dealing with consciousness, he puts his own consciousness into play, without having thoroughly analyzed its phenomenological traits (He can get so, e.g. , to demonstrate that, because consciousness has evolved only to promote fitness, it is not at all reliable cognitively; but he does not realize that, in this way, he makes the neuroscientific knowledge itself uncertain). Consciousness is not only an object of investigation, but also a means by which the investigation is conducted. In particular, the subjective consciousness of the researcher operates occultly as a comparison term even in those “objectivistic” approaches that try to limit themselves to the “data” obtained from brain scanning and to reports (which are in turn subjective interpretations!) of test subjects. The researcher must in fact compare what is reported with his own experience to give it a meaning.

Unfortunately, when Thompson comes to talk about consciousness, introducing his “neurophenomenology” (inspired by Varela), that is, a form of naturalized phenomenology, in which phenomenological self-analysis illuminates the experimental data and vice versa, while making very interesting observations, in my opinion, it fails in any way to reduce the explanatory gap.

The vague analogy between the “holistic” functioning of consciousness (which, in turn, as well as the brain, should not be seen as an information processor, but as a system that self-organizes itself homeostatically etc.) and that of the cell does not help us to understand the transition from one systems to another.

Thompson only lashes out against the Cartesian dualism , which also underlies Chalmers’ theory, the “representation” theories like Jerry Fodor’s, Jaegwon Kim’s etc. If you “reduce” nature, even biological, in a deterministic-mechanistic-physicalistic etc. way, you will never be able to derive consciousness. If, however, biological phenomena are understood as irreducible to physical ones, for the former have a capacity for self-organization, the gap with subjective phenomena, characteristically “intentional”, of consciousness would be reduced (it is interesting that Thompson recognizes to Kant the merit, in the Critique of Judgment, to have introduced for the first time the notion of “circular causality” to interpret the living beings and, in Mind in Life, going well beyond Maturana and Varela, admits also the notion of “final causality”, even if detached from any idea of transcendent “design”, as “purposiveness” intrinsic to autopoietic organization).

This strategy seems promising, but in my opinion it is very problematic. It is precisely the analogy between the two types of phenomena (life and consciousness) that makes the problem worse: if life is so “powerful” as a process capable of self-organization even when it is unconscious, why did consciousness evolve at some point?

Among other things it is curious that Thompson “attacks” also the theory of evolution by natural selection. But, so to speak, even if some of his arguments are convincing, he attacks it from the “left” (while the writer, more sensitive to the sirens of intelligent design or, better, a certain interpretations of the anthropic principle, tends to attack it from the “right”). That is, the idea is that organisms evolve spontaneously (it also borders on lamarckism, underscoring the possibility of epigenetic or “cultural” transmission of acquired characters) and that natural selection is limited to eliminating individuals that are irrimediably unfit. There would be no tendency to optimize fitness, but only a tendency to keep in place organisms minimally or sufficiently adapted. The basic thesis is that autopoiesis and not evolution would characterize life. Evolution would be a mere “historical” phenomenon (it is roughly the thesis of Piantelli Palmerini and Fodor in the book What Darwin got wrong, Profile Books Ldt, 2011). Selection, to operate, presupposes life, does not create it.

This kind of criticism, in my opinion, does not go far. Instead of explaining life and intelligence (or consciousness) it dismisses the explanation, giving an excessive role to chance, unless we want to reintroduce something like élan vital, final and formal causes, morphic fields or, finally, again, an intelligent design.

Moreover it seems to me a sophistry to say that selection presupposes life and not vice versa. Of course, in Darwin this is literally true. But what prevents us from assuming that selection operates on chemistry? Indeed, autocatalytic hypercycles, although not yet fully autopoietic structures, could be the precursors of life. Finally, if you want to keep yourself within a materialistic horizon, you must also explain the origin of the first autopoietic cell. If you give up selection, you have to rely on chance.

My criticism “from the right” is based on the fact that, on the contrary, the evident, even if progressive, optimization of the functions of the living beings cannot be the result either of chance or of mere selection, but requires a more “strong” explanation, the need for consciousness to arise. Consciousness, in my model, would be both the ultimate goal of evolution, and, circularly, the condition of “transcendental” possibility (since it introduces time, previously absent) of evolution itself.

But this is me, not Thompson.

Anyway the problem of the transition from life to consciousness remains unanswered. In my perspective, the question is what determines (or reveals) the universe’s ability to observe itself. Is it the fact of owning (or representing) a nervous system (treated by Thompson as a self-organized system) with certain traits, e.g. the neocortex? Or is it the fact of maximally reducing the internal entropy (interesting that Thompson unifies the idea of a closed self-organizational system, to characterize the living being, with that of a dissipative structure energetically open, far from the state of thermodynamic equilibrium, but able to “maintain” in this condition)? In short, what is the correlated (in my opinion not with causal role, but only of trigger) of consciousness?

Dall’autopoiesi alla coscienza?

neurone
L’idea di Evan Thompson in Mind in Life: Biology, Phenomenology, and the Sciences of Mind. Harvard University Press, 2010, è che l’explanatory gap (con cui egli identifica lo hard problem di Chalmers), cioè il problema di capire perché siamo coscienti, cioè perché gli stessi meccanismi cerebrali correlati alla nostra esperienza soggettiva non potrebbero funzionare altrettanto bene senza che noi fossimo consci, possa venire “ridotto” se non risolto sulla base dell’analogia tra il modo di funzionare autopoietico del vivente e quello della coscienza.
(In un certo senso, su tutt’altre basi – evoluzionistiche – , sembra anche l’intuizione che presiede al volume di Simona Ginsburg ed Eva Jablonka. The Evolution of the Sensitive Soul. Learning and the Origins of Consciousness, MIT Press, Massachusetts, 2019, in cui i marcatori dell’origine della vita sono visti come “analoghi” ai marcatori dell’origine della coscienza).

Per comprendere in che senso Thompson intenda quest’analogia (tra forma della vita e forma della coscienza) bisogna ricordare il significato di “autopoiesi” (definito originariamente nel testo  di Francisco Varela e Humberto Maturana Autopoiesis: the organization of the living (1972) ampliato e integrato con uno scritto precedente sulla cognizione in Autopoiesis and Cognition, Dordrecht, Netherlands, Reidel, 1980): un essere vivente sarebbe fondamentalmente una macchina in grado di rigenerare continuamente se stessa. In particolare esso sarebbe contraddistinto dal fatto di auto-organizzarsi, cioè di produrre i componenti che, interagendo tra loro, producono se stessi e l’intero di cui sono parte.

Si tratta di un interessante approccio antiriduzionistico (perché nel vivente opererebbe una downward causation dall’intero alle parti, tale per cui l’intero è “maggiore della somma delle parti”, in senso olistico), ma dichiaratamente deterministico e meccanicistico (non si ritiene che operino “cause finali”, “campi morfogenetici”, “forze occulte”, “anime” o comunque entità non materiali come nel vitalismo).

L’aspetto che mi aveva interessato era il fatto che anche il “confine” dell’organismo risulta determinato dall’organismo stesso e, a sua volta, determina lo sviluppo del medesimo, come nel caso paradigmatico della cellula. Secondo gli autori la “macchina autopoietica”, a differenza di un computer, non riceve in input informazioni, le elabora e restituisce in output informazioni, ma tende solo a riprodurre se stessa: gli “input” sono soltanto “perturbazioni”, non diversamente da quelle che potrebbero venire dall’interno della macchina, a cui la macchina vivente reagisce rimaneggiando se stessa per mantenere la propria auto-organizzazione. Questo processo sarebbe anche una forma di cognizione (noi diremmo apprendimento o adattamento).  Inoltre, non solo i confini sono stabiliti dallo stesso vivente mentre vive, ma in un certo senso anche l’ambiente (la nicchia ecologica) nel suo complesso è co-determinato dall’organismo. Ciascuno ha l’universo che si merita, potremmo dire (noi percepiamo certe frequenze luminose e lo spazio in un certo modo, un’ameba vive in un ambiente del tutto diverso; inoltre ogni organismo, insieme con gli altri conspecifici e non, non è solo condizionato dall’ambiente ma contribuisce a definirlo).

Come si chiarisce meglio nel libro scritto da Thompson con Francisco Varela ed Eleanor Rosch, The Embodied Mind: Cognitive Science and Human Experience, MIT Press, 1991 (in cui sparisce misteriosamente il concetto di autopoiesi, a favore di una semplice, ma sinonimica “self-organization” – l’autopoiesi riappare comunque in Mind in Life) l’interazione tra organismo e ambiente ha carattere “enactive“. L’azione è influenzata dalla percezione e questa dall’azione in un circolo di feedback continui in cui non passerebbero informazioni in senso informatico, ma si svolgerebbe un processo che è cognitivo e “adattativo” insieme (e in cui anche l’ambiente viene in un certo senso configurato). Anche se con linguaggio diverso non si tratta di un approccio molto diverso, secondo me, di quelli di Seth e Hoffman: la “mente” funzionerebbe proiettando sul “mondo” le proprie ipotesi o aspettative “bayesiane” e correggerebbe via via il tiro in base al feedback che riceve (secondo me il paradigma è il modo in cui un bambino piccolo impara a stringere gli oggetti per prova e errore senza che nessun “gene” abbia predeterminato l’esatta modalità operativa per avere successo).

Ciò che mi aveva colpito è quest’idea di coevoluzione o codeterminazione tra organismo, dai confini sfumati, e universo. Ci vedevo una forma embrionale di “uno-tutto”. È come se l’organismo fosse l’universo stesso che assume una determinata configurazione, senza confini netti tra la parte e il tutto.

A questo punto, però, sempre dal mio punto di vista, diventava urgente capire la differenza tra “vita” (così o altrimenti concepita) e “coscienza”. Mind in Life sembrava, al riguardo, molto promettente.

Thompson, che è filosofo, sviluppa innanzitutto un’interessante discussione sui limiti epistemologici delle scienze cognitive, mettendo in luce la funzione trascendentale (termine mio, ma per chiarire) della coscienza (e, quindi, il “bisogno” epistemologico di filosofia e specialmente della fenomenologia di Husserl, Heidegger, Merleau-Ponty ecc.). Lo scienziato cognitivo spesso non mette a tema il fatto che, quando tratta della coscienza, mette in gioco la sua stessa coscienza, senza averne accuratamente analizzato i tratti fenomenologici (si può arrivare così, noto io, a dimostrare che la coscienza, in quanto si sarebbe evoluta solo per favorire la fitness, non è affatto attendibile cognitivamente, senza accorgersi che, in questo modo, si taglia il ramo su cui lo stesso neuroscienziato, in quanto il suo sapere deriva dalla sua coscienza, è seduto!). La coscienza non è solo un oggetto di indagine, ma anche lo strumento mediante cui l’indagine è condotta. Essa (la coscienza soggettiva del ricercatore)  opera occultamente come termine di paragone anche in quegli approcci che si dichiarano “oggettivistici” e cercano di limitarsi ai “dati” ricavati p.e. dalla scansione del cervello e dai reports (che sono a loro volta interpretazioni soggettive!) dei soggetti su cui si effettuano gli esperimenti.

Purtroppo, quando Thompson passa a trattare della coscienza, introducendo la sua “neurofenomenologia” (ispirata a Varela, nel frattempo deceduto per complicanze legate a problemi al fegato), cioè un forma di fenomenologia naturalizzata, in cui l’autoanalisi fenomenologica illumina i dati sperimentali e viceversa, fa interessantissime osservazioni ecc., ma, secondo me, non riesce in alcun modo a ridurre l’explanatory gap.

La vaga analogia tra il funzionamento “olistico” della coscienza (che, a sua volta, come anche il cervello, non dovrebbe essere vista come un elaboratore di informazioni, ma come un sistema che si auto-organizza omeostaticamente ecc.) e quella della cellula non ci aiuta a capire come si passi da questa a quella.

Thompson si limita a scagliarsi contro il dualismo cartesiano, operante anche in Chalmers, nei “rappresentazionalisti” come Jerry Fodor, in Jaegwon Kim ecc. Se si “riduce” la natura, anche biologica, in senso deterministico-meccanicistico-fisicalistico ecc. non si riuscirà mai a derivarne la coscienza. Se, invece, si intendono i fenomeni biologici come irriducibili a quelli fisici, cioè come dotati di una capacità di auto-organizzazione (è interessante che Thompson riconosca a Kant il merito, nella Critica del Giudizio, di avere introdotto per la prima volta la nozione di “causalità circolare” per interpretare il vivente e, nel suo ultimo libro, andando ben oltre Maturana e Varela, “sdogana” anche la nozione di “causalità finale” anche se sganciata da ogni idea di “progetto” trascendente, come “purposiveness” intrinseca all’organizzazione autopoietica), il gap con i fenomeni soggettivi, caratteristicamente “intenzionali”, della coscienza si ridurrebbe.

Questa strategia sembra promettente, ma, secondo me, è assai problematica. Proprio l’analogia tra i due tipi di fenomeni (vita e coscienza) mantiene in essere il quesito: se la vita è così “potente” come processo capace di auto-organizzazione anche quando è inconscia, perché a un certo punto si è evoluta la coscienza?

Tra l’altro è curioso che Thompson & co. “attaccano” anche la teoria dell’evoluzione per selezione naturale. Però, per così dire, anche se certi loro argomenti sono convincenti, la attaccano da “sinistra” (mentre chi scrive, più sensibile alle sirene dell’intelligent design o, meglio, di una certa lettura del principio antropico, tende ad attaccarla da “destra”). Cioè, l’idea è che gli organismi evolvano spontaneamente (si rasenta anche il lamarckismo, esaltando la possibilità della trasmissione epigenetica o “culturale” dei caratteri acquisiti) e che la selezione naturale si limiti a eliminare i casi disperati. Non si registrerebbe una tendenza a ottimizzare la fitness, ma solo a conservare in essere organismi minimamente o sufficientemente adattati. La tesi di fondo è che l’autopoiesi e non l’evoluzione caratterizzerebbe la vita. L’evoluzione sarebbe un fenomeno “storico” non strutturale (è all’incirca la tesi di Piantelli e Fodor nel libro Gli errori di Darwin). La selezione, per operare, presuppone la vita, non la crea.

A pensarci, questo genere di critiche, secondo me, non portano lontano. Invece di spiegare la vita e l’intelligenza (o la coscienza) allontano la spiegazione, conferendo un ruolo eccessivo o al caso o a ipotetiche leggi “autopoietiche” che, però, se le si dovesse veramente prendere sul serio, richiederebbero di reintrodurre l’élan vital, cause finali e formali (campi morfici) o, infine, di nuovo, un intelligent design.

Poi a me sembra un sofisma affermare la selezione presuppone la vita. Certo, in Darwin questo è letteralmente vero. Ma che cosa vieta di supporre che la selezione operi sulla chimica, cioè sugli ipercicli autocatalitici che, secondo alcuni, pur non essendo ancora pienamente strutture autopoietiche, potrebbero essere i precursori della vita? In qualche modo, se ci si vuole mantenere in un orizzonte materialistico, si dovrà pure spiegare l’origine della prima cellula autopoietica. Se si rinuncia alla selezione, ci si deve affidare per forza al puro caso.

La mia critica “da destra” è basata sul fatto che, anzi, l’evidente ottimizzazione delle funzioni dei viventi non può essere frutto né del caso, né della mera selezione, ma richiede una spiegazione più “forte”, Dio o la necessità che scaturisca la coscienza. La coscienza, nel mio modello, sarebbe sia il fine ultimo dell’evoluzione, sia, circolarmente, la condizione di possibilità “trascendentale” (in quanto introduce il tempo, prima assente) dell’evoluzione medesima.

Ma questo è Giacometti, non Thompson.

E comunque rimane inevaso il problema del passaggio dalla vita alla coscienza. Nella mia prospettiva si tratta di ciò che “demarca” la capacità dell’universo di osservare se stesso. Forse è il fatto di possedere (o rappresentarsi di possedere) un sistema nervoso (trattato da Thompson & co. come un sistema auto-organizzato) con certi tratti, p.e. la neocorteccia? Oppure è il fatto di azzerare completamente l’entropia interna (interessante che Thompson unifichi l’idea di sistema auto-organizzativo chiuso, per caratterizzare il vivente, con quella di struttura dissipativa energeticamente aperta, lontana dallo stato di equilibrio termodinamico, ma capace di “mantenersi” in questa condizione)? Insomma quale mai è il correlato (secondo me con ruolo non causale, ma solo di “trigger”) della coscienza?

Is reality an illusion?

rotture

Donald Hoffman’s book, The Case Against Reality. How Evolution Hid the Truth from Our Eyes (2020) proposes two largely acceptable though revolutionary theories on consciousness and reality, linked together, but not dependent on each other. These are highly speculative theories, but Hoffman exposes them to empirical checks according to the scientific method, which he defends with conviction. Several experiments, cited by Hoffman, seem compatible especially with the first of the two theories.

According to the interface theory of perception (ITP), the world we perceive is not objective, nor does it bear any resemblance to the objective world. Not only the classic “secondary qualities”, such as colors, sounds, flavors, but also the classic “primary qualities”, such as space and time, would depend more on our perceptual system than on “objective reality”. They would be the way we encode our experience. The objects we perceive would be, relative to the underlying reality, like desktop icons are relative to the sequences of bytes they represent, as these sequences actually and physically exist in a computer.

To support this thesis, for which he appropriately refers to Kant, Hoffman resorts to his theorem “Fitness-Beats-Truth” (FBT), proven on the basis of game theory. According to this theorem, the more complex an organism is (in terms of internal “states” corresponding to hypothetical “states” of the external world), the less likely it is that the world it perceives is real. If this were not the case, the organism could not survive and reproduce with the necessary effectiveness. In short, natural selection would favor organisms that perceive the world in a “useful” way rather than in a “true” way. Space and time would thus be “doomed”, in line with certain interpretations of quantum mechanics.

This theory seems to me absolutely convincing insofar as it highlights the subjective character of the world as it appears to us. References to physics are certainly appropriate (and correspond largely to those I make on this website, coming to conclusions similar to those Hoffman’s).

Hoffman’s use of the theory of evolution by natural selection is less convincing. Since natural selection seems to take time, but time is ultimately an illusion, it is unclear “where” and “when” evolution may occur.

Furthermore, Hoffman often alludes to the fact that living beings must consume “energy” to obtain resources. But it is not clear what “energy” (a magnitude corresponding to the product of the force applied to a body by the displacement it undergoes in space) could mean if space and time are doomed.

In my view, Hoffman’s reasoning, taken to its extreme consequences, shows that the theory of evolution by natural selection is ultimately self-contradictory: if the theory were true, we would perceive a false world; but, if the world were false, the theory of evolution that we know would be false, as it presupposes illusory entities, such as space and time.

Hoffman defends his theory by saying that his theory only questions our perception of the world and not, instead, our logical-mathematical skills (on which he bases his theorem FBT). However, if evolution had selected us to identify what is useful for us to survive and to reproduce rather than to understand the truth, it is not clear why this blindness to truth should not also concern mathematical truth. It is true that having a “correct” basic mathematics could be an advantage for our survival, but what’s the advantange of having the advanced mathematics that Hoffman needs for his theory? Our primate cousins would certainly not know what to do with it.

In general, I think the trust that Hoffman rightly has for the scientific method cannot be based on the random evolution of our “mind” (I do not say “of the brain”, because this, in Hoffman’s perspective, is only an icon of the mind). Such evolution would not guarantee the viability of science, not even as a set of fallible, but for the moment convincing hypotheses. I think we must posit that there is a more immediate and direct relationship between our mind and the truth.

With these epistemological limitations, Hoffman’s interface theory of perception appears in any case convincing, at least as a metaphor, and in accordance with my tenet on the subjectivity of space and time.

The second theory that Hoffman introduces, to complement the first, but as a theory not dependent on it, is the theory of conscious realism. Compared with ITP, it is a much more speculative theory, a real research programme that Hoffman is launching. Nevertheless he expects empirical checks on it to be carried out sooner or later.

According to this theory it is impossible to fix the issue of the origin of consciousness by adopting a physicalistic approach, that is, by trying to understand how consciousness can derive from an objective reality, made of quarks, atoms, molecules, neurons etc. pre-existent to consciousness itself. The hard problem (why we are conscious instead of not) cannot be solved this way. On this point I wholeheartedly agree with Hoffman.

Hoffman therefore proposes that consciousness doesn’t derives from “matter”, but it is something original. I fully agree also with this tenet.

But Hoffman affirms that everything consists of a network of “conscious agents”. What puzzles me is that consciousness must be “multiplied” into these countless conscious agents (re-edition of the monads of Leibniz?) that would pervade the universe from the level of the Plank scale up to “God”, a hypothetical cosmic super-consciousness constituted (“instantiated”) by the conscious agents of gradually higher level (up to the Plank scale).

The least we can say is that this theory seems to violate Ockham’s razor, which Hoffman, instead, invokes as a guiding criterion. Why all these “conscious agents”? Hoffman starts from the fact that, if I look in the mirror, behind the icon of my face there is a world of feelings and emotions, expressed, say, by a smile. So also, probably, there is a similar world behind the icon of the face of my beloved, of my friends and so on. Even a chimpanzee can maybe express emotions. If I feel less and less “empathy”, going down the scale of the living beings, according to Hoffman it is not because these living beings are less “conscious”, but because their way of being conscious would be different from my. So quickly we get to the electrons and the Planck scale!

Therefore, if I look at a mountain, what I look at would be a swarm of conscious agents whose “actions” would constitute for me many “experiences”. Hoffman also proposes a mathematical model of how conscious agents would experience and react “freely” to it, while retaining their memory. To this end he assumes that conscious agents work as universal Turing machines and make choices that can be interpreted as transitions through Markovian kernels in measurable spaces (whose fundamental dimensions would be that of the experiences and that of the corresponding actions).

In this way Hoffman tries to bring back the “visible” mechanisms of natural selection to a hypothetical “mathematical” root in the “thing-in-itself”. However, the above perplexities about Hoffman’s use of the theory of evolution remain. In fact, these conscious agents seem to take “time” to operate. Perhaps it is a different time from the illusory one? Yet this time, to work, should be linear and oriented in the past-future direction as well as the illusory one…

The mechanism by which these agents choose is also unclear. Are these random, “improved” choices for trial and error? Does Hoffman intend to reinterpret free will? And why should this mechanism be conscious instead of not? Is the hard problem really solved?

Interesting is that Hoffman distinguishes between experiences by definition conscious and actions that would follow, intrinsically unconscious. However, he states that we would indirectly experience these actions (consciously) for their effects and this make us correct gradually the shot. This gives me some ideas about the “heterogeny of ends” that I could use to improve my model.

In my opinion, if space and time really are “doomed” or better, to be precise, if they are understood as a manifestation of the consciousness itself and not as something antecedent to it, this proliferation of conscious agents that could or could not unite to “instantiate” others of a higher level is something redundant (if not inconsistent, as it seems to assume, if not a space, at least a “time” in which this “network” can develop).

If space and time have no objective character, nothing “really” separates me from you, my reader. It seems to me sufficient to posit that there is only one consciousness, which we can attribute to the universe itself. Looking at my wife I guess behind her smile nothing but a form that the consciousness of the universe has assumed or will assume at a different time from now, when the universal consciousness dwells in me.

It is not at all necessary to attribute consciousness to electrons, nor is it necessary to attribute it to the cells of my body. These are only parts of the icon (to use Hoffman’s terminology) behind which hides, from time to time, the only one consciousness, which takes on the most diverse forms (but not necessarily all possible and impossible forms). Even my body deeply sleeping (or my immune system) is part of the icon. If space and time are subjective, what appears to be separated in space and time can be part of the overall figure that, from time to time, the consciousness assumes, “io dico l’universo” (“I say the universe”, as Galilei wrote), seen as a Moebius strip in which perceptions and emotions are only two sides of the same coin. But this is only my point of view…

La realtà è illusoria?

intelligenza

Il volume di Donald Hoffman, The Case Against Reality. How Evolution Hid the Truth from Our Eyes (2020), che ho letto nella traduzione italiana L’illusione della realtà. Come l’evoluzione ci inganna sul mondo che vediamo, Bollati Boringhieri, Milano 2022, propone due teorie sulla coscienza e sulla realtà, tra loro legate, ma non dipendenti l’una dall’altra, altrettanto rivoluzionarie quanto in gran parte convincenti. Si tratta di teorie altamente speculative, ma che Hoffman espone ai controlli caratteristici del metodo scientifico, di cui è assertore. Diversi esperimenti, evocati da Hoffman, sembrano compatibili soprattutto con la prima della due teorie.

Secondo la teoria dell’interfaccia percettiva (TIP) il mondo che percepiamo non è oggettivo, né ha qualche somiglianza con il mondo oggettivo. Non solo le classiche “qualità secondarie”, come colori, suoni, sapori, ma anche le classiche “qualità primarie”, come le grandezze di spazio e tempo, dipenderebbero più dal nostro sistema percettivo che dalla “realtà oggettiva”. Si tratterebbe del modo attraverso il quale codifichiamo la nostra esperienza. Gli oggetti che percepiamo sarebbero icone sul desktop della nostra percezione e non corrisponderebbero in alcun  modo ad alcunché  di reale. Per sostenere questa tesi, per la quale egli opportunamente evoca Kant, Hoffman invoca il c.d. teorema “fitness batte verità”, dimostrato ricorrendo alla teoria dei giochi. Secondo questo teorema quanto più complesso è un organismo (in termini di “stati” interni corrispondenti a ipotetici “stati” del mondo esterno), tanto meno è probabile che il mondo che esso percepisce sia reale, se l’organismo deve conservarsi e riprodursi con la necessaria efficienza. Insomma, la selezione naturale favorirebbe gli organismi che percepiscono il mondo in modo “utile” piuttosto che in modo “vero”.  Spazio e tempo sarebbero così “condannati”, in linea con certe interpretazioni della meccanica quantistica.

Questa teoria mi sembra assolutamente convincente nella misura in cui mette in luce il carattere soggettivo del mondo come ci appare. I riferimenti alla fisica sono senz’altro pertinenti (e corrispondono in gran parte a quelli che faccio anch’io su questo sito per giungere a conclusioni simili a quelle a cui giunge Hoffman; interessante in particolare il riferimento al cosiddetto QBism, interpretazione “bayesiana” radicale della meccanica quantistica).

Meno convincente appare il modo in cui Hoffman ricorre alla teoria dell’evoluzione per selezione naturale. Poiché sembra che la selezione naturale richieda tempo, ma il tempo risulta alla fine illusorio, non è chiaro “dove” e “quando” l’evoluzione possa verificarsi. Inoltre, Hoffman allude spesso al fatto che i viventi debbano consumare “energia” per procurarsi risorse. Ma non è chiaro che cosa “resti” di ciò che intendiamo come energia (una grandezza corrispondente al prodotto della forza applicata a un corpo per lo spostamento che questo subisce nello spazio) se spazio e tempo sono aboliti.

Nella mia prospettiva il ragionamento di Hoffman portato alle sue estreme conseguenze mostra il carattere in ultima analisi autocontraddittorio della teoria dell’evoluzione per selezione naturale: se la teoria fosse vera, noi percepiremmo un mondo falso; ma, se il mondo fosse falso, la stessa teoria dell’evoluzione che conosciamo sarebbe falsa, in quanto essa presuppone entità illusorie, come lo spazio e il tempo.

Hoffman si cautela in un passaggio affermando che la sua teoria mette in discussione soltanto la nostra percezione del mondo e non, invece, p.e. la nostre capacità logico-matematiche (sulle quali si basa la teoria dei giochi, sulla quale, a sua volta, egli basa il suo teorema “fitness batte verità”). Tuttavia, se l’evoluzione ci avesse selezionati per individuare ciò che ci è utile per sopravvivere e per riprodurci piuttosto che per comprendere la verità, non è chiaro perché questa cecità nei confronti della verità non debba riguardare anche la verità matematica. È vero che possedere una matematica di base “corretta” potrebbe essere vantaggioso per la nostra sopravvivenza, ma non si tratta certamente della matematica avanzata di cui Hoffman ha bisogno per la sua teoria (di cui ad es. i nostri cugini primati non saprebbero certamente che farsi).

In generale la fiducia che giustamente Hoffman nutre per il metodo scientifico non può fondarsi sull’evoluzione casuale della nostra “mente” (non dico del “cervello” che, nella prospettiva di Hoffman, è solo un’icona della mente). Tale evoluzione non garantirebbe la veridicità della scienza, neppure come insieme di ipotesi fallibili, ma per il momento convincenti. Bisogna supporre un rapporto più immediato e diretto tra la nostra mente e la verità.

Con questi limiti epistemologici la teoria dell’interfaccia percettiva di Hoffman appare in ogni caso convincente, almeno come metafora, e consonante con quanto su questo sito argomento circa la soggettività di spazio e tempo.

La seconda teoria che Hoffman introduce, a completamento della prima, ma come teoria non dipendente da essa, è la teoria del c.d. realismo conscio.  Rispetto alla TIP si tratta di una teoria molto più speculativa, di un vero e proprio programma di ricerca che Hoffman lancia, rispetto al quale, tuttavia, egli si attende che possano prima o poi venire effettuati controlli empirici.

Secondo questa teoria è impossibile risolvere il problema dell’origine della coscienza adottando un approccio fisicalistico, cioè cercando di capire come la coscienza possa derivare dalla “materia”, cioè da una realtà oggettiva, fatta di quark, atomi, molecole, neuroni ecc., preesistente alla coscienza stessa. Lo hard problem (perché siamo coscienti anziché no) non può essere risolto per questa via. Su questo punto il mio accordo con Hoffman è totale.

Hoffman propone quindi che non sia la coscienza a derivare dalla “materia”, ma il contrario o, per meglio dire, che tutto sia costituito da una “rete” di “agenti coscienti”.

Pieno accordo sul fatto che la coscienza sia alcunché di originario, ma ciò che mi lascia perplesso è che la coscienza debba essere “moltiplicata” in innumerevoli agenti coscienti (riedizione delle monadi di Leibniz) che pervaderebbero l’universo dai livelli della scala di Plank fino a “Dio”, un’ipotetica super-coscienza cosmica costituita (“istanziata”)  dagli agenti coscenti di livello via via inferiore (fino, appunto, alla scala di Plank).

Il meno che si possa dire è che questa teoria sembra violare quel rasoio di Ockham che Hoffman, invece, invoca come criterio guida.

Perché tutti questi “agenti coscienti”? Hoffman parte dal fatto che, se mi guardo allo specchio, dietro all’icona del mio viso c’è un mondo di sentimenti ed emozioni, tradite magari da un sorriso ecc. Così anche, probabilmente, c’è un simile mondo dietro l’icona del volto della mia amata, dei miei amici. Anche uno scimpanzè può tradire emozioni ecc. Se scendendo nella scala dei viventi, provo sempre minore “empatia”, secondo Hoffman, non è perché questi viventi siano meno “coscienti”, ma perché il loro modo di essere coscienti sarebbe diverso. Si arriva così rapidamente agli elettroni e alla scala di Planck!

Dunque, se guardo una montagna, ciò che guardo sarebbe un brulicare di agenti coscienti le cui “azioni” costituirebbero per me altrettante “esperienze”.

Hoffman elabora anche una matematica del modo in cui gli agenti coscienti farebbero esperienza e reagirebbero “liberamente” alla stessa, conservandone memoria. A questo fine egli suppone che gli agenti coscienti funzionino come macchine di Turing universali e che facciano scelte interpretabili come passaggi attraverso kernel markoviani in spazi misurabili (le cui dimensioni fondamentali sarebbero quella delle esperienze e quella delle azioni ad esse corrispondenti).

In questo modo Hoffman cerca di ricondurre i meccanismi “visibili” della selezione naturale a un loro ipotetica radice “matematica” nella “cosa in sé”. Tuttavia, le perplessità sopra avanzate sull’uso che Hoffman fa della teoria dell’evoluzione rimangono. Infatti, questi agenti coscienti sembrano richiedere “tempo” per poter operare. Forse si tratta di un tempo diverso da quello illusorio? Eppure questo tempo, per funzionare, dovrebbe essere altrettanto lineare e orientato nella direzione passato-futuro di quello illusorio…

Anche il meccanismo con cui questi agenti scelgono non è chiaro. Si tratta di scelte casuali, “migliorate” per prova ed errore? Hoffman intende così reinterpretare il libero arbitrio? E perché questo meccanismo dovrebbe essere cosciente anziché no? Lo hard problem è veramente risolto?

N. B. È interessante il passaggio in cui Hoffman distingue tra esperienze per definizione coscienti e azioni che ne seguirebbero, intrinsecamente inconsce, ma delle quali faremmo indirettamente esperienza (cosciente) per i loro effetti, inducendoci a correggere via via il tiro.  Ciò mi ispira alcune idee sull’eterogenesi dei fini che potrei sfruttare per migliorare il mio modello.

Inutile dire che, secondo me, se davvero spazio e, soprattutto, tempo sono “condannati”, cioè, per la precisione, vengono intesi come manifestazione della stessa coscienza e non qualcosa di antecedente ad essa, questa proliferazione di agenti coscienti che si potrebbero o meno associare per “istanziarne” altri di livello superiore è del tutto superflua (oltre che contraddittoria, in quanto sembra presupporre, se non uno spazio, almeno un “tempo” in cui tale “rete” possa svilupparsi).

Se spazio e tempo non hanno carattere oggettivo, nulla mi separa “realmente” da te, mio lettore. Mi sembra sufficiente postulare che la coscienza sia, di volta in volta, una sola, quella che possiamo attribuire all’universo stesso. Guardando mia moglie indovino dietro al suo sorriso nient’altro che una forma che la coscienza dell’universo assunse o assumerà in una fase diversa da questa, in cui la coscienza universale abita in me.

Non è affatto necessario attribuire coscienza agli elettroni, come non è necessario attribuirla alle cellule del mio corpo. Si tratta di parti dell’icona (per usare la terminologia di Hoffman) dietro la quale si nasconde, di volta in volta, la sola unica coscienza, la quale assume le forme più diverse.  Anche il mio corpo che dorme di sonno profondo (o il mio sistema immunitario) è parte dell’icona. Se spazio e tempo sono soggettivi, ciò che appare separato nello spazio e nel tempo può benissimo essere parte della figura complessiva che di volta in volta la coscienza assume (“io dico l’universo”, visto come nastro di Moebius in cui percezioni ed emozioni non sono che due facce della stessa medaglia).