Archivi categoria: neuroscienze

From autopoiesis to consciousness?


Thompson’s idea in Mind in Life: Biology, Phenomenology, and the Sciences of Mind. Harvard University Press, 2010, is that the explanatory gap (with which he identifies the Chalmers’ hard problem) can be “reduced”, if not solved, on the basis of the analogy between the autopoietic mode of functioning of the living being and that of consciousness. Ultimately it is the problem of understanding why we are conscious (in my view: why is it that certain things that happen in our brain appear to us as conscious experiences? and: why couldn’t our brain be just as effective at whatever it is it does if we were not conscious?).
(On a whole other basis – evolutionary – it also seems the intuition that inspires the Simona Ginsburg and Eva Jablonka’s book The Evolution of the Sensitive Soul: Learning and the Origins of Consciousness, MIT Press, Massachusetts, 2019, in which the markers of the origin of life are treated as “analogous” to the markers of the origin of consciousness).

To understand in what sense Thompson posits this analogy (between the form of life and the form of consciousness) we must remember the meaning of “autopoiesis” (originally defined in the book written by Francisco Varela and Humberto Maturana Autopoiesis: the organization of the living (1972) expanded and integrated with a previous paper on cognition in Autopoiesis and Cognition, Dordrecht, Netherlands, Reidel, 1980): a living being is basically a machine capable of continually regenerating itself. In particular, it is marked by self-organization, that is, it produces the components that, by interacting with each other, produce themselves and the whole of which they are part.

It is an interesting antireductionistic approach (for in the living would operate a downward causation from the whole to the parts, such that the whole is “greater than the sum of the parts”, in a holistic sense), but admittedly deterministic and mechanistic (it is not believed that “final causes”, “morphogenetic fields”, “occult forces”, “souls” or otherwise non-material entities operate as in vitalism).

What interested me in this approach was the fact that even the “boundary” of the organism is determined by the organism itself and, in turn, it determines the development of the organism, as in the paradigmatic case of the cell. According to the authors, the “autopoietic machine”, unlike a computer, does not work with input/output information and information processing, but only tends to reproduce itself: external “inputs” are only “perturbations” not unlike those that might come from inside the machine, to which the living machine reacts by reworking itself to maintain its self-organization. This process is also a form of cognition (we would say: learning or adaptation).  Moreover, not only are the boundaries established by the living being itself while it lives, but also the environment (the ecological niche) as a whole is co-determined by the organism. Each living being has the universe it deserves, we could say (we perceive certain light frequencies and space in a certain way, but an amoeba lives in a completely different environment; moreover each organism, together with the other conspecifics, is not only conditioned by the environment but contributes to define it).

As explained in the book written by Thompson with Francisco and Eleanor Rosch, The Embodied Mind: Cognitive Science and Human Experience, MIT Press, 1991 (in which the concept of autopoiesis mysteriously disappears, in favor of a simple, but synonymous “self-organization” – autopoiesis reappears anyway in Mind in Life) the interaction between organism and environment has “enactive” character. The action is influenced by the perception and the perception by the action in a circle of unceasing feedback in which information would not be processed in a computer sense, but would take place a process that is cognitive and “adaptive” together (and where the environment is also “produced” to some extent). Although with different language it is not a very different approach, in my opinion, of those of Seth and Hoffman: the “mind” would “bayesianly” work projecting on the “world” their own hypotheses or expectations  and would gradually correct the shot based on the feedback he receives (in my opinion the model is the way a young child learns to grasp objects by trial and error without any “gene” having predetermined the exact mode of operation to succeed).

What struck me was this idea of co-evolution or co-determination between organism, with blurred boundaries, and universe. I saw an embryonic form of extreme monism (like that to which I adhere). It is as if the organism were the universe itself that assumes a certain configuration, without clear boundaries between the part and the whole (we must not forget that the boundaries are fixed by the organism itself and apply only to it; in other words they do not have an objective character and do not mark a real external world, as suggested by the fact that the organism cannot really distinguish between inputs from outside and perturbations generated inside it).

This is where it becomes important to understand the difference between “life” (thus or otherwise conceived) and “consciousness”. Mind in Life seemed, in this regard, very promising.

Thompson, who is a philosopher, first of all develops an interesting discussion on the epistemological limits of the cognitive sciences, highlighting the transcendental (my term) function  of consciousness (and, therefore, the epistemological “need” of philosophy and especially of the phenomenology of Husserl, Heidegger, Merleau-Ponty etc.). The cognitive scientist often does not question the fact that, when dealing with consciousness, he puts his own consciousness into play, without having thoroughly analyzed its phenomenological traits (He can get so, e.g. , to demonstrate that, because consciousness has evolved only to promote fitness, it is not at all reliable cognitively; but he does not realize that, in this way, he makes the neuroscientific knowledge itself uncertain). Consciousness is not only an object of investigation, but also a means by which the investigation is conducted. In particular, the subjective consciousness of the researcher operates occultly as a comparison term even in those “objectivistic” approaches that try to limit themselves to the “data” obtained from brain scanning and to reports (which are in turn subjective interpretations!) of test subjects. The researcher must in fact compare what is reported with his own experience to give it a meaning.

Unfortunately, when Thompson comes to talk about consciousness, introducing his “neurophenomenology” (inspired by Varela), that is, a form of naturalized phenomenology, in which phenomenological self-analysis illuminates the experimental data and vice versa, while making very interesting observations, in my opinion, it fails in any way to reduce the explanatory gap.

The vague analogy between the “holistic” functioning of consciousness (which, in turn, as well as the brain, should not be seen as an information processor, but as a system that self-organizes itself homeostatically etc.) and that of the cell does not help us to understand the transition from one systems to another.

Thompson only lashes out against the Cartesian dualism , which also underlies Chalmers’ theory, the “representation” theories like Jerry Fodor’s, Jaegwon Kim’s etc. If you “reduce” nature, even biological, in a deterministic-mechanistic-physicalistic etc. way, you will never be able to derive consciousness. If, however, biological phenomena are understood as irreducible to physical ones, for the former have a capacity for self-organization, the gap with subjective phenomena, characteristically “intentional”, of consciousness would be reduced (it is interesting that Thompson recognizes to Kant the merit, in the Critique of Judgment, to have introduced for the first time the notion of “circular causality” to interpret the living beings and, in Mind in Life, going well beyond Maturana and Varela, admits also the notion of “final causality”, even if detached from any idea of transcendent “design”, as “purposiveness” intrinsic to autopoietic organization).

This strategy seems promising, but in my opinion it is very problematic. It is precisely the analogy between the two types of phenomena (life and consciousness) that makes the problem worse: if life is so “powerful” as a process capable of self-organization even when it is unconscious, why did consciousness evolve at some point?

Among other things it is curious that Thompson “attacks” also the theory of evolution by natural selection. But, so to speak, even if some of his arguments are convincing, he attacks it from the “left” (while the writer, more sensitive to the sirens of intelligent design or, better, a certain interpretations of the anthropic principle, tends to attack it from the “right”). That is, the idea is that organisms evolve spontaneously (it also borders on lamarckism, underscoring the possibility of epigenetic or “cultural” transmission of acquired characters) and that natural selection is limited to eliminating individuals that are irrimediably unfit. There would be no tendency to optimize fitness, but only a tendency to keep in place organisms minimally or sufficiently adapted. The basic thesis is that autopoiesis and not evolution would characterize life. Evolution would be a mere “historical” phenomenon (it is roughly the thesis of Piantelli Palmerini and Fodor in the book What Darwin got wrong, Profile Books Ldt, 2011). Selection, to operate, presupposes life, does not create it.

This kind of criticism, in my opinion, does not go far. Instead of explaining life and intelligence (or consciousness) it dismisses the explanation, giving an excessive role to chance, unless we want to reintroduce something like élan vital, final and formal causes, morphic fields or, finally, again, an intelligent design.

Moreover it seems to me a sophistry to say that selection presupposes life and not vice versa. Of course, in Darwin this is literally true. But what prevents us from assuming that selection operates on chemistry? Indeed, autocatalytic hypercycles, although not yet fully autopoietic structures, could be the precursors of life. Finally, if you want to keep yourself within a materialistic horizon, you must also explain the origin of the first autopoietic cell. If you give up selection, you have to rely on chance.

My criticism “from the right” is based on the fact that, on the contrary, the evident, even if progressive, optimization of the functions of the living beings cannot be the result either of chance or of mere selection, but requires a more “strong” explanation, the need for consciousness to arise. Consciousness, in my model, would be both the ultimate goal of evolution, and, circularly, the condition of “transcendental” possibility (since it introduces time, previously absent) of evolution itself.

But this is me, not Thompson.

Anyway the problem of the transition from life to consciousness remains unanswered. In my perspective, the question is what determines (or reveals) the universe’s ability to observe itself. Is it the fact of owning (or representing) a nervous system (treated by Thompson as a self-organized system) with certain traits, e.g. the neocortex? Or is it the fact of maximally reducing the internal entropy (interesting that Thompson unifies the idea of a closed self-organizational system, to characterize the living being, with that of a dissipative structure energetically open, far from the state of thermodynamic equilibrium, but able to “maintain” in this condition)? In short, what is the correlated (in my opinion not with causal role, but only of trigger) of consciousness?

Dall’autopoiesi alla coscienza?

L’idea di Thompson in Mind in Life: Biology, Phenomenology, and the Sciences of Mind. Harvard University Press, 2010, è che l’explanatory gap (con cui egli identifica lo hard problem di Chalmers), cioè il problema di capire perché siamo coscienti, cioè perché gli stessi meccanismi cerebrali correlati alla nostra esperienza soggettiva non potrebbero funzionare altrettanto bene senza che noi fossimo consci, possa venire “ridotto” se non risolto sulla base dell’analogia tra il modo di funzionare autopoietico del vivente e quello della coscienza.
(In un certo senso, su tutt’altre basi – evoluzionistiche – , sembra anche l’intuizione che presiede al volume di Simona Ginsburg ed Eva Jablonka. The Evolution of the Sensitive Soul. Learning and the Origins of Consciousness, MIT Press, Massachusetts, 2019, in cui i marcatori dell’origine della vita sono visti come “analoghi” ai marcatori dell’origine della coscienza).

Per comprendere in che senso Thompson intenda quest’analogia (tra forma della vita e forma della coscienza) bisogna ricordare il significato di “autopoiesi” (definito originariamente nel testo  di Francisco Varela e Humberto Maturana Autopoiesis: the organization of the living (1972) ampliato e integrato con uno scritto precedente sulla cognizione in Autopoiesis and Cognition, Dordrecht, Netherlands, Reidel, 1980): un essere vivente sarebbe fondamentalmente una macchina in grado di rigenerare continuamente se stessa. In particolare esso sarebbe contraddistinto dal fatto di auto-organizzarsi, cioè di produrre i componenti che, interagendo tra loro, producono se stessi e l’intero di cui sono parte.

Si tratta di un interessante approccio antiriduzionistico (perché nel vivente opererebbe una downward causation dall’intero alle parti, tale per cui l’intero è “maggiore della somma delle parti”, in senso olistico), ma dichiaratamente deterministico e meccanicistico (non si ritiene che operino “cause finali”, “campi morfogenetici”, “forze occulte”, “anime” o comunque entità non materiali come nel vitalismo).

L’aspetto che mi aveva interessato era il fatto che anche il “confine” dell’organismo risulta determinato dall’organismo stesso e, a sua volta, determina lo sviluppo del medesimo, come nel caso paradigmatico della cellula. Secondo gli autori la “macchina autopoietica”, a differenza di un computer, non riceve in input informazioni, le elabora e restituisce in output informazioni, ma tende solo a riprodurre se stessa: gli “input” sono soltanto “perturbazioni”, non diversamente da quelle che potrebbero venire dall’interno della macchina, a cui la macchina vivente reagisce rimaneggiando se stessa per mantenere la propria auto-organizzazione. Questo processo sarebbe anche una forma di cognizione (noi diremmo apprendimento o adattamento).  Inoltre, non solo i confini sono stabiliti dallo stesso vivente mentre vive, ma in un certo senso anche l’ambiente (la nicchia ecologica) nel suo complesso è co-determinato dall’organismo. Ciascuno ha l’universo che si merita, potremmo dire (noi percepiamo certe frequenze luminose e lo spazio in un certo modo, un’ameba vive in un ambiente del tutto diverso; inoltre ogni organismo, insieme con gli altri conspecifici e non, non è solo condizionato dall’ambiente ma contribuisce a definirlo).

Come si chiarisce meglio nel libro scritto da Thompson con Francisco Varela ed Eleanor Rosch, The Embodied Mind: Cognitive Science and Human Experience, MIT Press, 1991 (in cui sparisce misteriosamente il concetto di autopoiesi, a favore di una semplice, ma sinonimica “self-organization” – l’autopoiesi riappare comunque in Mind in Life) l’interazione tra organismo e ambiente ha carattere “enactive“. L’azione è influenzata dalla percezione e questa dall’azione in un circolo di feedback continui in cui non passerebbero informazioni in senso informatico, ma si svolgerebbe un processo che è cognitivo e “adattativo” insieme (e in cui anche l’ambiente viene in un certo senso configurato). Anche se con linguaggio diverso non si tratta di un approccio molto diverso, secondo me, di quelli di Seth e Hoffman: la “mente” funzionerebbe proiettando sul “mondo” le proprie ipotesi o aspettative “bayesiane” e correggerebbe via via il tiro in base al feedback che riceve (secondo me il paradigma è il modo in cui un bambino piccolo impara a stringere gli oggetti per prova e errore senza che nessun “gene” abbia predeterminato l’esatta modalità operativa per avere successo).

Ciò che mi aveva colpito è quest’idea di coevoluzione o codeterminazione tra organismo, dai confini sfumati, e universo. Ci vedevo una forma embrionale di “uno-tutto”. È come se l’organismo fosse l’universo stesso che assume una determinata configurazione, senza confini netti tra la parte e il tutto.

A questo punto, però, sempre dal mio punto di vista, diventava urgente capire la differenza tra “vita” (così o altrimenti concepita) e “coscienza”. Mind in Life sembrava, al riguardo, molto promettente.

Thompson, che è filosofo, sviluppa innanzitutto un’interessante discussione sui limiti epistemologici delle scienze cognitive, mettendo in luce la funzione trascendentale (termine mio, ma per chiarire) della coscienza (e, quindi, il “bisogno” epistemologico di filosofia e specialmente della fenomenologia di Husserl, Heidegger, Merleau-Ponty ecc.). Lo scienziato cognitivo spesso non mette a tema il fatto che, quando tratta della coscienza, mette in gioco la sua stessa coscienza, senza averne accuratamente analizzato i tratti fenomenologici (si può arrivare così, noto io, a dimostrare che la coscienza, in quanto si sarebbe evoluta solo per favorire la fitness, non è affatto attendibile cognitivamente, senza accorgersi che, in questo modo, si taglia il ramo su cui lo stesso neuroscienziato, in quanto il suo sapere deriva dalla sua coscienza, è seduto!). La coscienza non è solo un oggetto di indagine, ma anche lo strumento mediante cui l’indagine è condotta. Essa (la coscienza soggettiva del ricercatore)  opera occultamente come termine di paragone anche in quegli approcci che si dichiarano “oggettivistici” e cercano di limitarsi ai “dati” ricavati p.e. dalla scansione del cervello e dai reports (che sono a loro volta interpretazioni soggettive!) dei soggetti su cui si effettuano gli esperimenti.

Purtroppo, quando Thompson passa a trattare della coscienza, introducendo la sua “neurofenomenologia” (ispirata a Varela, nel frattempo deceduto per complicanze legate a problemi al fegato), cioè un forma di fenomenologia naturalizzata, in cui l’autoanalisi fenomenologica illumina i dati sperimentali e viceversa, fa interessantissime osservazioni ecc., ma, secondo me, non riesce in alcun modo a ridurre l’explanatory gap.

La vaga analogia tra il funzionamento “olistico” della coscienza (che, a sua volta, come anche il cervello, non dovrebbe essere vista come un elaboratore di informazioni, ma come un sistema che si auto-organizza omeostaticamente ecc.) e quella della cellula non ci aiuta a capire come si passi da questa a quella.

Thompson si limita a scagliarsi contro il dualismo cartesiano, operante anche in Chalmers, nei “rappresentazionalisti” come Jerry Fodor, in Jaegwon Kim ecc. Se si “riduce” la natura, anche biologica, in senso deterministico-meccanicistico-fisicalistico ecc. non si riuscirà mai a derivarne la coscienza. Se, invece, si intendono i fenomeni biologici come irriducibili a quelli fisici, cioè come dotati di una capacità di auto-organizzazione (è interessante che Thompson riconosca a Kant il merito, nella Critica del Giudizio, di avere introdotto per la prima volta la nozione di “causalità circolare” per interpretare il vivente e, nel suo ultimo libro, andando ben oltre Maturana e Varela, “sdogana” anche la nozione di “causalità finale” anche se sganciata da ogni idea di “progetto” trascendente, come “purposiveness” intrinseca all’organizzazione autopoietica), il gap con i fenomeni soggettivi, caratteristicamente “intenzionali”, della coscienza si ridurrebbe.

Questa strategia sembra promettente, ma, secondo me, è assai problematica. Proprio l’analogia tra i due tipi di fenomeni (vita e coscienza) mantiene in essere il quesito: se la vita è così “potente” come processo capace di auto-organizzazione anche quando è inconscia, perché a un certo punto si è evoluta la coscienza?

Tra l’altro è curioso che Thompson & co. “attaccano” anche la teoria dell’evoluzione per selezione naturale. Però, per così dire, anche se certi loro argomenti sono convincenti, la attaccano da “sinistra” (mentre chi scrive, più sensibile alle sirene dell’intelligent design o, meglio, di una certa lettura del principio antropico, tende ad attaccarla da “destra”). Cioè, l’idea è che gli organismi evolvano spontaneamente (si rasenta anche il lamarckismo, esaltando la possibilità della trasmissione epigenetica o “culturale” dei caratteri acquisiti) e che la selezione naturale si limiti a eliminare i casi disperati. Non si registrerebbe una tendenza a ottimizzare la fitness, ma solo a conservare in essere organismi minimamente o sufficientemente adattati. La tesi di fondo è che l’autopoiesi e non l’evoluzione caratterizzerebbe la vita. L’evoluzione sarebbe un fenomeno “storico” non strutturale (è all’incirca la tesi di Piantelli e Fodor nel libro Gli errori di Darwin). La selezione, per operare, presuppone la vita, non la crea.

A pensarci, questo genere di critiche, secondo me, non portano lontano. Invece di spiegare la vita e l’intelligenza (o la coscienza) allontano la spiegazione, conferendo un ruolo eccessivo o al caso o a ipotetiche leggi “autopoietiche” che, però, se le si dovesse veramente prendere sul serio, richiederebbero di reintrodurre l’élan vital, cause finali e formali (campi morfici) o, infine, di nuovo, un intelligent design.

Poi a me sembra un sofisma affermare la selezione presuppone la vita. Certo, in Darwin questo è letteralmente vero. Ma che cosa vieta di supporre che la selezione operi sulla chimica, cioè sugli ipercicli autocatalitici che, secondo alcuni, pur non essendo ancora pienamente strutture autopoietiche, potrebbero essere i precursori della vita? In qualche modo, se ci si vuole mantenere in un orizzonte materialistico, si dovrà pure spiegare l’origine della prima cellula autopoietica. Se si rinuncia alla selezione, ci si deve affidare per forza al puro caso.

La mia critica “da destra” è basata sul fatto che, anzi, l’evidente ottimizzazione delle funzioni dei viventi non può essere frutto né del caso, né della mera selezione, ma richiede una spiegazione più “forte”, Dio o la necessità che scaturisca la coscienza. La coscienza, nel mio modello, sarebbe sia il fine ultimo dell’evoluzione, sia, circolarmente, la condizione di possibilità “trascendentale” (in quanto introduce il tempo, prima assente) dell’evoluzione medesima.

Ma questo è Giacometti, non Thompson.

E comunque rimane inevaso il problema del passaggio dalla vita alla coscienza. Nella mia prospettiva si tratta di ciò che “demarca” la capacità dell’universo di osservare se stesso. Forse è il fatto di possedere (o rappresentarsi di possedere) un sistema nervoso (trattato da Thompson & co. come un sistema auto-organizzato) con certi tratti, p.e. la neocorteccia? Oppure è il fatto di azzerare completamente l’entropia interna (interessante che Thompson unifichi l’idea di sistema auto-organizzativo chiuso, per caratterizzare il vivente, con quella di struttura dissipativa energeticamente aperta, lontana dallo stato di equilibrio termodinamico, ma capace di “mantenersi” in questa condizione)? Insomma quale mai è il correlato (secondo me con ruolo non causale, ma solo di “trigger”) della coscienza?

La realtà è illusoria?


Il volume di Donald Hoffman, The Case Against Reality. How Evolution Hid the Truth from Our Eyes (2020), che ho letto nella traduzione italiana L’illusione della realtà. Come l’evoluzione ci inganna sul mondo che vediamo, Bollati Boringhieri, Milano 2022, propone due teorie sulla coscienza e sulla realtà, tra loro legate, ma non dipendenti l’una dall’altra, altrettanto rivoluzionarie quanto in gran parte convincenti. Si tratta di teorie altamente speculative, ma che Hoffman espone ai controlli caratteristici del metodo scientifico, di cui è assertore. Diversi esperimenti, evocati da Hoffman, sembrano compatibili soprattutto con la prima della due teorie.

Secondo la teoria dell’interfaccia percettiva (TIP) il mondo che percepiamo non è oggettivo, né ha qualche somiglianza con il mondo oggettivo. Non solo le classiche “qualità secondarie”, come colori, suoni, sapori, ma anche le classiche “qualità primarie”, come le grandezze di spazio e tempo, dipenderebbero più dal nostro sistema percettivo che dalla “realtà oggettiva”. Si tratterebbe del modo attraverso il quale codifichiamo la nostra esperienza. Gli oggetti che percepiamo sarebbero icone sul desktop della nostra percezione e non corrisponderebbero in alcun  modo ad alcunché  di reale. Per sostenere questa tesi, per la quale egli opportunamente evoca Kant, Hoffman invoca il c.d. teorema “fitness batte verità”, dimostrato ricorrendo alla teoria dei giochi. Secondo questo teorema quanto più complesso è un organismo (in termini di “stati” interni corrispondenti a ipotetici “stati” del mondo esterno), tanto meno è probabile che il mondo che esso percepisce sia reale, se l’organismo deve conservarsi e riprodursi con la necessaria efficienza. Insomma, la selezione naturale favorirebbe gli organismi che percepiscono il mondo in modo “utile” piuttosto che in modo “vero”.  Spazio e tempo sarebbero così “condannati”, in linea con certe interpretazioni della meccanica quantistica.

Questa teoria mi sembra assolutamente convincente nella misura in cui mette in luce il carattere soggettivo del mondo come ci appare. I riferimenti alla fisica sono senz’altro pertinenti (e corrispondono in gran parte a quelli che faccio anch’io su questo sito per giungere a conclusioni simili a quelle a cui giunge Hoffman; interessante in particolare il riferimento al cosiddetto QBism, interpretazione “bayesiana” radicale della meccanica quantistica).

Meno convincente appare il modo in cui Hoffman ricorre alla teoria dell’evoluzione per selezione naturale. Poiché sembra che la selezione naturale richieda tempo, ma il tempo risulta alla fine illusorio, non è chiaro “dove” e “quando” l’evoluzione possa verificarsi. Inoltre, Hoffman allude spesso al fatto che i viventi debbano consumare “energia” per procurarsi risorse. Ma non è chiaro che cosa “resti” di ciò che intendiamo come energia (una grandezza corrispondente al prodotto della forza applicata a un corpo per lo spostamento che questo subisce nello spazio) se spazio e tempo sono aboliti.

Nella mia prospettiva il ragionamento di Hoffman portato alle sue estreme conseguenze mostra il carattere in ultima analisi autocontraddittorio della teoria dell’evoluzione per selezione naturale: se la teoria fosse vera, noi percepiremmo un mondo falso; ma, se il mondo fosse falso, la stessa teoria dell’evoluzione che conosciamo sarebbe falsa, in quanto essa presuppone entità illusorie, come lo spazio e il tempo.

Hoffman si cautela in un passaggio affermando che la sua teoria mette in discussione soltanto la nostra percezione del mondo e non, invece, p.e. la nostre capacità logico-matematiche (sulle quali si basa la teoria dei giochi, sulla quale, a sua volta, egli basa il suo teorema “fitness batte verità”). Tuttavia, se l’evoluzione ci avesse selezionati per individuare ciò che ci è utile per sopravvivere e per riprodurci piuttosto che per comprendere la verità, non è chiaro perché questa cecità nei confronti della verità non debba riguardare anche la verità matematica. È vero che possedere una matematica di base “corretta” potrebbe essere vantaggioso per la nostra sopravvivenza, ma non si tratta certamente della matematica avanzata di cui Hoffman ha bisogno per la sua teoria (di cui ad es. i nostri cugini primati non saprebbero certamente che farsi).

In generale la fiducia che giustamente Hoffman nutre per il metodo scientifico non può fondarsi sull’evoluzione casuale della nostra “mente” (non dico del “cervello” che, nella prospettiva di Hoffman, è solo un’icona della mente). Tale evoluzione non garantirebbe la veridicità della scienza, neppure come insieme di ipotesi fallibili, ma per il momento convincenti. Bisogna supporre un rapporto più immediato e diretto tra la nostra mente e la verità.

Con questi limiti epistemologici la teoria dell’interfaccia percettiva di Hoffman appare in ogni caso convincente, almeno come metafora, e consonante con quanto su questo sito argomento circa la soggettività di spazio e tempo.

La seconda teoria che Hoffman introduce, a completamento della prima, ma come teoria non dipendente da essa, è la teoria del c.d. realismo conscio.  Rispetto alla TIP si tratta di una teoria molto più speculativa, di un vero e proprio programma di ricerca che Hoffman lancia, rispetto al quale, tuttavia, egli si attende che possano prima o poi venire effettuati controlli empirici.

Secondo questa teoria è impossibile risolvere il problema dell’origine della coscienza adottando un approccio fisicalistico, cioè cercando di capire come la coscienza possa derivare dalla “materia”, cioè da una realtà oggettiva, fatta di quark, atomi, molecole, neuroni ecc., preesistente alla coscienza stessa. Lo hard problem (perché siamo coscienti anziché no) non può essere risolto per questa via. Su questo punto il mio accordo con Hoffman è totale.

Hoffman propone quindi che non sia la coscienza a derivare dalla “materia”, ma il contrario o, per meglio dire, che tutto sia costituito da una “rete” di “agenti coscienti”.

Pieno accordo sul fatto che la coscienza sia alcunché di originario, ma ciò che mi lascia perplesso è che la coscienza debba essere “moltiplicata” in innumerevoli agenti coscienti (riedizione delle monadi di Leibniz) che pervaderebbero l’universo dai livelli della scala di Plank fino a “Dio”, un’ipotetica super-coscienza cosmica costituita (“istanziata”)  dagli agenti coscenti di livello via via inferiore (fino, appunto, alla scala di Plank).

Il meno che si possa dire è che questa teoria sembra violare quel rasoio di Ockham che Hoffman, invece, invoca come criterio guida.

Perché tutti questi “agenti coscienti”? Hoffman parte dal fatto che, se mi guardo allo specchio, dietro all’icona del mio viso c’è un mondo di sentimenti ed emozioni, tradite magari da un sorriso ecc. Così anche, probabilmente, c’è un simile mondo dietro l’icona del volto della mia amata, dei miei amici. Anche uno scimpanzè può tradire emozioni ecc. Se scendendo nella scala dei viventi, provo sempre minore “empatia”, secondo Hoffman, non è perché questi viventi siano meno “coscienti”, ma perché il loro modo di essere coscienti sarebbe diverso. Si arriva così rapidamente agli elettroni e alla scala di Planck!

Dunque, se guardo una montagna, ciò che guardo sarebbe un brulicare di agenti coscienti le cui “azioni” costituirebbero per me altrettante “esperienze”.

Hoffman elabora anche una matematica del modo in cui gli agenti coscienti farebbero esperienza e reagirebbero “liberamente” alla stessa, conservandone memoria. A questo fine egli suppone che gli agenti coscienti funzionino come macchine di Turing universali e che facciano scelte interpretabili come passaggi attraverso kernel markoviani in spazi misurabili (le cui dimensioni fondamentali sarebbero quella delle esperienze e quella delle azioni ad esse corrispondenti).

In questo modo Hoffman cerca di ricondurre i meccanismi “visibili” della selezione naturale a un loro ipotetica radice “matematica” nella “cosa in sé”. Tuttavia, le perplessità sopra avanzate sull’uso che Hoffman fa della teoria dell’evoluzione rimangono. Infatti, questi agenti coscienti sembrano richiedere “tempo” per poter operare. Forse si tratta di un tempo diverso da quello illusorio? Eppure questo tempo, per funzionare, dovrebbe essere altrettanto lineare e orientato nella direzione passato-futuro di quello illusorio…

Anche il meccanismo con cui questi agenti scelgono non è chiaro. Si tratta di scelte casuali, “migliorate” per prova ed errore? Hoffman intende così reinterpretare il libero arbitrio? E perché questo meccanismo dovrebbe essere cosciente anziché no? Lo hard problem è veramente risolto?

N. B. È interessante il passaggio in cui Hoffman distingue tra esperienze per definizione coscienti e azioni che ne seguirebbero, intrinsecamente inconsce, ma delle quali faremmo indirettamente esperienza (cosciente) per i loro effetti, inducendoci a correggere via via il tiro.  Ciò mi ispira alcune idee sull’eterogenesi dei fini che potrei sfruttare per migliorare il mio modello.

Inutile dire che, secondo me, se davvero spazio e, soprattutto, tempo sono “condannati”, cioè, per la precisione, vengono intesi come manifestazione della stessa coscienza e non qualcosa di antecedente ad essa, questa proliferazione di agenti coscienti che si potrebbero o meno associare per “istanziarne” altri di livello superiore è del tutto superflua (oltre che contraddittoria, in quanto sembra presupporre, se non uno spazio, almeno un “tempo” in cui tale “rete” possa svilupparsi).

Se spazio e tempo non hanno carattere oggettivo, nulla mi separa “realmente” da te, mio lettore. Mi sembra sufficiente postulare che la coscienza sia, di volta in volta, una sola, quella che possiamo attribuire all’universo stesso. Guardando mia moglie indovino dietro al suo sorriso nient’altro che una forma che la coscienza dell’universo assunse o assumerà in una fase diversa da questa, in cui la coscienza universale abita in me.

Non è affatto necessario attribuire coscienza agli elettroni, come non è necessario attribuirla alle cellule del mio corpo. Si tratta di parti dell’icona (per usare la terminologia di Hoffman) dietro la quale si nasconde, di volta in volta, la sola unica coscienza, la quale assume le forme più diverse.  Anche il mio corpo che dorme di sonno profondo (o il mio sistema immunitario) è parte dell’icona. Se spazio e tempo sono soggettivi, ciò che appare separato nello spazio e nel tempo può benissimo essere parte della figura complessiva che di volta in volta la coscienza assume (“io dico l’universo”, visto come nastro di Moebius in cui percezioni ed emozioni non sono che due facce della stessa medaglia).

Coscienza e causalità

Un articolo interessante, di ispirazione cognitivistica, difende l’ipotesi che gli “eventi causali” arrivino alla coscienza (awareness) più velocemente di quelli “non causali”. Purtroppo questo articolo, a causa delle assunzioni implicite da cui muove, non ci aiuta, se non tangenzialmente, a rispondere alla domanda “Che cos’è la coscienza?”.

Si tratta di Causal events enter awareness faster than non causal events di Pieter Moors, Johan Wagemans e Lee De-Wit.

Intanto un’osservazione sullo stesso titolo dell’articolo.

A rigore non si dovrebbe parlare di “eventi causali”, ma bisognerebbe dire che eventi che simulano una connessione come quelle tipiche di eventi che noi interpretiamo come causalmente connessi (per esempio nel caso di “lanci”) entrano più rapidamente nella coscienza degli eventi che non simulano tale connessione.

Tale risultato non dovrebbe, comunque, stupire. In una prospettiva evoluzionistica sembra abbastanza verosimile che gli uomini, come senza dubbio anche gli animali superiori (Schopenhauer attribuiva anche al suo cane la capacità di interpretare i fenomeni attingendo alla categoria kantiana di “causa-effetto”), abbiano imparato abbastanza presto, per sopravvivere, ad anticipare certi eventi (pericolosi o, viceversa, appetibili) sulla base dei loro “prodromi” abituali. Eventi del tutto casuali non potevano ovviamente rientrare in sistemi previsionali efficienti (informaticamente si potrebbe dire che una sequenza di eventi totalmente casuali non è traducibile in sequenze di bit comprimibili sulla base di algoritmi, mentre, se ogni volta che c’è un lampo, segue necessariamente un tuono, è possibile costruire un algoritmo di compressione dell’informazione che semplifica la vita di chi contempla il duplice fenomeno).

Niente di strano che tale “apprendimento” si svolga a una livello abbastanza “inconscio” o radicato in strutture cognitive “basse”, come la percezione. Né che, per la sua utilità, quando una sequenza “apparentemente causale” si verifica, se ne abbia, in apparente contraddizione con il livello in cui essa viene registrata, più rapidamente coscienza.

Quello che si può trarre da questo articolo riguarda la funzione della coscienza. Tale funzione sembrerebbe proprio connessa a esigenze di sopravvivenza (sono più rapidamente consapevole di certi eventi “apparentemente causali” perché mi potrebbero interessare più di altri a fini di sopravvivenza). Il che propone la questione della “causalità” della stessa coscienza (probabilmente il modello da cui noi deriviamo la nozione stessa di “causalità” che poi proiettiamo sugli altri viventi o, addirittura, sugli esseri inanimati). Se la coscienza ha potere causale (come la sua ipotetica “emergenza” evolutiva sembra suggerire), per esempio mi “fa fuggire” più rapidamente (dell’istinto) da sequenze (pseudo-causali) di eventi interpretate come pericolose, come può reggere una prospettiva fisicalistica?

Da un altro punto di vista, però, gli esperimenti discussi da questo secondo articolo non hanno molto a che fare con la questione “metafisica” della causalità. Hume potrebbe continuare ad avere ragione. Certe correlazioni più frequenti o più “forti” vengono interpretate da qualcosa in noi (si tratti di coscienza o di percezione) come “causali” e arrivano prima alla coscienza. E allora? A meno di non ammettere che siamo noi stessi a generare i fenomeni che interpretiamo (come in una prospettiva idealistica), tutto questo dice ben poco circa la natura effettiva di tali correlazioni.

Si tratta di causalità a tutti gli effetti simulata, nel contesto dell’esperimento.  Si potrebbe fare esperimenti con animali superiori per vedere se la sequenza “lampo-tuono” (che non è a rigore causale, perché si tratta di due percezioni dello stesso evento, non di due eventi causalmente connessi) “arriva prima alla coscienza” di sequenze (in apparenza) puramente casuali. Ma non sono di questo genere i classici esperimenti pavloviani sui (poveri) cani (parenti forse di Atman, il cane di Schopenhauer)? A stimoli associati seguono risposte abbastanza prevedibili. Disgraziatamente non possiamo interrogare i cani per sapere se sono anche “coscienti”!

In generale, se paragoniamo la coscienza a una macchina fotografica, agli autori di questi articoli sembra interessare di più la domanda come sia possibile ottenere immagini degli oggetti esterni, esaminando parametri collegati all’obiettivo della “macchina fotografica” (tempo di esposizione, diametro dell’apertura, inclinazione rispetto alle sorgenti luminose ecc.).

A me, invece, acclarato che l’apparato collegato all’obiettivo in qualche modo funziona, interessa piuttosto sapere dove si formano le immagini: una pellicola o un nastro magnetico o un sistema digitale o qualcosa di simile a un occhio umano ecc.

Fuori di metafora, la mia domanda è “Che cos’è la coscienza?”. Rispetto a questa domanda, una domanda “guida” potrebbe essere, più ancora di “Come funziona?”, “Perché ce l’abbiamo?” (dove si scontrano modelli evoluzionistici e anti-evoluzionistici).

La domanda “Come funziona?” (p.e. “In modo discreto o continuo?”) ha un interesse relativo. Certamente, il funzionamento della coscienza è legato alla sua essenza (p.e. l’ipotesi di Penrose sulla sua natura quantistica – così come le ipotesi di matrice cognivistica – non sarebbe una buona ipotesi di partenza, se si evidenziasse sperimentalmente che la coscienza funziona  – poniamo – come un “continuo”), ma tale funzionamento non è sufficiente a determinare quale tra le ipotesi ontologiche relative alla sua essenza è quella vera (o anche solo più verosimile).

Vige, infatti, quella che in epistemologia si chiama “sottodeterminazione”. Se una certa teoria ha conseguenze compatibili con quello che si osserva (poniamo un funzionamento discreto della coscienza), tale teoria (p.e. il framework degli autori dell’articolo) non è necessariamente più vera dì altre teorie (p.e. l’ipotesi di Penrose o quella olografica), le quali potrebbero “salvare” gli stessi fenomeni (che, quindi, sottodeterminano la teoria in esame).

D’altra parte, anche se un solo fenomeno incongruente sembrerebbe poter smentire una teoria, come sostiene Popper, neppure questo è del tutto vero se ci collochiamo nella prospettiva della cosiddetta “tesi di Duhem-Quine”: la stessa “incongruenza” del determinato fenomeno ” può essere rilevata solo a partire da ulteriori assunzioni e, in ogni caso, non è mai possibile determinare che cosa esattamente tale incongruenza  confuti.

La coscienza funziona in modo discreto?

Nell’articolo Time Slices: What Is the Duration of a Percept? di Michael H. Herzog, Thomas Kammer, Frank Scharnowski, nel quale si prova ad argomentare un presunto funzionamento “discreto” della coscienza.

L’articolo è senz’altro interessante. Le (presunte – vedi oltre -, ma non meno interessanti) evidenze sperimentali relative a un funzionamento “discreto”, piuttosto che “continuo”, della mente, ad esempio, evocano quelle sulla base delle quali il fisico teorico Roger Penrose ha ritenuto di elaborare la sua teoria quantistica della mente (che non faccio mia completamente, perché, secondo me, presenta alcuni problemi, ma che si avvicina alla mia prospettiva).

[Secondo Penrose si registrerebbero singoli, discreti, “eventi” di coscienza mediamente 40 volte al secondo (una frequenza non lontana da quella congetturata dagli autori dell’articolo). Penrose, tuttavia, li interpreta come eventi determinati dal collasso della funzione d’onda (per effetto di gravità quantistica) associata al comportamento di un numero sufficiente di tuboline contenute nei microtubuli che si trovano nei neuroni del cervello. In questa interpretazione la “coscienza” sarebbe una sorta di “interfaccia” tra il campo di punto zero (la schiuma quantistica rilevabile al di sotto della lunghezza di Planck) e l’universo “classico” di cui facciamo esperienza. In virtù di altre assunzioni e ipotesi (che non mi sono del tutto chiare) secondo Penrose questo campo di punto zero (che a noi appare dissipato nello spazio, ubiquo, ma sarebbe, in realtà, per la sua coerenza interna, un’unica entità ben definita, esistente in una dimensione astratta parallela) sarebbe paragonabile a un mondo platonico di enti perfetti. La coscienza “medierebbe” tra questo mondo platonico e il mondo percepito dai sensi…]

Ma quali sono i problemi epistemologici posti da questo articolo?

Gli autori stessi distinguono molto chiaramente  i “recent experiments” sulla base dei quali argomentano le loro tesi e il “conceptual framework” che essi si limitano a proporre (il loro 2-Stage Model).

Al fondo operano con evidenza una serie di assunzioni tipiche dell’approccio cognitivistico, ossia la metafora portante del computer (per cui la “mente” opererebbe come un “computer”, processando informazioni che le provengono da input sensoriali, mediante “moduli” che assolvono funzioni diverse ecc.). Le assunzioni cognitivistiche influenzano anche l’interpretazione degli esperimenti.

Le evidenze sperimentali evocate dagli autori dell’articolo che cosa dimostrano, in effetti?

Esse sembrano dimostrare soltanto che la nostra coscienza è temporalmente “sfasata” rispetto agli eventi di cui è coscienza. Essa, cioè, ha il tempo di rielaborarli e di ricostruirli secondo determinati criteri. Ma questo basta a dimostrare che essa sia discreta, come pretendono gli autori dell’articolo?

La sequenza degli eventi da riorganizzare potrebbe essere continua, quasi-continua (o anche discreta, se consideriamo che il tempo sia fisicamente quantizzato) e le operazioni ricostruttive della coscienza (per cui, p.e. alla “luce” di un determinato disco rosso, percepito nel tempo 2, credo di “aver visto” anche il disco verde, percepito nel tempo 0, cambiare colore, nel tempo 1) potrebbero, a loro volta, essere sia continue (come sembrano) sia discrete.

Infatti, i criteri attraverso i quali una coscienza ipoteticamente continua potrebbe rielaborare  le percezioni potrebbero implicare, ad esempio, che determinate percezioni debbano essere unificate: ciò potrebbe rendere conto del fatto (rilevato durante gli esperimenti descritti nell’articolo) che “we perceive only one, static, fused vernier, which does not change over time”, invece che “first the first vernier offset, then a mixture of the two, and then the second vernier offset”, senza bisogno di postulare che la coscienza funzioni globalmente in modo discreto.

L’interpretazione (degli autori dell’articolo) che vuole che la coscienza funzioni sempre in modo discreto (ad entrambi i livelli previsti dal 2-Stage Model) dipende più dal paradigma computazionale assunto nel leggere gli esperimenti che dai dati sperimentali stessi.

Nulla vieta, ad esempio, di interpretare i dati sperimentali sulla base di altri paradigmi, ad esempio sulla base dell’ipotesi evocata da Karl Pribram (secondo me ancora migliore di quella di Penrose) che la mente operi piuttosto come un ologramma che come un computer. Ciò potrebbe condurre a risultati diversi (come nell’esempio dell’interpretazione di Penrose).

Nella mia prospettiva, la coscienza più che “continua” (il che presupporrebbe che essa “scorra”, in qualche modo, nel “tempo”) è “fissa” (“eterna”), è ciò che fondamentalmente “è”, rispetto a cui il “resto” potrebbe darsi in modo più o meno discreto o continuo. Gli esperimenti effettuati dagli autori dell’articolo non possano né confermare, né smentire questa mia prospettiva.

Certo, un supplemento di indagine dovrebbe essere fatto con riguardo a termini come “consciousness“, “awareness” o, perfino, “awakeness“.

Gli studi empirici non possono che concernere ciò che lo sperimentatore (o un soggetto cavia) può descrivere verbalmente come esperienza vissuta, dopo che essa si è svolta, dunque alcunché di già impastato con la memoria, mentre la coscienza “pura”, in quanto immediata, difficilmente può essere fatta oggetto di sperimentazione in questo modo (mentre sono cosciente di vedere un certo colore non so ancora di doverne rendere conto ad altri o a me stesso; quando ne rendo conto a qualcuno, già non lo vedo più e me lo ricordo).