Archivi categoria: epistemologia

An anthropic bias?

The book by Nick Bostrom, Anthropic bias: Observation Selection Effects in Science and Philosophy, London, Routledge 2002 (ed. on line 2020), is certainly of great interest, even for those who investigate the origin and nature of consciousness.


Bostrom’s approach

This volume discusses the vexed question of the so-called “anthropic principle”. According to this principle our universe is characterized by certain parameters because these are the only ones compatible with “our” existence (in this sense it is a “fine-tuned” universe).

For “our” existence – Bostrom clarifies (in chap. 1) – it mustn’t be understood the existence of Homo sapiens, as living species, even if originally (in 1974) Brandon Carter had called this principle ambiguously “anthropic”. It must be understood the existence of “observers” of the universe itself (or also, as sometimes Bostrom writes, the existence, on Earth or elsewhere, of “intelligent life”, in general). In short it is the question of why our universe not only exists, but is also “observable”.

Although, as I will discuss later, “observer” and “consciousness” do not necessarily have the same meaning, the question of the origin of an observable universe and the question of the origin of consciousness are clearly linked.

Regarding the origin of our universe, as an observable universe, the macro-theories that Bostrom discusses can be reduced to two:

  1. our universe is observable (hosts intelligent and conscious life) because of an intelligent design (i.e. something that has our appearance as goal) or
  2. it is as it is by chance.

Bostrom does not take the first hypothesis seriously: intelligent design is rejected, among other things, with the following argument: in order to support it, we must prove that our universe should be the nicest possible, a feature that Bostrom considers obviously implausible. This argument is formalized, albeit hypothetically, resorting to the Bayes theorem, in chap. 11 with these words:

If our universe is not of the sort that one might have suspected a creator to create if he created only one universe (if our universe is not the “nicest” possible one in any sense, for example), then the conditional probability […] on any creator-hypothesis involving the creation of only one universe might well be so slim etc.

Bostrom considers more reliable (probably the only one worthy of a scientific treatment) the second hypothesis, that is that the universe arose by chance.

And why, then, is it so fine-tuned as it aimed at our existence or, better, the existence of observers?

Bostrom’s thesis is basically as follows: our universe appears “miraculously” fine-tuned because of a (trivial) observation selection effect: we certainly could not observe a universe where there were no observers! In general, according to Bostrom, if we want to do science we must take into account these observation selection effects (this is the great lesson of the anthropic principle, reinterpreted as “anthropic bias”): things (laws of nature, laws of evolution, initial conditions, etc.) appear to us in a certain way rather than in another on the basis that they can be observed by us. Laws of nature or initial conditions not compatible with the birth of intelligent (and conscious) life on Earth obviously cannot be “discovered”. This does not exclude (but, according to Bostrom, rather suggests) that there are infinitely more things, which, “by construction”, we will never know, precisely, those that we cannot observe.

In particular, accepted this non-theological and non-teleological perspective, which gives relevance to pu njre chance, the hypotheses are again two: or 1) our universe is the only existing universe or 2) it is one among countless or infinite other “universes”, the only observable one (or one of the few or many observable), which is why we observe this universe and not others.

Bostrom seems to favour this second hypothesis.

The argument is basically this: it would be really strange that only one universe has arisen randomly and that just this is fine-tuned and also hosts intelligent life, especially if we assume that this, in itself highly unlikely, would have been impossible in a universe even slightly different from ours. So, the multiverse hypothesis is much more likely.

This thesis is not only argued discursively, but also resorting to logical and mathematical tools, essentially to Bayes’ theorem and its derivatives. It is supported, in particular, by a central assumption in the book, the Self-Sampling Assumption (SSA), which, in its first form (introduced at the end of chap. 3 and subsequently improved and corrected), sounds as follows:

One should reason as if one were a random sample from the set of all observers in one’s reference class

To understand what Bostrom means by this assumption, one can mention its use in traffic analysis, as does Bostrom itself (in chap. 5). If you end up stuck in a queue where one lane is slower and one is faster, the fact that you’re probably in the slowest lane isn’t due to a goddamn “Murphy’s Law,” as you might think, but to the trivial circumstance that the slowest lane is also the one where the greatest number of vehicles is located, so probably yours too! In this example you are a “sample” taken from the set of all drivers who are in traffic (reference class). It seems more likely that you are in the slower lane than the faster one simply because there are more vehicles in this lane.

How does this assumption apply to the “anthropic principle”? Bostrom (in chap. 4) makes several thought experiments to illustrate this; then (in chap. 5 and following) he applies this assumption to several open scientific questions, variously connected with the anthropic principle, such as the origin of this universe, Boltzmann’s explanation of the time’s arrow, the evolution of intelligent life on Earth and possibly in other planets etc.

Here, for example, is how the SSA is applied in the Incubator gedanken (introduced in chap. 4 and resumed in chap. 10). Imagine tossing a fair coin: “If the coin falls tails then it creates one room and a man with a black beard inside it. If the coin falls heads then it creates two rooms, one with a black-bearded man and one with a white-bearded man. As the rooms are completely dark, nobody knows his beard color. Everybody who’s been created is informed about all of the above. You find yourself in one of the rooms. Question: What should be your credence that the coin fell tails?”. In the absence of any other information, if we were one of these newly “created” men, our credence of tails should be 1/2. However, if the lights are switched on and we discover that we have a black beard, according to the SSA our credence of tails should become 2/3.

The reasoning, expressed without recourse to mathematics, could sound like this: in the absence of other information the probabilities of head and tails are equal, but this is no longer true when I discover that I have a black beard: in fact, if the coin had fallen head, I could have had a white beard: therefore it is more probable that it has fallen tails. Indeed, what applies is Bayes’ theorem: the initial probabilities of a given event E may increase or decrease (so that they become final or conditional probabilities), if another F event occurs or does not occur or if a particular H theory is true or false. In the Incubator gedanken, knowing that I have a black beard (new event) gives me additional information (in favor of one theory rather than another) that makes me change my estimate of initial probabilities.

How does this SSA apply to scientific issues in which the anthropic principle is involved?

For example, Bostrom uses this SSA to argue (chap. 5) that it is theoretically possible to experimentally test which kind of view in quantum mechanics is most likely true between these two: the “single-history version” and the “many-worlds version”. According to the first view, whenever the collapse of the wave function of a particle is recorded, this particle goes in a certain direction and not in another, which it might also have followed. According to the second view, whenever indeterminacy is involved, the world multiplies and all the paths that the particle can follow are followed, each, however, in a different world.

The idea of Bostrom is as follows. Suppose we can (one day) prove that the appearance of observers in the physical universe is something infinitely unlikely, given the known laws of nature and the initial conditions of our universe. We, then, should probably not exist. If we exist, then the “many-worlds version” is probably true, where even the most unlikely outcomes occur. For the Bayes’ theorem, in fact, if something E has little initial probability (in our case: that observers appear), but it could happen with much greater probability if a certain hypothesis H was true (in our case: the “many-worlds version”), then, if this E occurs, it is likely that this hypothesis H is also true.

Before introducing the SSA, Bostrom had similarly argued discursively in favor of the theory that ours is one of many other universes: this should make the existence more likely, otherwise very unlikely, of our universe (characteristically fine-tuned and marked by the emergence of conscious observers).

The SSA also has the merit of making the appearance of so-called “Boltzmann brains” highly unlikely, if not impossible (Bostrom does not refers to them, but speaks, similarly, in chap. 3, of “freak observers”, e.g. human brains random emitted by black holes as offsping of Hawking radiation). The idea of Bostrom is this: it cannot be excluded that we live in an illusion (like the famous brain in the vat), as observers completely randomly sprung e.g. by the evaporation of black holes and marked by deceptive perceptions. However, within the “reference class” of all possible observers, it is much more likely that we are observers evolved by natural selection from other living organisms, as we seem to be. In fact, in a fine-tuned universe the number of “normal” observers is reasonably much higher than that of “freak observers”. Just as, when there is traffic, it is more likely to be in the slowest lane, because there are more vehicles, so, in the universe, it is more likely to belong to a species that has evolved over millions of years and that can count billions of individuals than to be “intelligent lives” arising by pure chance from the combination of quantum particles during the evaporation of a black hole. Although it cannot be excluded that some “observer” has this bizarre origin, it is very unlikely that “we” belong to this “exclusive club”, so to speak.

Summing up, applying Bostrom’s “anthropic” reasoning and adopting his “mathematics” (which in chap. 10 takes the form of a very Observation Equation), we should conclude that we exist by pure chance within a multiverse of which we observe an extremely limited portion, “our” universe, the only one that we can observe (for an obvious observation selection effect). There would be nothing wonderful or strange about this. The fact that the universe is fine-tuned would in turn be an observation selection effect: if it were not such, there would be no one to witness it and, above all, we would not be able to do.


Problems with Bostrom’s approach

Is that a convincing conclusion? In my opinion, no. One thing, in fact, is to argue that, if there are countless universes, it is likely that, sooner or later, or somewhere, observers will appear; which, if there was only one universe, would be unlikely. Another thing is to argue, on the same basis (that is, “if there are countless universes…”), that it is probable that we have appeared and, conversely, that, if there are us, there are likely to be countless universes.

“We” are not just any observers who have appeared somewhere. We have come here and now. We are also characterized by being conscious, which means something more than “observing” if by observing we mean an action that could be performed by something or someone who might not be “us” (as e.g. an extraterrestrial intelligence). Consciousness is something that we can only experience by being conscious in the first person.

Summing up: according to Bostrom it is the more probable the appearance of a fine-tuned universe that allows the emergence of observers, the more other universes we admit (multiverse hypothesis).  The objection (mine and of a certain Roger White, quoted by Bostrom himself in chap. 2) is that this does not apply if the fine-tuned universe is ours, that is, the observers are us.

Apparently this objection seems unjustified. Bostrom himself (again in chap. 2) points out to White (and implicitly to me too) that, if, in general, the appearance of a fine-tuned universe, which allows the emergence of observers, favors the hypothesis of an almost infinite succession of universes (the multiverse) it would be strange that what applies, in general, to the universes containing observers does not apply to this universe (meaning “this” as a rigid reference), that is, to the universe in which we are.

Bostrom states that White does not bring convincing arguments in favor of his thesis (according to which what generally applies to fine-tuned universes would not apply to ours).

But in my opinion there is a convincing argument. Ironically, Bostrom himself offers it to us on a silver platter (he mentions it in chap. 2). This is an argument drawn from the so-called inverse gambler’s fallacy.

Consider the direct fallacy, the most well-known. A gambler is wrong to think that the more he hasn’t been rolling a double 6, the more likely it is that he is going to roll a double 6 next time.

The inverse fallacy is: if a double 6 has now come out, that means (the gambler mistakenly believes) that there have been many rolls before in which this result has not come out.

But it is easy to understand that this is not necessary at all, because this series of previous rolls would not make the double 6 outcome any more likely.

Similarly – I maintain – the fact that our universe contains observers and is fine-tuned does not entail that there have been many other universes before.

Of course, if you roll two dice many times, the probability that sooner or later a double 6 comes out increases; not this double 6, but only a double 6. In fact, if we do not want to fall into the inverse gambler’s fallacy, we must recognize that, if a double 6 comes out now, this does not increase the likelihood that the dice have been rolled many times before rather than a few times or none.

Thus, if the “many-worlds version” of quantum mechanics were true (which Bostrom believes he can support on the basis of the SSA, provided that certain experimental conditions are given), the probability that sooner or later observers would appear, certainly, would increase.

But the fact is that these observers do not appear sooner or later from our point of view or from the point of view of other observers who can record (observe!) the event. These observers are us now.

If, therefore, we do not want to fall into the inverse gambler’s fallacy, we must grant the following: our (albeit very unlikely in itself) presence makes neither a multiverse more likely than a simple limited universe (like this we observe) nor the “many-worlds version” of quantum mechanics more likely than the “singole-history version”. In sum our presence not make that Nature has rolled countless times the dice more likely than a few or a single time.

In short, the fact that the observers we are talking about are ourselves, now, this short circuit, makes a huge and decisive difference.

So why does the SSA work with traffic and not quantum mechanics? Because I, who already exist and am aware that I exist, can certainly predict that, if I ever get stuck in traffic, it will be more likely that I find myself in the slowest lane rather than the fastest one. But how could the “lane”, whose probability should be calculated, be my own future existence as a conscious observer? There is no “place” where I can calculate the probability that I might be born, because “I myself”, in that place, would not be there yet.

Conversely, if and when there is me, there is me now, in a present (whose probability is equal to 1), which is not just any time when “someone” becomes conscious sooner or later.

It is only the moment whenever any observer emerges to suggest, provided that the emergence of an observer is rare and improbable, that Nature must have made many “vain attempts” to bring it out first. But the present moment, “my” moment, the moment when there is me, the moment only when consciousness emerges properly (a consciousness experienced at the first person) does not require at all to be preceded or joined by failed attempts (by other universes in a multiverse or by many words in the “many-words version” of quantum mechanics), unless you want to fall into the inverse gambler’s fallacy.

It is as if Bostrom calculated in abstract the probability that observers emerge in the universe, for example in the form of Homo sapiens. And this he did as if he were an alien or a computer unconscious and out of the picture. Then he noticed: “What a surprise, we are these observers and we are now!”. So what applied to Homo sapiens applies to us!

But here lies the “bias”. This is not an innocent passage, because there is a difference between

  1. saying that by rolling pairs of dice increases the probability of a double 6 (the appearance of intelligent life in the universe), which is certainly correct, and
  2. saying that the fact that there is now a double 6 (we are aware that we exist here) supports the fact that a lot of pairs of dice have been rolled, which is not at all correct.

In short, unless you want to fall into the inverse gambler’s fallacy, since at each roll a double 6 can come out with probability 1/36, when we record a double 6 it could be the only roll made. Of course, there may have been other rolls before, but not “so that” this double 6 came out (or so that it was more likely, here and now, a double 6). Indeed the result I am witnessing here and now is not made any more likely even by a million previous rolls (direct fallacy of a gambler, who bets on numbers that have not come out for some time).

The truth is that a roll made “here and now” makes this roll mysteriously different, whatever arguments Bostrom. In fact, Bostrom is right: the more you roll two dice, the more, in general, it is likely to come out a double 6 (like any other pair of numbers between 1 and 6). But not now! Now the probability is always damn 1/36 (regardless of the number of previous casts).

Similarly, the fact that intelligent life is given here and now in this universe does not tell us damn if there have been other universes before this or not. If the argument drawn from the inverse gamblerìs fallacy is valid, Bostrom is wrong to consider the probability of multiverse high.

The final refinement of the SSA (in chap. 10) in terms of the SSSA (Strong Self-Sampling Assumption) does not change anything and underlies the same bias. Turning “observers” into ” observer-moments” enhances the performance of the SSA, avoiding potential arguments against it, but the problem remains. How can we move from these “observer-moments “, described in third person, to first-person experience (i.e. your or my experience) of these moments? What is true for these moments described in the third person, no longer applies if we live them (estimates of the probability of the conditions that would have made our conscious existence possible or probable lose their value).


Another approach

How to explain, then, our existence as conscious observers, if Bostrom’s reasoning falls into this fallacy?

Let us also admit that the structure of the universe doesn’t favor the argument of intelligent design. An intelligent creator could have created man (a consciousness) in times and spaces much more limited than real, appropriately manipulating energy and matter (although in this way final and formal causes would have been exposed, as when you distinguish an artifact from a natural product). Also the creator could have made a even nicer universe than it is. The breadth of universe spacetime and the clear signs of imperfection that the universe contains suggest that everything happened randomly. Well, let’s say that’s what happened.

Now, if the hypothesis of intelligent design must be rejected and if I am right to find the hypothesis of the multiverse (which Bostrom argues probable, but which to me seems a flagrant violation of Ockham’s razor and an useless hypothesis, as the deceptive appearance of its usefulness is a mere effect of the inverse gambler’s fallacy) how to explain the origin of consciousness (that is, identically, of an observed universe)?

Consciousness seems to arise quite randomly (without anyone having designed it). Its emergence is only made a little more likely by the enormous dimensions of our universe (more precisely, as Barrow and Tipler argue in The Anthropic Cosmological Principle, Oxford, Oxford University Press, 1986: if our universe were not so big and old, intelligent life would in all likelihood be simply impossible). Yet we can certainly imagine countless universes of all possible dimensions in which consciousness never arose. The fine-tuning was therefore an incredible stroke of luck (the analogue of the double 6 above)?

If we eliminate the explanation of the multiverse and also of an intelligent design, what remains to think?

My hypothesis is that the fine-tuning of our universe was not a stroke of luck at all, but depends on the fact that, for a universe to exist, someone must be aware of it. My hypothesis is that a universe, like a quantum particle, in order to exist, must be simply observed. Otherwise it can exist at most only in a unfocused and contradictory way.

As seen in this perspective, the indexical (relative to the observer) aspect of what is observed is relevant. Bostrom also gives importance to this aspect. For example, in the case of traffic, it is because I am slower than others that I can infer that I am in the lane of more vehicles. However, this indexical aspect is treated by Bostrom in an overtly physicalistic way (as he argues in chap. 8). The information we get from our particular perspective is considered valuable, but is only used to enrich our objective knowledge with further information, as in the example of Bostrom: the fact that I have blue eyes (indexical) informs me of the fact that there are people with blue eyes (not indexical). In other words, the information we obtain because we exist in the first person is always translated as information that can be obtained from third parties.

My hypothesis is different: what is calculated (through the SSA) as probably real  (for example the multiverse) when we consider observers as third persons must be considered as only possible if we start from the first person experience (here and now): it is not necessary to suppose countless “real” worlds and universes before or beside us to account for the high improbability of our existence; it’s enough to recognize that only one of all the countless possible universes is the real one, the one in which there are we who can observe it and make it, therefore, real.

From this point of view the multiverse could be understood simply as the set of all possible universes, but rendered unreal by the fact that no one is conscious of it.

Similarly, all rolls of two dice (approx. 35 rolls) that give outcome other than the double 6, to which a gambler attends, can be “retrieved” not as material “antecedents” of the double 6, but as spectral “virtual” companions of it: all that could have happened but did not happen.

A final word on this. Also in chapter 2 Bostrom indirectly denies the relevance of the example of double 6 (and, therefore, of the inverse gambler’s fallacy) to the case of the observable universe.  He claims that the release of a double 6 has nothing to do with observation selection effects. “As pointed out by three authors […] there is no observation selection effect in his example—an essential ingredient in the purported anthropic explanation of fine-tuning”. It would have something to do with these observation selection effects if you imagined that “the gambler has to wait outside the room until a double 6 is rolled”. So watching a double 6 would be the effect of an observational selection (the gambler could watch “only” at double 6, by convention).

But the opposite is true! If the gambler had to wait outside the room, he would also exist whenever no double 6 is rolled in the room. He would exist and be aware that he exists. If he then had to wait hours and hours before being called in, he would also have good reasons to think that many other pairs of numbers came out before the double 6.

What is wrong in this analogy? Let’s consider: there is a consciousness, that of the gambler, waiting to watch a double 6. What is analogous to this situation? “There is a consciousness waiting to see if in this or that universe appears a… conscious being!” But it is clear that, if the analogy between the roll of the dice and the appearance of observers is to work, the double 6 must directly represent the appearance of observers (or consciousness), not the appearance of observers… of observers!.

My hypothesis, that this universe exists simply because it is the only one of which one is aware (and not as one among countless others, equally “existing”, but of which no one is aware), can also be reached by another way, in which the SSA returns to play a role.

A merit of the SSA consists in the fact that, as Bostrom shows (in chap. 5), it allows to dismantle the claim of Boltzmann, followed in this by many others, to justify the time’s arrow of “our” universe. According to Boltzmann, the irreversible increase of entropy that distinguishes our universe, breaking its symmetry with respect to time, was due to the fact that in a very large universe it would not be impossible to observe local fluctuations in the values of entropy, so in some regions (like the one we are in) entropy could be randomly very low and therefore destined to grow (as we actually observe it happening). This would be compatible, therefore, with the image of a universe globally symmetrical with respect to time.

Bostrom has a good game to prove that, if the SSA is valid, these fluctuations are certainly possible and “we” could certainly find ourselves in a region marked by an increase in entropy and, therefore, by a time’s arrow (unique condition compatible with the appearance and evolution of life). However, this region, probably, should be much smaller than our universe which is about 40 thousand light years wide and appears globally marked by irreversible increase in entropy. In fact, the fluctuations Boltzmann talks about should be both small and large. But the small ones should be much more frequent and numerous. Therefore, for the SSA, conscious observers should appear much more frequently and in larger number in much smaller regions of the universe than we do. For the SSA we should therefore inhabit a much smaller universe. Since this is not the case, Boltzmann’s explanation of why we experience an irreversible increase in entropy is probably wrong.

This criticism of Boltzmann’s argument remains valid even if the SSA, as I maintain, cannot be used to argue (as Bostrom does) that our universe appeared randomly within a much larger multiverse. In fact, used against Boltzmann’s argument, the SSA does not directly apply to the emergence of consciousness here and now (which, as I have already argued, unless you want to fall into the inverse gambler’s fallacy, is an event that does not allow you to estimate the probability of the multiverse), but to the problem of time’s arrow, determined by the direction of the increase in entropy (which is an objective datum, not related to “here and now”). The conclusion of Bostrom is, therefore, correct: the fluctuations conjectured by Boltzmann do not explain why a time’s arrow of time characterizes a universe as large as ours.

My explanation of this mystery goes in the same direction as my explanation of the origin of our observable universe: as there cannot exist but a universe of which one is conscious, so there cannot exist but a universe admitting living observers, that is a universe marked by an irreversible increase of entropy and a consequent time’s arrow (the unique condition to which living beings can exist). In short, it is the same consciousness to decide which universe (not only appears to us, for a “trivial” observation selection effect, but also simply) exists, both a) regarding its being, generically, fine-tuned, and b) regarding its being, specifically, characterized by irreversible increase in entropy.

And here I mention, finally, another limit of Bostrom’s approach. Bostrom thinks as if space and time could be real (existing) in the absence of observers. Expanding at will space and time Bostrom can then imagine multiverses, many worlds and other possible conditions capable of making the appearance of conscious observers less unlikely. Although in chap. 1 he refers to Kant as a precursor of the need to take into account observation selection effects, he seems to ignore the fundamental Kant’s lesson: the first (distorting) effect due to observation could be the belief that the universe is traversed by a system of spacetime axes, but a spacetime system may not exist at all in the absence of observers, because it is part of the perceptive system.

So, if, following Leibniz, Kant and many others, we suppose that space and time are “subjective”, that is, they depend on the fact that there are observers (they are in short only a way of observing reality), the “multiverse” that Bostrom posits as a plausible condition of the appearance of conscious observers can be conceived only as something “virtual” or purely “conceptual”, as the imaginary (“spectral”) set of rolls other than the double 6 that we ourselves are.

It must be said that Bostrom, beyond his specific theses, has the great merit of analytically discussing, using suitable mathematical tools, the different hypotheses formulated by him and by many other authors about anthropic reasoning, providing the reader with a vast and fascinating panorama.  He also motivates a reader who does not agree with his thesis to argue alternative points of view with the same rigour. And that’s exactly what I tried to do.

Come intendere il cosiddetto “principio antropico”?


Il libro di Nick Bostrom, Anthropic bias: Observation Selection Effects in Science and Philosophy, London, Routledge 2002 (ed. on line 2020), è senz’altro di grande interesse, anche per chi si interroga su origine e natura della coscienza, in quanto fa il punto con rigore “matematico”, per così dire, sulla vexata quaestio del cosiddetto “principio antropico”.

Secondo questo principio il nostro universo sarebbe caratterizzato da certi parametri (in termini di condizioni iniziali e/o di leggi fisiche) perché questi sarebbero gli unici compatibili con la “nostra” stessa esistenza (in questo senso sarebbe un universo “fine-tuned”, finemente sintonizzato).

Bostrom sgombra il campo innanzitutto (nel cap. 1) da un equivoco: per “nostra” stessa esistenza si deve intendere non tanto l’esistenza dell’Homo sapiens, come specie vivente, anche se originariamente (nel 1974) Brandon Carter aveva denominato questo principio equivocamente, appunto, “antropico”, quanto l’esistenza di “osservatori” dell’universo stesso (o anche, come anche talora Bostrom si esprime, l’esistenza, sulla Terra o altrove, di “vita intelligente”, in generale, cfr. sempre cap. 1 e passim). In sostanza si tratta della questione delle ragioni per le quali il nostro universo sarebbe non solo esistente, ma anche “osservabile”.

Anche se, come discuterò più oltre, la nozione di “osservatore” non è del tutto sovrapponibile a quella di “coscienza”, in tutti i possibili significati delle due nozioni, la questione dell’origine di un universo osservabile e quella dell’origine della coscienza sono tra loro palesemente legate.

Riguardo all’origine del nostro universo, in quanto universo osservabile, le macro-teorie che Bostrom discute si possono ricondurre a due: o a) il nostro universo sarebbe osservabile (ospiterebbe vita intelligente e cosciente) per un intelligent design (cioè sulla base di un progetto, verosimilmente divino, che avesse fin dall’origine per fine la nostra apparizione) oppure b) esso sarebbe tale per caso.

Bostrom non prende sul serio la prima ipotesi: l’intelligent design viene respinto, tra l’altro, con l’argomento che, per sostenerlo, bisognerebbe dimostrare che il nostro sarebbe il migliore dei mondi possibili, tratto che Bostrom giudica evidentemente poco plausibile. Sottinteso in diverse parti del volume, questo argomento viene formalizzato, sia pure in via ipotetica, ricorrendo al teorema di Bayes, nel cap. 11 con queste parole:

If our universe is not of the sort that one might have suspected a creator to create if he created only one universe (if our universe is not the “nicest” possible one in any sense, for example), then the conditional probability […] on any creator-hypothesis involving the creation of only one universe might well be so slim etc.

Bostrom considera più attendibile (probabilmente la sola degna di una trattazione scientifica) la seconda ipotesi, cioè che l’universo sia sorto per caso.

E come mai, allora, è così fine-tuned come se avesse per fine la nostra esistenza o, meglio, l’esistenza di osservatori?

La tesi di Bostrom è sostanzialmente la seguente: il nostro universo appare “miracolosamente” fine-tuned per un (banale) observation selection effect: non potremmo certamente osservare un universo in cui non vi fossero osservatori! In generale, per Bostrom, in campo scientifico bisogna tener conto di questi observation selection effects (questa sarebbe la grande lezione del principio antropico, reinterpretato come “pregiudizio antropico” o, forse meglio intendere, “distorsione antropica”): le cose (leggi di natura, leggi dell’evoluzione, condizioni iniziali ecc.) ci appaiono in un certo modo piuttosto che in altro anche sulla base del fatto che possano essere osservate da noi. Leggi di natura o condizioni iniziali non compatibili con la nascita della vita intelligente (e cosciente) sulla Terra non possono ovviamente venire “scoperte”. Ciò non esclude (ma, secondo Bostrom, piuttosto suggerisce) che vi siano infinitamente più cose “in cielo e in terra”, che, “per costruzione”, non conosceremo mai, quelle, appunto, che non possiamo osservare.

In particolare, accettata questa prospettiva ateologica e ateleologica, che dà rilevanza al puro caso, le ipotesi sono di nuovo due: o 1) il nostro universo è il solo universo esistente oppure 2) esso è soltanto uno di innumerevoli o infiniti altri “universi”, il solo appunto osservabile (o uno dei pochi o molti osservabili), ragione per la quale noi appunto osserviamo questo universo e non altri.

Bostrom sembra propendere decisamente per questa seconda ipotesi.

L’argomento è sostanzialmente questo: sarebbe davvero strano che sia sorto casualmente un solo universo e che proprio questo sia fine-tuned e ospiti anche vita intelligente, soprattutto se supponiamo che questa, in se stessa altamente improbabile, sarebbe stata impossibile in un universo anche solo poco diverso dal nostro. Molto più verosimile, dunque, l’ipotesi del multiverso.

Questa tesi non è argomentata soltanto discorsivamente, ma ricorrendo a strumenti logici e matematici, essenzialmente al teorema di Bayes e a suoi derivati. Essa viene sostenuta, in particolare, a partire da un’assunzione centrale nel libro, la Self-Sampling Assumption (SSA), che, nella sua prima formva (introdotta alla fine del cap. 3 e successivamente migliorata e corretta), suona come segue:

One should reason as if one were a random sample from the set of all observers in one’s reference class

Cioè: “si dovrebbe ragionare come se si fosse un campione tratto casualmente dall’insieme di tutti gli osservatori appartenenti alla propria classe di riferimento”.

Per capire che cosa intende Bostrom con questa assunzione e, in particolare, per comprendere il suo rilievo “matematico” si può evocare il suo impiego nell’analisi del traffico, come fa Bostrom stesso (nel cap. 4). Se finisci imbottigliato in una coda dove una corsia è più lenta e una più veloce il fatto di trovarti più probabilmente in quella più lenta non è dovuta a una dannata “legge di Murphy”, come potresti pensare, ma alla banale circostanza che la corsia più lenta è anche quella dove si trova il maggior numero dei veicoli, dunque probabilmente anche il tuo! In questo esempio tu sei un “campione” (sample) tratto dall’insieme di tutti gli automobilisti che si trovano nel traffico (classe di riferimento). Appare più probabile che tu ti trovi nella corsia più lenta che in quella più veloce semplicemente perché in questa vi sono più veicoli, dunque più automobilisti.

Come si applica quest’assunzione al “principio antropico”? Bostrom (nel cap. 4) fa una serie di esperimenti mentali per illustrarlo, immaginando altrettanti “universi giocattolo”; quindi (nel cap. 5 e seguenti) applica quest’assunzione a diverse questioni scientifiche aperte, variamente collegate o collegabili col principio antropico, come l’origine di questo universo, la spiegazione di Boltzmann della freccia del tempo, l’evoluzione della vita intelligente sulla Terra ed eventualmente in altri pianeti ecc.

Ecco, ad esempio, come si applica la SSA nell’esperimento mentale (introdotto nel cap. 4 e ripreso nel cap. 10) dell’incubatore. Immaginiamo di lanciare una moneta: se esce croce viene creata una stanza contenente un uomo con la barba nera; se esce testa vengono create due stanze: una contenente un uomo con la barba nera e un’altra contenente un uomo con la barba bianca. In assenza di altre informazioni, se noi fossimo uno di questi uomini appena “creati” e conoscessimo il modo in cui questa creazione è avvenuta, considereremmo egualmente probabile che sia uscita croce e che sia uscita testa. Tuttavia, se si accendesse la luce e scoprissimo di avere la barba nera, secondo Bostrom, in base alla SSA (Self-Sampling Assumption), dovremmo ritenere che sia uscita croce con due probabilità contro una. Il ragionamento, espresso senza ricorrere alla matematica, potrebbe suonare così: in assenza di altre informazioni le probabilità di testa e di croce si equivalgono, ma ciò non è più vero quando scopro di avere la barba nera: infatti, se fosse uscita testa, avrei potuto avere la barba anche bianca: dunque è più probabile che sia uscita croce. In effetti quello che si applica è il teorema di Bayes: le probabilità iniziali di un determinato evento E possano aumentare o diminuire (trasformandosi così in probabilità finali o condizionali), qualora si verifichi o non si verifichi un determinato altro evento F o nel caso che sia vera o falsa una determinata teoria H. Nel caso dell’incubatore il fatto di sapere di avere la barba nera (evento nuovo) mi fornisce un’informazione supplementare (a favore di una teoria piuttosto che di un’altra) che mi fa modificare la mia stima delle probabilità iniziali.

Come si applica questa SSA a questioni scientifiche nelle quali è coinvolto il principio antropico?

Ad esempio Bostrom usa questa SSA per sostenere (cap. 5) che sia teoricamente possibile testare sperimentalmente quale tra due classiche interpretazioni della meccanica quantistica sia più probabilmente vera, tra quella secondo la quale è data “una sola storia” e quella “a molti mondi”. Secondo la prima interpretazione ogni volta che si registra il collasso della funzione d’onda di una particella, essa va in una certa direzione e non in un’altra, che essa pure avrebbe potuto seguire (dato il principio di indeterminazione). Secondo la seconda interpretazione ogniqualvolta è coinvolto un momento di indeterminazione il mondo si sdoppia, anzi si moltiplica e tutti i percorsi che la particella può seguire sono seguiti, ciascuno, però, in un mondo diverso.

L’idea di Bostrom è la seguente. Supponiamo che si possa un giorno dimostrare che l’apparizione di osservatori nell’universo fisico sia qualcosa di infinitamente improbabile date le leggi di natura note e le condizioni iniziali dell’universo. “Noi”, dunque, non dovremmo probabilmente esistere. Se esistiamo ciò dipende allora dal fatto che è probabilmente vera l’interpretazione a molti mondi, in cui anche gli esiti più improbabili si verificano. Per il teorema di Bayes, infatti, se qualcosa E ha probabilità a priori scarse (nel nostro caso: che appaiano osservatori), ma si potrebbe verificare con molta maggiore probabilità se fosse vera una certa ipotesi H (nel nostro caso: l’interpretazione “a molti mondi”), allora, se questo qualcosa E si verifica, è probabile che anche quest’ipotesi H sia vera.

In precedenza, prima di introdurre la SSA, Bostrom, come detto, aveva analogamente argomentato discorsivamente a favore della teoria secondo la quale il nostro sarebbe uno di molti altri universi: ciò dovrebbe rendere più probabile l’esistenza, altrimenti assai improbabile, del nostro universo (caratteristicamente fine-tuned e contraddistinto dall’emergere di osservatori coscienti).

La SSA ha anche il pregio di rendere altamente improbabile, anche se non impossibile, l’apparizione dei cosiddetti “cervelli di Boltzmann” (Bostrom non li evoca, ma parla, analogamente, nel cap. 3, di “freak observers”, osservatori strani scaturiti “random” magari dall’evaporazione di buchi neri). L’idea di Bostrom è questa: non si può escludere che noi viviamo in un’illusione (come il celebre cervello nella vasca), come osservatori scaturiti del tutto casualmente ad es. dall’evaporazione di buchi neri e contraddistinti da percezioni ingannevoli. Tuttavia, all’interno della “classe di riferimento” costituita da tutti gli osservatori possibili, è assai più probabile che le cose stiano come appaiono, cioè che siamo osservatori evolutisi per selezione naturale da altri organismi viventi. Infatti, in un universo fine-tuned il numero degli osservatori “normali” è ragionevolmente molto superiore a quello degli “osservatori strani”. Proprio come, quando c’è traffico, è più probabile trovarsi nella corsia più lenta, perché vi si trovano più veicoli, così, nell’universo, è più probabile appartenere a una specie evolutasi in milioni di anni che può contare miliardi di individui che all’insieme ristretto di “intelligenze” scaturite per puro caso dalla combinazione di particelle quantistiche dall’evaporazione di un buco nero. Anche se non si può escludere che qualche “osservatore” abbia questa bizzarra origine, è assai poco probabile che “noi” apparteniamo a questo “club esclusivo”, per così dire.

Tirando le somme, applicando l’approccio “antropico” di Bostrom e adottando la sua “matematica” (che nel cap. 10 assume la forma di una vera e propria equazione osservazionale), si dovrebbe concludere che noi esistiamo per puro caso all’interno di un multiverso di cui osserviamo una porzione estremamente limitata, il “nostro” universo, il solo che possiamo appunto osservare (per un evidente observation selection effect). Non ci sarebbe nulla di meraviglioso o di strano in tutto questo. Il fatto che l’universo sia fine-tuned sarebbe a sua volta un observation selection effect: se non fosse tale, non ci sarebbe nessuno a testimoniarlo e, soprattutto, non ci saremmo noi a poterlo fare.


Limiti dell’approccio di Bostrom

Si tratta di una conclusione convincente? Secondo me, no. Una cosa, infatti, è sostenere che, se ci sono innumerevoli universi, è probabile che, prima o poi, o da qualche parte, si verifichi qualcosa che, se esistesse un universo solo, sarebbe di per sé improbabile: cioè che appaiano osservatori. Altra cosa è sostenere, sulle stesse basi (cioè, se ci sono innumerevoli universi), che sia probabile e, quindi, spiegabile il fatto che siamo apparsi noi (e, inversamente, che, se ci siamo noi, sia probabile che ci siano innumerevoli universi).

“Noi” non siamo osservatori qualsiasi apparsi prima o poi da qualche parte. Siamo osservatori apparsi qui e ora. Inoltre siamo contraddistinti dall’essere coscienti, cosa che significa qualcosa di più che “osservare” se per osservare intendiamo un’azione che potrebbe venire compiuta da qualcosa o da qualcuno che potrebbe tranquillamente non essere “noi” (come p.e. un’intelligenza extraterrestre) e pensiamo, viceversa, la coscienza come qualcosa che possiamo sperimentare solo essendo coscienti in prima persona.

Riassumendo: Bostrom asserisce che è tanto più probabile l’apparizione di un universo fine-tuned che permetta l’emergere di osservatori, quanti più altri universi precedenti (e successivi) ammettiamo (ipotesi del multiverso).  L’obiezione (mia e di un certo Roger White, citato da Bostrom stesso nel cap. 2) è che ciò non vale se l’universo fine-tuned è il nostro, cioè gli osservatori in questione siamo noi.

Apparentemente questa obiezione non sembra sensata. Bostrom stesso (sempre nel cap. 2) fa notare a White (e implicitamente anche a me) che, se, in generale, l’apparizione di un universo fine-tuned, che permette l’emergere di osservatori, favorisce l’ipotesi di una successione pressoché infinita di universi (il multiverso), sarebbe strano che quello che vale, in generale, per gli universi contenenti osservatori non valga proprio per questo nostro universo (intendendo “questo” come riferimento rigido), cioè per l’universo in cui ci siamo noi.

Bostrom afferma che White non porta argomenti convincenti a favore della sua tesi (secondo la quale quello che vale in generale per universi fine-tuned non varrebbe per il nostro).

Ma l’argomento convincente secondo me c’è. Per ironia della sorte ce lo offre lo stesso Bostrom su un piatto d’argento (lo cita sempre nel cap. 2). Si tratta di un argomento tratto dalla cosiddetta fallacia inversa del giocatore d’azzardo.

Consideriamo la fallacia diretta, quella più nota. Un giocatore d’azzardo sbaglia a pensare che, quanto più numerosi sono i lanci di due dadi dai quali non esce un doppio 6, tanto più probabile sarà che al prossimo lancio esca un doppio 6.  Di fatto a ogni lancio la probabilità è sempre di 1/36.

La fallacia inversa è: se ora è uscito un doppio 6, ciò significa (crede erroneamente il giocatore d’azzardo) che ci sono stati prima molti lanci nei quali questo risultato non è uscito.

Ma è facile intuire che questo non è affatto necessario, perché questa serie di lanci antecedenti non renderebbe affatto più probabile l’uscita del doppio 6.

Analogamente – io sostengo – il fatto che questo nostro universo contenga osservatori e sia fine-tuned, non comporta affatto che vi siano stati prima altri numerosi universi differenti.

Certo, se lancio molte volte due dadi, la probabilità che prima o poi un doppio 6 esca aumenta; non però questo doppio 6, ma solo un doppio 6. Infatti, se non vogliamo cadere nell’inverso della fallacia del giocatore d’azzardo, dobbiamo riconoscere che, se adesso esce un doppio 6, ciò non aumenta affatto la probabilità che siano stati lanciati molte volte i dadi in precedenza piuttosto che poche volte o nessuna.

Così, se fosse vera l’interpretazione della meccanica quantistica “a molti mondi” (che Bostrom crede di poter suffragare sulla base della SSA, a condizione che certe condizioni sperimentali siano soddisfatte), la probabilità che prima o poi appaiano osservatori, certo, crescerebbe.

Ma il fatto è che questi osservatori non appaiono prima o poi agli occhi magari nostri o di altri osservatori che possano registrare l’evento. Questi osservatori siamo noi adesso.

Se non vogliamo, dunque, cadere nella fallacia inversa del giocatore d’azzardo, dobbiamo ammettere quanto segue: la nostra (pur assai improbabile, in se stessa) presenza non rende più probabile né un multiverso rispetto a un semplice universo limitato come quello che osserviamo (non rende più probabile il fatto che la Natura abbia lanciato innumerevoli volte i dadi invece che poche o una sola), né l’interpretazione “a molti mondi” della meccanica quantistica rispetto a quella “a una storia sola”.

Insomma, il fatto che gli osservatori di cui parliamo siamo noi stessi, ora, questo cortocircuito, fa un’enorme e decisiva differenza.

Perché, allora, la SSA funziona con il traffico e non con la meccanica quantistica? Perché io, che già esisto e sono cosciente di esistere, posso senz’altro prevedere che, se mai sarò imbottigliato nel traffico, sarà sempre più probabile che mi trovi nella corsia più lenta (e più affollata) piuttosto che in quella più veloce. Ma come potrebbe la “corsia”, di cui calcolare la probabilità, essere la mia stessa esistenza futura di osservatore cosciente? Non c’è un “luogo” dal quale io possa calcolare la probabilità che io possa nascere, perché “io stesso”, in quel luogo, non ci sarei ancora.

Viceversa, se e quando ci sono, ci sono adesso, in un presente (la cui probabilità è pari a 1), che non è un momento qualsiasi in cui “qualcuno” diviene cosciente prima o poi.

È soltanto il momento qualsiasi in cui emerge un osservatore qualsiasi a suggerire, posto che l’emergere di un osservatore sia cosa rara e improbabile, che prima la Natura deve avere fatto molti tentativi vani di farlo emergere. Ma il momento attuale, il “mio” momento, il momento in cui “io” ci sono, il momento in cui emerge la coscienza propriamente detta (quella sperimentata in prima persona), se non si vuole cadere nella fallacia inversa del giocatore d’azzardo, non richiede affatto di essere preceduto o affiancato da tentativi falliti (da altri universi in un multiverso o da “molti mondi” nella citata interpretazione della meccanica quantistica).

È come se Bostrom calcolasse in astratto la probabilità che emergano osservatori nell’universo, ad esempio nella forma degli Homo sapiens. E questo lo facesse come se egli fosse un alieno o un calcolatore privo di coscienza e fuori dai giochi. Poi notasse: “Ohibò, ma noi siamo questi osservatori e lo siamo adesso!”. Quindi – ragiona – quello che si applicava all’Homo sapiens si applica proprio a noi!

Ma proprio qui si nasconde il sofisma (il “bias” per fare il verso a Bostrom). Questo non è un passaggio innocente, esattamente come è diverso

a) dire che a furia di tirare coppie di dadi aumenta la probabilità di un doppio 6 (l’apparizione di vita intelligente nell’universo), cosa senz’altro corretta, e

b) dire che il fatto che ora sia uscito un doppio 6 (noi siamo qui coscienti di esistere) militi a favore del fatto che siano state tirate un sacco di coppie di dadi, cosa nient’affatto corretta.

Insomma, se non si vuole cadere nella fallacia inversa del giocatore d’azzardo, dal momento che a ogni lancio un doppio 6 può uscire con probabilità 1/36, quando registriamo un doppio 6 potrebbe benissimo trattarsi del solo e unico lancio effettuato. Certo, potrebbero essercene stati anche altri prima, ma non “affinché” uscisse questo doppio 6 (o affinché fosse più probabile, qui e ora, un doppio 6), visto che il risultato a cui qui e ora assisto non è reso affatto più probabile neppure da un milione di lanci precedenti (fallacia diretta del giocatore d’azzardo, che scommette sui numeri che non sono usciti da un certo tempo).

Il fatto che si tratti di un lancio fatto “qui e ora” rende questo lancio misteriosamente diverso, checché ne argomenti Bostrom. Infatti, ha ragione Bostrom: quanti più lanci si fanno, tanto più, in generale, è probabile che esca un doppio 6 (come qualsiasi altra coppia di numeri compresi tra 1 e 6). Ma non adesso! Adesso la probabilità è sempre dannatamente 1/36 (indipendentemente dal numero dei lanci precedenti).

Analogamente il fatto che qui e ora si dia vita intelligente in questo universo non ci dice dannatamente se prima di questo vi siano stati altri universi oppure no. Se vale l’argomento tratto dalla fallacia inversa del giocatore d’azzardo, Bostrom si sbaglia a considerare alta la probabilità del multiverso.

Il perfezionamento finale della SSA (nel cap. 10) nei termini della SSSA (Strong Self-Sampling Assumption) non cambia la sostanza e sottende lo stesso sofisma. Il fatto di trasformare gli “osservatori” in “momenti di osservazione” migliora le prestazioni della SSA, evitando potenziali argomenti a sfavore, ma rimane il problema di passare da questi “momenti di osservazione”, descritti in terza persona, all’esperienza in prima persona, mia o tua, di questi momenti. Ciò che vale per questi momenti descritti in terza persona, non vale più se siamo noi a viverli (saltano tutte le stime relative alla probabilità di questa o quell’ipotesi sulle condizioni al contorno che avrebbero reso possibile o probabile la nostra esistenza cosciente).


Un altro approccio: la funzione ontopoietica dell’osservatore

Come spiegare, allora, la nostra esistenza di osservatori coscienti, se il ragionamento di Bostrom cade in questa fallacia e se non possiamo evocare il tradizionale argomento di un intelligent design?

Ammettiamo pure (senza concederlo) che la struttura dell’universo sfavorisca l’argomento dell’intelligent design, concepito grossolanamente. Un creatore intelligente, infatti, avrebbe potuto creare l’uomo (una coscienza) in tempi e spazi molto più contenuti, manipolando opportunamente energia e materia (anche se in questo modo le cause finali e formali sarebbero apparse fin troppo scoperte, come quando si distingue un artefatto da un prodotto naturale). Inoltre il creatore avrebbe potuto fare le cose ancora migliori (“nicest”) di come sono. Le dimensioni spaziotemporali dell’universo e i chiari segni di imperfezione che esso contiene suggeriscono invece che il tutto sia avvenuto casualmente. Bene, ammettiamo che sia andata così.

Ora, se l’ipotesi dell’intelligent design va respinta e se ho ragione io a trovare inverosimile anche l’ipotesi del multiverso (che Bostrom sostiene probabile, ma che a me sembra, oltre che una flagrante violazione del rasoio di Ockham, un’ipotesi inutile, in quanto l’ingannevole apparenza della sua utilità è un mero effetto della fallacia inversa del giocatore d’azzardo), come spiegare l’origine della coscienza (cioè, identicamente, di un universo osservabile, anzi, di fatto, osservato)?

La coscienza sembra bensì scaturire del tutto casualmente (senza che nessuno l’abbia progettata, se escludiamo l’ipotesi del design). Essa è resa soltanto un po’ più probabile, nella sua intrinseca improbabilità, dalle dimensioni enormi del nostro universo (più precisamente, come argomentano Barrow e Tipler in The Anthropic Cosmological Principle, Oxford, Oxford University Press, 1986: se il nostro universo non fosse così grande e vecchio, la vita intelligente con ogni probabilità sarebbe semplicemente impossibile). Eppure possiamo senz’altro immaginare innumerevoli universi di tutte le dimensioni possibili in cui essa non sia mai scaturita. Il fine-tuning è stato dunque un incredibile colpo di fortuna (l’analogo del doppio 6 di cui sopra)?

Se eliminiamo la spiegazione che si appella al multiverso e anche quella di un intelligent design grossolanamente inteso, che cosa rimane da pensare?

La mia ipotesi è che il fine-tuning del nostro universo non sia stato affatto un colpo di fortuna, ma dipenda del fatto che, affinché possa esistere un universo, occorre che se ne sia coscienti. La mia ipotesi è che un universo, come una particella quantistica, per esistere in modo non sfocato o contraddittorio, deve essere osservabile, anzi deve essere osservato.

Come si vede in questa prospettiva l’aspetto indexical (relativo all’osservatore) di ciò che si osserva è determinante. Anche Bostrom dà rilevanza a questo aspetto. Ad esempio nel caso del traffico è perché sono più lento di altri che posso inferire che mi trovo nella corsia percorsa da un maggior numero di veicoli. Tuttavia, questo aspetto indexical è trattato da Bostrom in modo dichiaratamente fisicalistico (come egli argomenta nel cap. 8) ossia oggettivistico. Le informazioni che ricaviamo dalla nostra peculiare prospettiva sono considerate bensì preziose, ma vengono utilizzate soltanto per arricchire di ulteriori elementi informativi le nostre conoscenze oggettive, come nell’esempio di Bostrom: il fatto “indexical” che io abbia gli occhi azzurri mi informa del fatto “non indexical” che ci sono persone con occhi azzurri. In altre parole le informazioni che ricaviamo in quanto esistiamo in prima persona vengono sempre tradotte come informazioni che “si” possono ricavare, cioè informazioni ricavabili da terze persone.

La mia è ipotesi è diversa: quello che viene calcolato come probabilmente reale (tramite la SSA) quando si considerano gli osservatori come terze persone (ad esempio il multiverso) deve essere considerato come soltanto possibile se si parte dall’esperienza in prima persona (qui e ora): non è necessario supporre innumerevoli mondi e universi “reali” prima di noi o accanto a noi per rendere ragione dell’elevata improbabilità della nostra esistenza; basta riconoscere che tra tutti gli innumerevoli universi soltanto possibili solo uno è quello reale, quello in cui vi siamo noi che possiamo osservarlo e renderlo, perciò, tale (reale).

Da questo punto di vista il multiverso potrebbe venire inteso semplicemente come il multiverso degli universi possibili, ma resi irreali dalla circostanza che nessuno vi è cosciente.

Analogamente tutti i lanci di due dadi (ca. 35 lanci) che dànno risultati diversi dal doppio 6, al quale un giocatore d’azzardo assiste, possono venire “recuperati” non come “antecedenti” materiali del doppio 6, ma come spettrali compagni “virtuali” del doppio 6, tutto ciò che sarebbe potuto accadere, ma non è accaduto.

Vale la pena fare al riguardo un’ultima precisazione. Sempre nel capitolo 2 Bostrom nega la pertinenza al caso dell’universo osservabile dell’esempio del doppio 6 (e, quindi, dell’inverso della fallacia del giocatore d’azzardo).  Sostiene che l’uscita di un doppio 6 non ha a che fare con observation selection effects. Vi avrebbe a che fare se si immaginasse che il giocatore d’azzardo venisse lasciato fuori da una porta e venisse chiamato solo quando chi è nella sala da gioco assiste a un doppio 6. Questo “accordo” farebbe sì che l’assistere a un doppio 6 sarebbe l’effetto di una selezione osservativa (il giocatore potrebbe assistere “solo” a doppi 6, per convenzione).

Ma è proprio il contrario! Se il giocatore venisse lasciato fuori, egli esisterebbe anche tutte le volte che dentro la sala non esce nessun doppio 6. Egli esisterebbe e sarebbe cosciente di esistere. Se poi dovesse aspettare ore e ore prima di venire chiamato dentro, avrebbe anche ottime ragioni per pensare che prima del doppio 6 siano uscite molte altre coppie di numeri.

È chiaro che, se l’analogia tra il lancio dei dadi e l’apparizione di osservatori deve funzionare, il doppio 6 deve rappresentare direttamente l’apparizione di osservatori (o della coscienza). Non ci deve essere un’altra coscienza, quella del giocatore, che aspetta di assistere a qualcosa, esattamente come non c’è una coscienza che aspetta di vedere se su questo o quell’universo compare un essere… cosciente.

Alla mia ipotesi, cioè che questo universo esista semplicemente perché è il solo di cui si è coscienti (e non come uno tra innumerevoli altri, altrettanto “esistenti”, ma di cui non si è coscienti), si può arrivare anche per un’altra via, nella quale la SSA ritorna ad avere un ruolo.

Un pregio della SSA consiste nel fatto che essa, come dimostra Bostrom (nel cap. 5), consente di smontare la pretesa di Boltzmann, seguito in questo da molti altri, di giustificare la freccia del tempo che caratterizza il “nostro” universo. Secondo Boltzmann l’incremento irreversibile di entropia che contraddistingue il nostro universo, spezzandone la simmetria rispetto al tempo, sarebbe dovuto al fatto che in universo molto grande non sarebbe impossibile registrare fluttuazioni locali nei valori dell’entropia, sicché in alcune regioni (come quella in cui ci troviamo noi) l’entropia potrebbe essere casualmente molto bassa e destinata, quindi, a crescere (come effettivamente registriamo che accade). Ciò sarebbe compatibile, dunque, con l’immagine di un universo globalmente simmetrico rispetto al tempo.

Bostrom ha buon gioco a dimostrare che, se è valida la SSA, queste fluttuazioni sono certo possibili e “noi” potremmo senz’altro trovarci in una regione contraddistinta da incremento di entropia e, dunque, da una freccia del tempo (sola condizione compatibile con la manifestazione e l’evoluzione della vita). Tuttavia, tale regione, probabilisticamente, dovrebbe essere molto più piccola del nostro universo largo ca. 40 miliardi di anni luce (che appare globalmente contraddistinto da incremento irreversibile di entropia). Infatti, le fluttuazioni di cui parla Boltzmann dovrebbero essere sia piccole sia grandi. Quelle piccole dovrebbero essere assai più frequenti e numerose. Dunque, per la SSA, osservatori coscienti dovrebbero apparire molto più frequentemente e numerosamente in regioni di universo assai più piccole del nostro. Per la SSA noi dovremmo dunque abitare un universo molto più piccolo, almeno dal punto di vista del calcolo delle probabilità. Poiché così non è, la spiegazione di Boltzmann delle ragioni per le quali registriamo un incremento irreversibile di entropia è probabilmente falsa.

Questa critica all’argomento di Boltzmann resta valida anche se la SSA, come io sostengo, non può essere usata per argomentare (come fa Bostrom) che il nostro universo sia apparso casualmente all’interno di un multiverso molto più vasto. Infatti, usata contro l’argomento di Boltzmann, la SSA non si applica direttamente all’emergere della coscienza qui e ora (che, come ho già argomentato, se non si vuole cadere nella fallacia inversa del giocatore d’azzardo, è un evento che non permette di stimare la probabilità del multiverso), ma al problema della freccia del tempo, determinata dalla direzione dell’incremento di entropia (che è un dato oggettivo, non riferito al “qui e ora”). La conclusione di Bostrom è, dunque, corretta: le fluttuazioni congetturate da Boltzmann non spiegano perché la freccia del tempo contraddistingua un universo grande come il nostro.

La mia spiegazione di questo mistero va nella stessa direzione della mia spiegazione dell’origine del nostro universo osservabile: come non può esistere se non un universo del quale si è coscienti, così non può non esistere se non un universo che ammette osservatori viventi, ossia un universo contraddistinto da un incremento irreversibile di entropia e da una conseguente freccia del tempo (sola condizione alla quale possono esistere esseri viventi). Insomma è la stessa coscienza a decidere quale universo (non solo ci appaia, per un “banale” observation selection effect, ma anche semplicemente) esista, sia a) per quanto riguarda il suo essere, genericamente, fine-tuned, sia b) per quanto riguarda il suo essere, specificamente, caratterizzato da incremento irreversibile di entropia.

E qui accenno, infine, a un altro limite dell’approccio di Bostrom. Bostrom ragiona realisticamente come se spazio e tempo potessero essere reali (esistere) in assenza di osservatori. Espandendo a piacimento spazio e tempo Bostrom può allora immaginare multiversi, molti mondi e altre possibili condizioni capaci di rendere meno improbabile l’apparizione di osservatori coscienti. Pur alludendo nel cap. 1 a Kant come a un precursore della necessità di tenere conto degli observation selection effects, sembra ignorare la lezione fondamentale del filosofo di Koenigsberg: il primo effetto (distorcente) dovuto all’osservazione potrebbe essere la credenza nel fatto che l’universo sia immerso in un sistema di assi spaziotemporale, sistema spaziotemporale che potrebbe però non avere alcuna consistenza in assenza di osservatori, essere cioè parte del sistema percettivo.

Ma, se, con Leibniz, Kant e molti altri, supponiamo che spazio e tempo siano “soggettivi”, dipendano cioè dal fatto che vi siano osservatori, siano insomma solo un modo di osservare la realtà, ecco che il “multiverso” che Bostrom postula come plausibile condizione dell’apparizione di osservatori coscienti potrebbe essere di nuovo “salvato”, ma solo a patto di concepirlo come qualcosa di “virtuale” o di puramente “concettuale”, come l’insieme immaginario (“spettrale”) dei tiri diversi dal doppio 6 che noi stessi siamo.

Bisogna dire che il libro di Bostrom, al di là delle sue tesi specifiche, ha il grande merito di discutere analiticamente, ricorrendo come accennato a strumenti matematici adeguati, le diverse ipotesi in gioco formulate da lui e da numerosi altri autori, fornendo al lettore un panorama vasto e affascinante.  Esso motiva anche a un lettore che non concordasse con la tesi formulate da Bostrom stesso ad argomentare tesi alternative con altrettanto rigore. Ed è esattamente quello che ho provato a fare.



From autopoiesis to consciousness?


Thompson’s idea in Mind in Life: Biology, Phenomenology, and the Sciences of Mind. Harvard University Press, 2010, is that the explanatory gap (with which he identifies the Chalmers’ hard problem) can be “reduced”, if not solved, on the basis of the analogy between the autopoietic mode of functioning of the living being and that of consciousness. Ultimately it is the problem of understanding why we are conscious (in my view: why is it that certain things that happen in our brain appear to us as conscious experiences? and: why couldn’t our brain be just as effective at whatever it is it does if we were not conscious?).
(On a whole other basis – evolutionary – it also seems the intuition that inspires the Simona Ginsburg and Eva Jablonka’s book The Evolution of the Sensitive Soul: Learning and the Origins of Consciousness, MIT Press, Massachusetts, 2019, in which the markers of the origin of life are treated as “analogous” to the markers of the origin of consciousness).

To understand in what sense Thompson posits this analogy (between the form of life and the form of consciousness) we must remember the meaning of “autopoiesis” (originally defined in the book written by Francisco Varela and Humberto Maturana Autopoiesis: the organization of the living (1972) expanded and integrated with a previous paper on cognition in Autopoiesis and Cognition, Dordrecht, Netherlands, Reidel, 1980): a living being is basically a machine capable of continually regenerating itself. In particular, it is marked by self-organization, that is, it produces the components that, by interacting with each other, produce themselves and the whole of which they are part.

It is an interesting antireductionistic approach (for in the living would operate a downward causation from the whole to the parts, such that the whole is “greater than the sum of the parts”, in a holistic sense), but admittedly deterministic and mechanistic (it is not believed that “final causes”, “morphogenetic fields”, “occult forces”, “souls” or otherwise non-material entities operate as in vitalism).

What interested me in this approach was the fact that even the “boundary” of the organism is determined by the organism itself and, in turn, it determines the development of the organism, as in the paradigmatic case of the cell. According to the authors, the “autopoietic machine”, unlike a computer, does not work with input/output information and information processing, but only tends to reproduce itself: external “inputs” are only “perturbations” not unlike those that might come from inside the machine, to which the living machine reacts by reworking itself to maintain its self-organization. This process is also a form of cognition (we would say: learning or adaptation).  Moreover, not only are the boundaries established by the living being itself while it lives, but also the environment (the ecological niche) as a whole is co-determined by the organism. Each living being has the universe it deserves, we could say (we perceive certain light frequencies and space in a certain way, but an amoeba lives in a completely different environment; moreover each organism, together with the other conspecifics, is not only conditioned by the environment but contributes to define it).

As explained in the book written by Thompson with Francisco and Eleanor Rosch, The Embodied Mind: Cognitive Science and Human Experience, MIT Press, 1991 (in which the concept of autopoiesis mysteriously disappears, in favor of a simple, but synonymous “self-organization” – autopoiesis reappears anyway in Mind in Life) the interaction between organism and environment has “enactive” character. The action is influenced by the perception and the perception by the action in a circle of unceasing feedback in which information would not be processed in a computer sense, but would take place a process that is cognitive and “adaptive” together (and where the environment is also “produced” to some extent). Although with different language it is not a very different approach, in my opinion, of those of Seth and Hoffman: the “mind” would “bayesianly” work projecting on the “world” their own hypotheses or expectations  and would gradually correct the shot based on the feedback he receives (in my opinion the model is the way a young child learns to grasp objects by trial and error without any “gene” having predetermined the exact mode of operation to succeed).

What struck me was this idea of co-evolution or co-determination between organism, with blurred boundaries, and universe. I saw an embryonic form of extreme monism (like that to which I adhere). It is as if the organism were the universe itself that assumes a certain configuration, without clear boundaries between the part and the whole (we must not forget that the boundaries are fixed by the organism itself and apply only to it; in other words they do not have an objective character and do not mark a real external world, as suggested by the fact that the organism cannot really distinguish between inputs from outside and perturbations generated inside it).

This is where it becomes important to understand the difference between “life” (thus or otherwise conceived) and “consciousness”. Mind in Life seemed, in this regard, very promising.

Thompson, who is a philosopher, first of all develops an interesting discussion on the epistemological limits of the cognitive sciences, highlighting the transcendental (my term) function  of consciousness (and, therefore, the epistemological “need” of philosophy and especially of the phenomenology of Husserl, Heidegger, Merleau-Ponty etc.). The cognitive scientist often does not question the fact that, when dealing with consciousness, he puts his own consciousness into play, without having thoroughly analyzed its phenomenological traits (He can get so, e.g. , to demonstrate that, because consciousness has evolved only to promote fitness, it is not at all reliable cognitively; but he does not realize that, in this way, he makes the neuroscientific knowledge itself uncertain). Consciousness is not only an object of investigation, but also a means by which the investigation is conducted. In particular, the subjective consciousness of the researcher operates occultly as a comparison term even in those “objectivistic” approaches that try to limit themselves to the “data” obtained from brain scanning and to reports (which are in turn subjective interpretations!) of test subjects. The researcher must in fact compare what is reported with his own experience to give it a meaning.

Unfortunately, when Thompson comes to talk about consciousness, introducing his “neurophenomenology” (inspired by Varela), that is, a form of naturalized phenomenology, in which phenomenological self-analysis illuminates the experimental data and vice versa, while making very interesting observations, in my opinion, it fails in any way to reduce the explanatory gap.

The vague analogy between the “holistic” functioning of consciousness (which, in turn, as well as the brain, should not be seen as an information processor, but as a system that self-organizes itself homeostatically etc.) and that of the cell does not help us to understand the transition from one systems to another.

Thompson only lashes out against the Cartesian dualism , which also underlies Chalmers’ theory, the “representation” theories like Jerry Fodor’s, Jaegwon Kim’s etc. If you “reduce” nature, even biological, in a deterministic-mechanistic-physicalistic etc. way, you will never be able to derive consciousness. If, however, biological phenomena are understood as irreducible to physical ones, for the former have a capacity for self-organization, the gap with subjective phenomena, characteristically “intentional”, of consciousness would be reduced (it is interesting that Thompson recognizes to Kant the merit, in the Critique of Judgment, to have introduced for the first time the notion of “circular causality” to interpret the living beings and, in Mind in Life, going well beyond Maturana and Varela, admits also the notion of “final causality”, even if detached from any idea of transcendent “design”, as “purposiveness” intrinsic to autopoietic organization).

This strategy seems promising, but in my opinion it is very problematic. It is precisely the analogy between the two types of phenomena (life and consciousness) that makes the problem worse: if life is so “powerful” as a process capable of self-organization even when it is unconscious, why did consciousness evolve at some point?

Among other things it is curious that Thompson “attacks” also the theory of evolution by natural selection. But, so to speak, even if some of his arguments are convincing, he attacks it from the “left” (while the writer, more sensitive to the sirens of intelligent design or, better, a certain interpretations of the anthropic principle, tends to attack it from the “right”). That is, the idea is that organisms evolve spontaneously (it also borders on lamarckism, underscoring the possibility of epigenetic or “cultural” transmission of acquired characters) and that natural selection is limited to eliminating individuals that are irrimediably unfit. There would be no tendency to optimize fitness, but only a tendency to keep in place organisms minimally or sufficiently adapted. The basic thesis is that autopoiesis and not evolution would characterize life. Evolution would be a mere “historical” phenomenon (it is roughly the thesis of Piantelli Palmerini and Fodor in the book What Darwin got wrong, Profile Books Ldt, 2011). Selection, to operate, presupposes life, does not create it.

This kind of criticism, in my opinion, does not go far. Instead of explaining life and intelligence (or consciousness) it dismisses the explanation, giving an excessive role to chance, unless we want to reintroduce something like élan vital, final and formal causes, morphic fields or, finally, again, an intelligent design.

Moreover it seems to me a sophistry to say that selection presupposes life and not vice versa. Of course, in Darwin this is literally true. But what prevents us from assuming that selection operates on chemistry? Indeed, autocatalytic hypercycles, although not yet fully autopoietic structures, could be the precursors of life. Finally, if you want to keep yourself within a materialistic horizon, you must also explain the origin of the first autopoietic cell. If you give up selection, you have to rely on chance.

My criticism “from the right” is based on the fact that, on the contrary, the evident, even if progressive, optimization of the functions of the living beings cannot be the result either of chance or of mere selection, but requires a more “strong” explanation, the need for consciousness to arise. Consciousness, in my model, would be both the ultimate goal of evolution, and, circularly, the condition of “transcendental” possibility (since it introduces time, previously absent) of evolution itself.

But this is me, not Thompson.

Anyway the problem of the transition from life to consciousness remains unanswered. In my perspective, the question is what determines (or reveals) the universe’s ability to observe itself. Is it the fact of owning (or representing) a nervous system (treated by Thompson as a self-organized system) with certain traits, e.g. the neocortex? Or is it the fact of maximally reducing the internal entropy (interesting that Thompson unifies the idea of a closed self-organizational system, to characterize the living being, with that of a dissipative structure energetically open, far from the state of thermodynamic equilibrium, but able to “maintain” in this condition)? In short, what is the correlated (in my opinion not with causal role, but only of trigger) of consciousness?

Dall’autopoiesi alla coscienza?

L’idea di Evan Thompson in Mind in Life: Biology, Phenomenology, and the Sciences of Mind. Harvard University Press, 2010, è che l’explanatory gap (con cui egli identifica lo hard problem di Chalmers), cioè il problema di capire perché siamo coscienti, cioè perché gli stessi meccanismi cerebrali correlati alla nostra esperienza soggettiva non potrebbero funzionare altrettanto bene senza che noi fossimo consci, possa venire “ridotto” se non risolto sulla base dell’analogia tra il modo di funzionare autopoietico del vivente e quello della coscienza.
(In un certo senso, su tutt’altre basi – evoluzionistiche – , sembra anche l’intuizione che presiede al volume di Simona Ginsburg ed Eva Jablonka. The Evolution of the Sensitive Soul. Learning and the Origins of Consciousness, MIT Press, Massachusetts, 2019, in cui i marcatori dell’origine della vita sono visti come “analoghi” ai marcatori dell’origine della coscienza).

Per comprendere in che senso Thompson intenda quest’analogia (tra forma della vita e forma della coscienza) bisogna ricordare il significato di “autopoiesi” (definito originariamente nel testo  di Francisco Varela e Humberto Maturana Autopoiesis: the organization of the living (1972) ampliato e integrato con uno scritto precedente sulla cognizione in Autopoiesis and Cognition, Dordrecht, Netherlands, Reidel, 1980): un essere vivente sarebbe fondamentalmente una macchina in grado di rigenerare continuamente se stessa. In particolare esso sarebbe contraddistinto dal fatto di auto-organizzarsi, cioè di produrre i componenti che, interagendo tra loro, producono se stessi e l’intero di cui sono parte.

Si tratta di un interessante approccio antiriduzionistico (perché nel vivente opererebbe una downward causation dall’intero alle parti, tale per cui l’intero è “maggiore della somma delle parti”, in senso olistico), ma dichiaratamente deterministico e meccanicistico (non si ritiene che operino “cause finali”, “campi morfogenetici”, “forze occulte”, “anime” o comunque entità non materiali come nel vitalismo).

L’aspetto che mi aveva interessato era il fatto che anche il “confine” dell’organismo risulta determinato dall’organismo stesso e, a sua volta, determina lo sviluppo del medesimo, come nel caso paradigmatico della cellula. Secondo gli autori la “macchina autopoietica”, a differenza di un computer, non riceve in input informazioni, le elabora e restituisce in output informazioni, ma tende solo a riprodurre se stessa: gli “input” sono soltanto “perturbazioni”, non diversamente da quelle che potrebbero venire dall’interno della macchina, a cui la macchina vivente reagisce rimaneggiando se stessa per mantenere la propria auto-organizzazione. Questo processo sarebbe anche una forma di cognizione (noi diremmo apprendimento o adattamento).  Inoltre, non solo i confini sono stabiliti dallo stesso vivente mentre vive, ma in un certo senso anche l’ambiente (la nicchia ecologica) nel suo complesso è co-determinato dall’organismo. Ciascuno ha l’universo che si merita, potremmo dire (noi percepiamo certe frequenze luminose e lo spazio in un certo modo, un’ameba vive in un ambiente del tutto diverso; inoltre ogni organismo, insieme con gli altri conspecifici e non, non è solo condizionato dall’ambiente ma contribuisce a definirlo).

Come si chiarisce meglio nel libro scritto da Thompson con Francisco Varela ed Eleanor Rosch, The Embodied Mind: Cognitive Science and Human Experience, MIT Press, 1991 (in cui sparisce misteriosamente il concetto di autopoiesi, a favore di una semplice, ma sinonimica “self-organization” – l’autopoiesi riappare comunque in Mind in Life) l’interazione tra organismo e ambiente ha carattere “enactive“. L’azione è influenzata dalla percezione e questa dall’azione in un circolo di feedback continui in cui non passerebbero informazioni in senso informatico, ma si svolgerebbe un processo che è cognitivo e “adattativo” insieme (e in cui anche l’ambiente viene in un certo senso configurato). Anche se con linguaggio diverso non si tratta di un approccio molto diverso, secondo me, di quelli di Seth e Hoffman: la “mente” funzionerebbe proiettando sul “mondo” le proprie ipotesi o aspettative “bayesiane” e correggerebbe via via il tiro in base al feedback che riceve (secondo me il paradigma è il modo in cui un bambino piccolo impara a stringere gli oggetti per prova e errore senza che nessun “gene” abbia predeterminato l’esatta modalità operativa per avere successo).

Ciò che mi aveva colpito è quest’idea di coevoluzione o codeterminazione tra organismo, dai confini sfumati, e universo. Ci vedevo una forma embrionale di “uno-tutto”. È come se l’organismo fosse l’universo stesso che assume una determinata configurazione, senza confini netti tra la parte e il tutto.

A questo punto, però, sempre dal mio punto di vista, diventava urgente capire la differenza tra “vita” (così o altrimenti concepita) e “coscienza”. Mind in Life sembrava, al riguardo, molto promettente.

Thompson, che è filosofo, sviluppa innanzitutto un’interessante discussione sui limiti epistemologici delle scienze cognitive, mettendo in luce la funzione trascendentale (termine mio, ma per chiarire) della coscienza (e, quindi, il “bisogno” epistemologico di filosofia e specialmente della fenomenologia di Husserl, Heidegger, Merleau-Ponty ecc.). Lo scienziato cognitivo spesso non mette a tema il fatto che, quando tratta della coscienza, mette in gioco la sua stessa coscienza, senza averne accuratamente analizzato i tratti fenomenologici (si può arrivare così, noto io, a dimostrare che la coscienza, in quanto si sarebbe evoluta solo per favorire la fitness, non è affatto attendibile cognitivamente, senza accorgersi che, in questo modo, si taglia il ramo su cui lo stesso neuroscienziato, in quanto il suo sapere deriva dalla sua coscienza, è seduto!). La coscienza non è solo un oggetto di indagine, ma anche lo strumento mediante cui l’indagine è condotta. Essa (la coscienza soggettiva del ricercatore)  opera occultamente come termine di paragone anche in quegli approcci che si dichiarano “oggettivistici” e cercano di limitarsi ai “dati” ricavati p.e. dalla scansione del cervello e dai reports (che sono a loro volta interpretazioni soggettive!) dei soggetti su cui si effettuano gli esperimenti.

Purtroppo, quando Thompson passa a trattare della coscienza, introducendo la sua “neurofenomenologia” (ispirata a Varela, nel frattempo deceduto per complicanze legate a problemi al fegato), cioè un forma di fenomenologia naturalizzata, in cui l’autoanalisi fenomenologica illumina i dati sperimentali e viceversa, fa interessantissime osservazioni ecc., ma, secondo me, non riesce in alcun modo a ridurre l’explanatory gap.

La vaga analogia tra il funzionamento “olistico” della coscienza (che, a sua volta, come anche il cervello, non dovrebbe essere vista come un elaboratore di informazioni, ma come un sistema che si auto-organizza omeostaticamente ecc.) e quella della cellula non ci aiuta a capire come si passi da questa a quella.

Thompson si limita a scagliarsi contro il dualismo cartesiano, operante anche in Chalmers, nei “rappresentazionalisti” come Jerry Fodor, in Jaegwon Kim ecc. Se si “riduce” la natura, anche biologica, in senso deterministico-meccanicistico-fisicalistico ecc. non si riuscirà mai a derivarne la coscienza. Se, invece, si intendono i fenomeni biologici come irriducibili a quelli fisici, cioè come dotati di una capacità di auto-organizzazione (è interessante che Thompson riconosca a Kant il merito, nella Critica del Giudizio, di avere introdotto per la prima volta la nozione di “causalità circolare” per interpretare il vivente e, nel suo ultimo libro, andando ben oltre Maturana e Varela, “sdogana” anche la nozione di “causalità finale” anche se sganciata da ogni idea di “progetto” trascendente, come “purposiveness” intrinseca all’organizzazione autopoietica), il gap con i fenomeni soggettivi, caratteristicamente “intenzionali”, della coscienza si ridurrebbe.

Questa strategia sembra promettente, ma, secondo me, è assai problematica. Proprio l’analogia tra i due tipi di fenomeni (vita e coscienza) mantiene in essere il quesito: se la vita è così “potente” come processo capace di auto-organizzazione anche quando è inconscia, perché a un certo punto si è evoluta la coscienza?

Tra l’altro è curioso che Thompson & co. “attaccano” anche la teoria dell’evoluzione per selezione naturale. Però, per così dire, anche se certi loro argomenti sono convincenti, la attaccano da “sinistra” (mentre chi scrive, più sensibile alle sirene dell’intelligent design o, meglio, di una certa lettura del principio antropico, tende ad attaccarla da “destra”). Cioè, l’idea è che gli organismi evolvano spontaneamente (si rasenta anche il lamarckismo, esaltando la possibilità della trasmissione epigenetica o “culturale” dei caratteri acquisiti) e che la selezione naturale si limiti a eliminare i casi disperati. Non si registrerebbe una tendenza a ottimizzare la fitness, ma solo a conservare in essere organismi minimamente o sufficientemente adattati. La tesi di fondo è che l’autopoiesi e non l’evoluzione caratterizzerebbe la vita. L’evoluzione sarebbe un fenomeno “storico” non strutturale (è all’incirca la tesi di Piantelli e Fodor nel libro Gli errori di Darwin). La selezione, per operare, presuppone la vita, non la crea.

A pensarci, questo genere di critiche, secondo me, non portano lontano. Invece di spiegare la vita e l’intelligenza (o la coscienza) allontano la spiegazione, conferendo un ruolo eccessivo o al caso o a ipotetiche leggi “autopoietiche” che, però, se le si dovesse veramente prendere sul serio, richiederebbero di reintrodurre l’élan vital, cause finali e formali (campi morfici) o, infine, di nuovo, un intelligent design.

Poi a me sembra un sofisma affermare la selezione presuppone la vita. Certo, in Darwin questo è letteralmente vero. Ma che cosa vieta di supporre che la selezione operi sulla chimica, cioè sugli ipercicli autocatalitici che, secondo alcuni, pur non essendo ancora pienamente strutture autopoietiche, potrebbero essere i precursori della vita? In qualche modo, se ci si vuole mantenere in un orizzonte materialistico, si dovrà pure spiegare l’origine della prima cellula autopoietica. Se si rinuncia alla selezione, ci si deve affidare per forza al puro caso.

La mia critica “da destra” è basata sul fatto che, anzi, l’evidente ottimizzazione delle funzioni dei viventi non può essere frutto né del caso, né della mera selezione, ma richiede una spiegazione più “forte”, Dio o la necessità che scaturisca la coscienza. La coscienza, nel mio modello, sarebbe sia il fine ultimo dell’evoluzione, sia, circolarmente, la condizione di possibilità “trascendentale” (in quanto introduce il tempo, prima assente) dell’evoluzione medesima.

Ma questo è Giacometti, non Thompson.

E comunque rimane inevaso il problema del passaggio dalla vita alla coscienza. Nella mia prospettiva si tratta di ciò che “demarca” la capacità dell’universo di osservare se stesso. Forse è il fatto di possedere (o rappresentarsi di possedere) un sistema nervoso (trattato da Thompson & co. come un sistema auto-organizzato) con certi tratti, p.e. la neocorteccia? Oppure è il fatto di azzerare completamente l’entropia interna (interessante che Thompson unifichi l’idea di sistema auto-organizzativo chiuso, per caratterizzare il vivente, con quella di struttura dissipativa energeticamente aperta, lontana dallo stato di equilibrio termodinamico, ma capace di “mantenersi” in questa condizione)? Insomma quale mai è il correlato (secondo me con ruolo non causale, ma solo di “trigger”) della coscienza?

Is reality an illusion?


Donald Hoffman’s book, The Case Against Reality. How Evolution Hid the Truth from Our Eyes (2020) proposes two largely acceptable though revolutionary theories on consciousness and reality, linked together, but not dependent on each other. These are highly speculative theories, but Hoffman exposes them to empirical checks according to the scientific method, which he defends with conviction. Several experiments, cited by Hoffman, seem compatible especially with the first of the two theories.

According to the interface theory of perception (ITP), the world we perceive is not objective, nor does it bear any resemblance to the objective world. Not only the classic “secondary qualities”, such as colors, sounds, flavors, but also the classic “primary qualities”, such as space and time, would depend more on our perceptual system than on “objective reality”. They would be the way we encode our experience. The objects we perceive would be, relative to the underlying reality, like desktop icons are relative to the sequences of bytes they represent, as these sequences actually and physically exist in a computer.

To support this thesis, for which he appropriately refers to Kant, Hoffman resorts to his theorem “Fitness-Beats-Truth” (FBT), proven on the basis of game theory. According to this theorem, the more complex an organism is (in terms of internal “states” corresponding to hypothetical “states” of the external world), the less likely it is that the world it perceives is real. If this were not the case, the organism could not survive and reproduce with the necessary effectiveness. In short, natural selection would favor organisms that perceive the world in a “useful” way rather than in a “true” way. Space and time would thus be “doomed”, in line with certain interpretations of quantum mechanics.

This theory seems to me absolutely convincing insofar as it highlights the subjective character of the world as it appears to us. References to physics are certainly appropriate (and correspond largely to those I make on this website, coming to conclusions similar to those Hoffman’s).

Hoffman’s use of the theory of evolution by natural selection is less convincing. Since natural selection seems to take time, but time is ultimately an illusion, it is unclear “where” and “when” evolution may occur.

Furthermore, Hoffman often alludes to the fact that living beings must consume “energy” to obtain resources. But it is not clear what “energy” (a magnitude corresponding to the product of the force applied to a body by the displacement it undergoes in space) could mean if space and time are doomed.

In my view, Hoffman’s reasoning, taken to its extreme consequences, shows that the theory of evolution by natural selection is ultimately self-contradictory: if the theory were true, we would perceive a false world; but, if the world were false, the theory of evolution that we know would be false, as it presupposes illusory entities, such as space and time.

Hoffman defends his theory by saying that his theory only questions our perception of the world and not, instead, our logical-mathematical skills (on which he bases his theorem FBT). However, if evolution had selected us to identify what is useful for us to survive and to reproduce rather than to understand the truth, it is not clear why this blindness to truth should not also concern mathematical truth. It is true that having a “correct” basic mathematics could be an advantage for our survival, but what’s the advantange of having the advanced mathematics that Hoffman needs for his theory? Our primate cousins would certainly not know what to do with it.

In general, I think the trust that Hoffman rightly has for the scientific method cannot be based on the random evolution of our “mind” (I do not say “of the brain”, because this, in Hoffman’s perspective, is only an icon of the mind). Such evolution would not guarantee the viability of science, not even as a set of fallible, but for the moment convincing hypotheses. I think we must posit that there is a more immediate and direct relationship between our mind and the truth.

With these epistemological limitations, Hoffman’s interface theory of perception appears in any case convincing, at least as a metaphor, and in accordance with my tenet on the subjectivity of space and time.

The second theory that Hoffman introduces, to complement the first, but as a theory not dependent on it, is the theory of conscious realism. Compared with ITP, it is a much more speculative theory, a real research programme that Hoffman is launching. Nevertheless he expects empirical checks on it to be carried out sooner or later.

According to this theory it is impossible to fix the issue of the origin of consciousness by adopting a physicalistic approach, that is, by trying to understand how consciousness can derive from an objective reality, made of quarks, atoms, molecules, neurons etc. pre-existent to consciousness itself. The hard problem (why we are conscious instead of not) cannot be solved this way. On this point I wholeheartedly agree with Hoffman.

Hoffman therefore proposes that consciousness doesn’t derives from “matter”, but it is something original. I fully agree also with this tenet.

But Hoffman affirms that everything consists of a network of “conscious agents”. What puzzles me is that consciousness must be “multiplied” into these countless conscious agents (re-edition of the monads of Leibniz?) that would pervade the universe from the level of the Plank scale up to “God”, a hypothetical cosmic super-consciousness constituted (“instantiated”) by the conscious agents of gradually higher level (up to the Plank scale).

The least we can say is that this theory seems to violate Ockham’s razor, which Hoffman, instead, invokes as a guiding criterion. Why all these “conscious agents”? Hoffman starts from the fact that, if I look in the mirror, behind the icon of my face there is a world of feelings and emotions, expressed, say, by a smile. So also, probably, there is a similar world behind the icon of the face of my beloved, of my friends and so on. Even a chimpanzee can maybe express emotions. If I feel less and less “empathy”, going down the scale of the living beings, according to Hoffman it is not because these living beings are less “conscious”, but because their way of being conscious would be different from my. So quickly we get to the electrons and the Planck scale!

Therefore, if I look at a mountain, what I look at would be a swarm of conscious agents whose “actions” would constitute for me many “experiences”. Hoffman also proposes a mathematical model of how conscious agents would experience and react “freely” to it, while retaining their memory. To this end he assumes that conscious agents work as universal Turing machines and make choices that can be interpreted as transitions through Markovian kernels in measurable spaces (whose fundamental dimensions would be that of the experiences and that of the corresponding actions).

In this way Hoffman tries to bring back the “visible” mechanisms of natural selection to a hypothetical “mathematical” root in the “thing-in-itself”. However, the above perplexities about Hoffman’s use of the theory of evolution remain. In fact, these conscious agents seem to take “time” to operate. Perhaps it is a different time from the illusory one? Yet this time, to work, should be linear and oriented in the past-future direction as well as the illusory one…

The mechanism by which these agents choose is also unclear. Are these random, “improved” choices for trial and error? Does Hoffman intend to reinterpret free will? And why should this mechanism be conscious instead of not? Is the hard problem really solved?

Interesting is that Hoffman distinguishes between experiences by definition conscious and actions that would follow, intrinsically unconscious. However, he states that we would indirectly experience these actions (consciously) for their effects and this make us correct gradually the shot. This gives me some ideas about the “heterogeny of ends” that I could use to improve my model.

In my opinion, if space and time really are “doomed” or better, to be precise, if they are understood as a manifestation of the consciousness itself and not as something antecedent to it, this proliferation of conscious agents that could or could not unite to “instantiate” others of a higher level is something redundant (if not inconsistent, as it seems to assume, if not a space, at least a “time” in which this “network” can develop).

If space and time have no objective character, nothing “really” separates me from you, my reader. It seems to me sufficient to posit that there is only one consciousness, which we can attribute to the universe itself. Looking at my wife I guess behind her smile nothing but a form that the consciousness of the universe has assumed or will assume at a different time from now, when the universal consciousness dwells in me.

It is not at all necessary to attribute consciousness to electrons, nor is it necessary to attribute it to the cells of my body. These are only parts of the icon (to use Hoffman’s terminology) behind which hides, from time to time, the only one consciousness, which takes on the most diverse forms (but not necessarily all possible and impossible forms). Even my body deeply sleeping (or my immune system) is part of the icon. If space and time are subjective, what appears to be separated in space and time can be part of the overall figure that, from time to time, the consciousness assumes, “io dico l’universo” (“I say the universe”, as Galilei wrote), seen as a Moebius strip in which perceptions and emotions are only two sides of the same coin. But this is only my point of view…

La realtà è illusoria?


Il volume di Donald Hoffman, The Case Against Reality. How Evolution Hid the Truth from Our Eyes (2020), che ho letto nella traduzione italiana L’illusione della realtà. Come l’evoluzione ci inganna sul mondo che vediamo, Bollati Boringhieri, Milano 2022, propone due teorie sulla coscienza e sulla realtà, tra loro legate, ma non dipendenti l’una dall’altra, altrettanto rivoluzionarie quanto in gran parte convincenti. Si tratta di teorie altamente speculative, ma che Hoffman espone ai controlli caratteristici del metodo scientifico, di cui è assertore. Diversi esperimenti, evocati da Hoffman, sembrano compatibili soprattutto con la prima della due teorie.

Secondo la teoria dell’interfaccia percettiva (TIP) il mondo che percepiamo non è oggettivo, né ha qualche somiglianza con il mondo oggettivo. Non solo le classiche “qualità secondarie”, come colori, suoni, sapori, ma anche le classiche “qualità primarie”, come le grandezze di spazio e tempo, dipenderebbero più dal nostro sistema percettivo che dalla “realtà oggettiva”. Si tratterebbe del modo attraverso il quale codifichiamo la nostra esperienza. Gli oggetti che percepiamo sarebbero icone sul desktop della nostra percezione e non corrisponderebbero in alcun  modo ad alcunché  di reale. Per sostenere questa tesi, per la quale egli opportunamente evoca Kant, Hoffman invoca il c.d. teorema “fitness batte verità”, dimostrato ricorrendo alla teoria dei giochi. Secondo questo teorema quanto più complesso è un organismo (in termini di “stati” interni corrispondenti a ipotetici “stati” del mondo esterno), tanto meno è probabile che il mondo che esso percepisce sia reale, se l’organismo deve conservarsi e riprodursi con la necessaria efficienza. Insomma, la selezione naturale favorirebbe gli organismi che percepiscono il mondo in modo “utile” piuttosto che in modo “vero”.  Spazio e tempo sarebbero così “condannati”, in linea con certe interpretazioni della meccanica quantistica.

Questa teoria mi sembra assolutamente convincente nella misura in cui mette in luce il carattere soggettivo del mondo come ci appare. I riferimenti alla fisica sono senz’altro pertinenti (e corrispondono in gran parte a quelli che faccio anch’io su questo sito per giungere a conclusioni simili a quelle a cui giunge Hoffman; interessante in particolare il riferimento al cosiddetto QBism, interpretazione “bayesiana” radicale della meccanica quantistica).

Meno convincente appare il modo in cui Hoffman ricorre alla teoria dell’evoluzione per selezione naturale. Poiché sembra che la selezione naturale richieda tempo, ma il tempo risulta alla fine illusorio, non è chiaro “dove” e “quando” l’evoluzione possa verificarsi. Inoltre, Hoffman allude spesso al fatto che i viventi debbano consumare “energia” per procurarsi risorse. Ma non è chiaro che cosa “resti” di ciò che intendiamo come energia (una grandezza corrispondente al prodotto della forza applicata a un corpo per lo spostamento che questo subisce nello spazio) se spazio e tempo sono aboliti.

Nella mia prospettiva il ragionamento di Hoffman portato alle sue estreme conseguenze mostra il carattere in ultima analisi autocontraddittorio della teoria dell’evoluzione per selezione naturale: se la teoria fosse vera, noi percepiremmo un mondo falso; ma, se il mondo fosse falso, la stessa teoria dell’evoluzione che conosciamo sarebbe falsa, in quanto essa presuppone entità illusorie, come lo spazio e il tempo.

Hoffman si cautela in un passaggio affermando che la sua teoria mette in discussione soltanto la nostra percezione del mondo e non, invece, p.e. la nostre capacità logico-matematiche (sulle quali si basa la teoria dei giochi, sulla quale, a sua volta, egli basa il suo teorema “fitness batte verità”). Tuttavia, se l’evoluzione ci avesse selezionati per individuare ciò che ci è utile per sopravvivere e per riprodurci piuttosto che per comprendere la verità, non è chiaro perché questa cecità nei confronti della verità non debba riguardare anche la verità matematica. È vero che possedere una matematica di base “corretta” potrebbe essere vantaggioso per la nostra sopravvivenza, ma non si tratta certamente della matematica avanzata di cui Hoffman ha bisogno per la sua teoria (di cui ad es. i nostri cugini primati non saprebbero certamente che farsi).

In generale la fiducia che giustamente Hoffman nutre per il metodo scientifico non può fondarsi sull’evoluzione casuale della nostra “mente” (non dico del “cervello” che, nella prospettiva di Hoffman, è solo un’icona della mente). Tale evoluzione non garantirebbe la veridicità della scienza, neppure come insieme di ipotesi fallibili, ma per il momento convincenti. Bisogna supporre un rapporto più immediato e diretto tra la nostra mente e la verità.

Con questi limiti epistemologici la teoria dell’interfaccia percettiva di Hoffman appare in ogni caso convincente, almeno come metafora, e consonante con quanto su questo sito argomento circa la soggettività di spazio e tempo.

La seconda teoria che Hoffman introduce, a completamento della prima, ma come teoria non dipendente da essa, è la teoria del c.d. realismo conscio.  Rispetto alla TIP si tratta di una teoria molto più speculativa, di un vero e proprio programma di ricerca che Hoffman lancia, rispetto al quale, tuttavia, egli si attende che possano prima o poi venire effettuati controlli empirici.

Secondo questa teoria è impossibile risolvere il problema dell’origine della coscienza adottando un approccio fisicalistico, cioè cercando di capire come la coscienza possa derivare dalla “materia”, cioè da una realtà oggettiva, fatta di quark, atomi, molecole, neuroni ecc., preesistente alla coscienza stessa. Lo hard problem (perché siamo coscienti anziché no) non può essere risolto per questa via. Su questo punto il mio accordo con Hoffman è totale.

Hoffman propone quindi che non sia la coscienza a derivare dalla “materia”, ma il contrario o, per meglio dire, che tutto sia costituito da una “rete” di “agenti coscienti”.

Pieno accordo sul fatto che la coscienza sia alcunché di originario, ma ciò che mi lascia perplesso è che la coscienza debba essere “moltiplicata” in innumerevoli agenti coscienti (riedizione delle monadi di Leibniz) che pervaderebbero l’universo dai livelli della scala di Plank fino a “Dio”, un’ipotetica super-coscienza cosmica costituita (“istanziata”)  dagli agenti coscenti di livello via via inferiore (fino, appunto, alla scala di Plank).

Il meno che si possa dire è che questa teoria sembra violare quel rasoio di Ockham che Hoffman, invece, invoca come criterio guida.

Perché tutti questi “agenti coscienti”? Hoffman parte dal fatto che, se mi guardo allo specchio, dietro all’icona del mio viso c’è un mondo di sentimenti ed emozioni, tradite magari da un sorriso ecc. Così anche, probabilmente, c’è un simile mondo dietro l’icona del volto della mia amata, dei miei amici. Anche uno scimpanzè può tradire emozioni ecc. Se scendendo nella scala dei viventi, provo sempre minore “empatia”, secondo Hoffman, non è perché questi viventi siano meno “coscienti”, ma perché il loro modo di essere coscienti sarebbe diverso. Si arriva così rapidamente agli elettroni e alla scala di Planck!

Dunque, se guardo una montagna, ciò che guardo sarebbe un brulicare di agenti coscienti le cui “azioni” costituirebbero per me altrettante “esperienze”.

Hoffman elabora anche una matematica del modo in cui gli agenti coscienti farebbero esperienza e reagirebbero “liberamente” alla stessa, conservandone memoria. A questo fine egli suppone che gli agenti coscienti funzionino come macchine di Turing universali e che facciano scelte interpretabili come passaggi attraverso kernel markoviani in spazi misurabili (le cui dimensioni fondamentali sarebbero quella delle esperienze e quella delle azioni ad esse corrispondenti).

In questo modo Hoffman cerca di ricondurre i meccanismi “visibili” della selezione naturale a un loro ipotetica radice “matematica” nella “cosa in sé”. Tuttavia, le perplessità sopra avanzate sull’uso che Hoffman fa della teoria dell’evoluzione rimangono. Infatti, questi agenti coscienti sembrano richiedere “tempo” per poter operare. Forse si tratta di un tempo diverso da quello illusorio? Eppure questo tempo, per funzionare, dovrebbe essere altrettanto lineare e orientato nella direzione passato-futuro di quello illusorio…

Anche il meccanismo con cui questi agenti scelgono non è chiaro. Si tratta di scelte casuali, “migliorate” per prova ed errore? Hoffman intende così reinterpretare il libero arbitrio? E perché questo meccanismo dovrebbe essere cosciente anziché no? Lo hard problem è veramente risolto?

N. B. È interessante il passaggio in cui Hoffman distingue tra esperienze per definizione coscienti e azioni che ne seguirebbero, intrinsecamente inconsce, ma delle quali faremmo indirettamente esperienza (cosciente) per i loro effetti, inducendoci a correggere via via il tiro.  Ciò mi ispira alcune idee sull’eterogenesi dei fini che potrei sfruttare per migliorare il mio modello.

Inutile dire che, secondo me, se davvero spazio e, soprattutto, tempo sono “condannati”, cioè, per la precisione, vengono intesi come manifestazione della stessa coscienza e non qualcosa di antecedente ad essa, questa proliferazione di agenti coscienti che si potrebbero o meno associare per “istanziarne” altri di livello superiore è del tutto superflua (oltre che contraddittoria, in quanto sembra presupporre, se non uno spazio, almeno un “tempo” in cui tale “rete” possa svilupparsi).

Se spazio e tempo non hanno carattere oggettivo, nulla mi separa “realmente” da te, mio lettore. Mi sembra sufficiente postulare che la coscienza sia, di volta in volta, una sola, quella che possiamo attribuire all’universo stesso. Guardando mia moglie indovino dietro al suo sorriso nient’altro che una forma che la coscienza dell’universo assunse o assumerà in una fase diversa da questa, in cui la coscienza universale abita in me.

Non è affatto necessario attribuire coscienza agli elettroni, come non è necessario attribuirla alle cellule del mio corpo. Si tratta di parti dell’icona (per usare la terminologia di Hoffman) dietro la quale si nasconde, di volta in volta, la sola unica coscienza, la quale assume le forme più diverse.  Anche il mio corpo che dorme di sonno profondo (o il mio sistema immunitario) è parte dell’icona. Se spazio e tempo sono soggettivi, ciò che appare separato nello spazio e nel tempo può benissimo essere parte della figura complessiva che di volta in volta la coscienza assume (“io dico l’universo”, visto come nastro di Moebius in cui percezioni ed emozioni non sono che due facce della stessa medaglia).

About Being you


Anil Seth’s book, Being you. A New Science of Consciousness, Faber & Faber, London 2021, proposes an intriguing theory of consciousness that seems quite convincing, although it explicitly refuses to confront the hard problem of consciousness, as David Chalmers calls it, and so evades the crucial question in my opinion.

What, then, are the main reasons for the volume’s interest?

The basic interpretation of the consciousness that Seth provides is convincing: it would be a system that, based on a predictive approach (“bayesian”), “hallucinates” a “functional” reality, not necessarily similar to the “true reality” (Seth himself in the epilogue recalls the Kantian distinction between phenomenon and noumenon and alludes to the possibility that even the three-dimensional fabric of space – unfortunately he does not speak of time, which is very close to my heart, – can be a “perceptive effect”).

Within certain limits it also convinces the “naturalistic” point of view adopted by Seth, who assigns more relevance to the “real problem” of consciousness, as he calls it, than to the “hard problem”. I intend this as follows: any interpretation of the functioning of consciousness must be consistent with empirical data: although consciousness, as a subjective experience, is not the brain, nothing prevents (indeed everything suggests) that there is a close correlation between consciousness and brain (or body), between “inside” and “outside”. So it is right to “naturalize” the problem of the consciousness not assuming only a “transcendental” perspective (This “naturalization” does not exclude such a trascendental perspective: phenomenological analysis, simply, cannot be incongruous with the empirical data: e.g. it cannot be that I perceive a cat if my brain sends the waves typical of deep sleep).

It must be said that, although Seth is a neuroscientist, his theory appears more speculative than “scientific”. Seth certainly takes inspiration from observations and experiments of his own and of others, but what gives meaning to the volume is an overall interpretation that is certainly authorized by empirical data, but is not the only possible.

In my point of view a problem, as mentioned, is that Seth, despite his speculative “drift”, claims to evade the “hard problem”.

He claims to distinguish what he calls real problem  (the problem of explaining “scientifically” consciousness) from “easy problems”, as Chalmers calls them, which would concern the “functioning” of consciousness.  Yet, in the end, Seth also explains consciousness functionally (with his Bayesian theory) taking for granted the phenomenology of consciousness. But this phenemology is exactly what distinguishes consciousness as first-person experience. This should have been a matter of explaining. But Seth doesn’t follow this way.

Seth ultimately fails to “justify” the very existence of consciousness. Why couldn’t its effective Bayesian functioning be implemented by an unconscious system, as are, according to Seth, some different forms of artificial intelligence?

The reductionist approach, in general, to nature is useful but not exclusive (as Seth presents it with epistemological fallacy in my point of view).

Let’s consider the reductionist approach to life in modern biology, which Seth considers paradigmatic. It merely shifts the “hard problem” (what life is and why it exists), doesn’t dissolve it into a cloud of metaphysical smoke, as Seth thinks.

The same applies to the problem of the existence of consciousness (Chalmers’ hard problem, in fact). If I am a self-regulating system whose goal is to survive, why do I need to be conscious? You can build systems that self-regulate themselves based on the inputs they receive without being alive and conscious.

The right distinction that Seth makes, in the last chapter before the epilogue, between consciousness and intelligence suggests (cf. the pages on which he guesses unlikely that a machine capable of “predictive processing” is aware) that this “predictive processing”, which according to him characterizes consciousness, can characterize also simply an intelligent system capable of self-regulation, but unconscious.

Seth also discusses the interesting paradox of teleportation: if a certain Eva entered, here on Earth, into a teleportation machine that would disintegrate her and then rebuild her elsewhere, e.g. on Mars,  could you say that Eva is always Eva? Would her consciousness be the same? And if, due to a machine failure, the “terrestrial” Eva survives and a second Eva, identical to the first, is reproduced on Mars, which one would Eva be? (Seth also evokes somewhere the “split brain” and the interesting real case of the Siamese twins united by the brain).

In all these cases, in my opinion, we continue to escape the problem. It is not enough to say “both women are Eva”. You who have entered the machine, will you find yourself on Mars or on Earth? My answer is: on Earth . On Mars there is a clone (with your memory). It cannot be physical identity that determines the continuity of consciousness. If anything, the opposite. Everyone who enters a transporter machine dies instantly even if no one notices.

Likewise the representation of a “diffused” consciousness in the octopus, which Seth presents in the last chapter, does not seem justified to me. Seth can recognize that parts of the octopus move with great autonomy and intelligence (after all, our heart and our immune system do too). But a consciousness that is not “one” is unthinkable. Whatever it was, it would not be what we mean by consciousness.

Attention: I don’t’ claim that whoever is conscious (someone in particular or the universe itself) must conceive of himself or of herself necessarily as one and as a body. This may well be a hallucination. One can identify himself or herself with this or that, but who identifies himself or herself  with this or that – suppose erroneously  – cannot but have one consciousness if he or she has consciousness. It makes no sense to say that he or she can have two or more “consciousnesses” or a “diffused” consciousness, whatever this means. If two people had the same consciousness, exactly as two parts of an animal, they can simultaneously perceive themselves suppose both in Rome and in London: they must have only one consciousness with two or more perceptions (as I now see more colors). If they have this “consciousness” at different times, they still has only one consciousness that simply moves and becomes filled in time with different contents.

Seth roots consciousness in life rather than intelligence. Interesting and plausible. But how to prove it?
It’s just a conjecture.
Many living activities, even human and even very complex ones, take place unconsciously. Perhaps the function of consciousness is linked to the possibility of experiencing pleasure and pain to orient oneself in the world between opportunities and dangers? But even an unconscious mechanism emulated by a robot could do it…

About function of plesure and pain see my recent post.

We come, finally, to the epistemologically pivotal issue, in my opinion.

If everything is controlled hallucination, including external objects, even the limbic system or the cerebellum or the neurocortex are hallucinations, even the living body is a hallucination that seems to us to occupy a three-dimensional space, even space and time  themselves: Seth assigns them a role just because he needs to believe that they exist as external objects in order to survive (as a neuroscientist rather than as a mystic?). It is the “mise en abime” that distinguishes every radical naturalism (taken to its extreme consequences) that ends up making it an idealism.

For the truth, on page 272 Seth seems to apply his theory of consciousness to itself: as consciousness works as predictive, not “objective”, so also a theory of consciousness works if it obeys a Bayesian epistemology. But it is like saying that his theory can safely be also false! In short, it does not fall into the paradox of the liar?

In this “idealistic” perspective I can agree with Seth that the self is a hallucination, not unlike other “objects”: maybe the One (God, Shiva etc.) identifies himself erroneously with me and with you (and with Seth and so on).
But Seth seems to think that “who” is wrong in these identifications is not the One, but my or your or his “living body”, This is because, in my opinion, he ends up committing the same mistake that he unmasked, assigning to a phantom living body a fundamental reality, while on the basis of its own criteria and results it must be considered a hallucination, a construct functional to life.

In general, however, this book is really very interesting and inspiring, everyone should read it.

But with a warning: as mentioned above, many of Seth’s theories (e.g. that consciousness is linked to life or is predictive), as many other intriguing theories that Seth cites (e.g. Friston’s Free Energy Theory), are not immediately derived from experiments but seem speculative interpretations of experiments (which is fine to me, I find it inevitable) and provoke further speculative hypotheses.


With a pun you could say that the theory of predictive consciousness is not itself… predictive (controllable by experiments that could falsify it). Too much Bayesianism, after all, can inebriate, as Popper argued!