Introduzione: Quando la termodinamica incontra la coscienza
Nel 1979, il fisico Freeman Dyson pubblicò uno dei paper più audaci nella storia della cosmologia: “Time Without End: Physics and Biology in an Open Universe” (Reviews of Modern Physics, Vol. 51, Issue 3, pp. 447-460). In questo lavoro pioneristico, Dyson argomentò che la vita e l’intelligenza potrebbero sopravvivere indefinitamente in un universo in espansione eterna, utilizzando solo una quantità finita di energia per eseguire un numero infinito di operazioni computazionali. Questo scenario, noto come “intelligenza eterna di Dyson” o “pensieri freddi” (cold thoughts), rappresenta una delle speculazioni più affascinanti all’intersezione tra fisica, biologia, termodinamica computazionale e filosofia della mente.
Tuttavia, scoperte cosmologiche successive—in particolare l’accelerazione dell’espansione universale dovuta all’energia oscura (1998)—hanno minato le assunzioni fondamentali su cui si basava la proposta di Dyson. Questo articolo esamina con rigore analitico sia la brillante intuizione originale che le sue limitazioni scientifiche, esplorando i meccanismi profondi della termodinamica computazionale, le previsioni sul futuro remoto dell’universo, e i concetti di coscienza digitale che renderebbero teoricamente possibile la sopravvivenza in ambienti estremi.
L’Idea Geniale di Dyson: Rallentare per Sopravvivere
Quando Dyson scrisse il suo paper nel 1979, lo fece come risposta diretta a Steven Weinberg, che nel suo “The First Three Minutes” aveva scritto una frase terribilmente deprimente: “Più l’universo appare comprensibile, più appare anche privo di scopo.” Dyson non era d’accordo. E così, durante quattro conferenze alla New York University nell’autunno del 1978, elaborò la sua risposta: no, l’universo non è necessariamente privo di scopo, perché la vita potrebbe continuare per sempre.
Il paper completo è disponibile online—lo trovate su Reviews of Modern Physics (Vol. 51, Issue 3, pp. 447-460, DOI: 10.1103/RevModPhys.51.447). Vale la pena leggerlo perché Dyson scrive in modo meravigliosamente chiaro per essere un fisico teorico. Non usa matematica oscura per nascondere le sue assunzioni; al contrario, le espone chiaramente e ti invita a seguire il ragionamento passo dopo passo.
L’intuizione centrale è questa: il costo energetico del pensiero scala con la temperatura. Più freddo sei, meno energia ti serve per pensare lo stesso pensiero. Sembra banale, ma le implicazioni sono enormi.
Immaginate il vostro cervello che funziona a circa 37°C. Per pensare un pensiero semplice—tipo “dovrei indossare un cappello buffo”—il vostro cervello consuma circa 20 joule di energia, e ci mette un secondo. Ora, se poteste far funzionare il vostro cervello a 18°C (metà della temperatura), cosa succederebbe? Pensereste il doppio più lentamente—quel pensiero richiederebbe due secondi invece di uno—ma consumereste solo 10 joule invece di 20.
Vedete il trucco? State barattando velocità per efficienza energetica. E se la temperatura continua a scendere, questo baratto diventa sempre più vantaggioso. A un decimo della vostra temperatura attuale, quel pensiero richiederebbe dieci secondi, ma consumerebbe solo 2 joule.
“Ma aspetta,” direte voi, “penserò così lentamente che non mi importerà più di nulla!” Ed è qui che Dyson introduce il concetto brillante di tempo soggettivo. Se voi e il mondo intorno a voi rallentate allo stesso ritmo, non ve ne accorgete. Dal vostro punto di vista interno, tutto continua a sembrare normale. È solo un osservatore esterno che vi vedrebbe muovervi al rallentatore cosmico.
Dyson formalizza tutto questo matematicamente. Definisce il tempo soggettivo come:
\[ u(t) = f \int_{0}^{t} \theta(t’) \, dt’ \]
dove θ è la temperatura e f è una costante. Quello che questa formula dice è che il vostro tempo soggettivo—quanto “tempo” sentite passare—dipende da quanto siete caldi. Se vi raffreddate abbastanza lentamente mentre l’universo si raffredda, il vostro tempo soggettivo può estendersi all’infinito anche se l’energia totale che consumate rimane finita.
E qui arriva la parte davvero sorprendente: Dyson calcola che l’energia totale necessaria per un’esistenza soggettivamente infinita è di circa 6×10³⁷ erg ossia 6 × 1030 joules.
Erg:
L’erg è un’unità di misura del lavoro e dell’energia nel sistema centimetro-grammo-secondo (CGS). È definita come il lavoro compiuto da una forza di una dina quando sposta il suo punto di applicazione di un centimetro nella stessa direzione della forza. In termini più semplici, l’erg equivale a 10⁻⁷ joule, che è l’unità di energia nel Sistema Internazionale (SI)
Questo sembra un numero enorme, ma in termini cosmici è ridicolmente piccolo—equivale a circa otto ore di output del Sole. Otto ore! Catturate l’energia del Sole per un terzo di una giornata, e in teoria avreste abbastanza energia per mantenere in vita una civiltà per sempre.
Naturalmente, c’è un prezzo da pagare. Non potete stare “accesi” tutto il tempo—l’energia si esaurirebbe troppo velocemente. La strategia è l’ibernazione. Passate un po’ di tempo svegli e attivi (quello che Dyson chiama il “giorno cosmico”), poi vi spegnete completamente e lasciate che il vostro substrato fisico si raffreddi irradiando calore nello spazio (la “notte cosmica”). Quando vi risvegliate, siete un po’ più freddi, quindi pensate un po’ più lentamente, ma consumate meno energia per ogni pensiero.
All’inizio, le notti sono brevissime—magari poche ore—mentre i giorni sono lunghissimi, milioni di anni. Ma man mano che l’universo si raffredda e voi con esso, le notti devono diventare sempre più lunghe. Dopo 100 trilioni di anni di questo ciclo, la vostra temperatura è scesa a circa 230 Kelvin sopra lo zero assoluto. Ogni pensiero ora richiede 1.3 secondi invece di uno (dal vostro punto di vista non ve ne accorgete), e ogni notte cosmica dura 400.000 anni. Ma dal vostro punto di vista soggettivo, avete sperimentato l’equivalente di 76 trilioni di anni di vita—più di 5.000 volte l’età dell’universo attuale.
E potete continuare. Per sempre. O almeno, questa era l’idea.
La Morte Termica: Quando l’Universo Si Ferma (Quasi)
Prima di capire perché lo scenario di Dyson alla fine non funziona, dobbiamo capire cosa significa veramente “morte termica dell’universo”. Non è che l’universo diventi freddo in senso assoluto—anche se sì, anche quello—ma piuttosto che raggiunge uno stato dove non può più succedere nulla di interessante.
La morte termica è uno stato di massima entropia ed energia libera zero. Immaginate una tazza di caffè caldo in una stanza fredda. All’inizio c’è un gradiente—il caffè è caldo, la stanza è fredda. Potete sfruttare questo gradiente per fare lavoro (in teoria, potreste costruire una minuscola macchina termica tra la tazza e l’aria). Ma aspettate abbastanza a lungo, e il caffè si raffredda alla temperatura della stanza. A quel punto, non c’è più gradiente. L’energia è ancora lì—nulla si è perso—ma è distribuita uniformemente, e senza un gradiente non potete più farci niente di utile.
La morte termica dell’universo è questo, ma su scala cosmica. Tutta l’energia si distribuisce uniformemente, ogni gradiente di temperatura scompare, e l’universo raggiunge l’equilibrio termodinamico. A quel punto, tecnicamente, c’è ancora energia—ma è completamente inutilizzabile.
Questo incubo termodinamico deriva dalla seconda legge della termodinamica, che nella sua forma più semplice dice che l’entropia di un sistema isolato non può diminuire. Rudolf Clausius, che coniò il termine “entropia” nel 1865, lo mise in termini ancora più drammatici: “L’entropia dell’universo tende a un massimo.”
L’entropia, nella formulazione di Ludwig Boltzmann, è definita come:
\[ S = k_B \ln \Omega \]
dove \(S\) è l’entropia, \(k_B\) è la costante di Boltzmann (una costicina minuscola: 1.38 × 10⁻²³ joule per Kelvin), e \(Omega\) è il numero di modi in cui gli atomi del sistema possono essere arrangiati mantenendo lo stesso stato macroscopico. In altre parole, l’entropia misura quanto è “disordinato” un sistema a livello microscopico.
La seconda legge dice semplicemente: \(\frac{dS}{dt} \geq 0\). L’entropia aumenta sempre (o al massimo rimane costante nei processi perfettamente reversibili, che in pratica non esistono). È una legge statistica, non assoluta—tecnicamente potreste vedere tutte le molecole d’aria nella vostra stanza spontaneamente raccogliersi in un angolo, lasciandovi nel vuoto. Ma la probabilità è così astronomicamente piccola che non succederà mai nell’intera vita dell’universo.
Lord Kelvin fu il primo a estrapolare questa legge a scala cosmica nella seconda metà del 1800, e la conclusione fu deprimente: se l’universo è un sistema isolato (e cos’altro potrebbe essere? Se così non fosse, significherebbe che esiste qualcosa al di fuori dell’universo, il che contraddirebbe il significato stesso della parola ‘universo’), alla fine raggiungerà la massima entropia, e tutto si fermerà.
Ma qui le cose si complicano un po’. Applicare la termodinamica all’universo intero non è così semplice. Max Planck nel 1903 disse esplicitamente che la frase “entropia dell’universo” non ha una definizione precisa. E aveva ragione—i sistemi gravitazionalmente legati, per esempio, si comportano in modi strani. Hanno capacità termica negativa: quando perdono energia, le velocità dei loro componenti aumentano invece di diminuire. Lee Smolin osservò che questi sistemi “non evolvono verso uno stato di equilibrio omogeneo. Invece diventano sempre più strutturati ed eterogenei.”
Ma mettiamo da parte questi caveat per il momento e assumiamo che, alla lunga, l’universo si avvicini comunque a uno stato di equilibrio termico. Come sarà questo futuro?
Il Costo di un Pensiero: Termodinamica Computazionale
Ora arriviamo a una delle parti più affascinanti di tutta questa storia: quanto costa veramente pensare un pensiero? Non in senso metaforico o psicologico, ma in termini fisici, termodinamici. Quanta energia minima dovete dissipare per eseguire un’operazione computazionale?
La risposta è stata scoperta da Rolf Landauer della IBM nel 1961, in un paper che inizialmente sembrò oscuro ma che è diventato uno dei fondamenti della fisica dell’informazione. Landauer si chiese: cosa succede quando cancellate un bit di informazione?
Immaginate di avere un bit in memoria—un 0 o un 1. Adesso volete cancellarlo, riportarlo a uno stato standard (diciamo, 0). Questa operazione è logicamente irreversibile—una volta cancellato, non potete più sapere se era 0 o 1. E Landauer dimostrò che qualsiasi operazione logicamente irreversibile deve dissipare una quantità minima di energia nell’ambiente come calore:
\[ E_{\text{min}} = kT \ln(2) \]
dove k è la costante di Boltzmann e T è la temperatura. A temperatura ambiente (300 K), questo corrisponde a circa 3 × 10⁻²¹ joule per bit. È un’energia minuscola—servirebbero circa 10 miliardi di miliardi di cancellazioni per riscaldare un grammo d’acqua di un grado—ma non è zero.
Questo è il principio di Landauer, e le sue implicazioni sono profonde. Dice che l’informazione è fisica. Non è un’astrazione matematica che fluttua nel regno platonico delle idee—è legata al mondo fisico da vincoli termodinamici fondamentali. E dice qualcosa di ancora più profondo: la computazione ha un costo energetico intrinseco, e quel costo è direttamente legato alla temperatura.
Ma aspettate. Landauer dice che cancellare un bit costa energia. E se non cancellaste mai niente? E se tutte le vostre operazioni fossero logicamente reversibili?
Charles Bennett, un altro brillante fisico della IBM, esplorò questa possibilità negli anni ’70. Dimostrò che qualsiasi computazione può, in principio, essere riformulata in termini di operazioni reversibili. In una computazione reversibile, potete sempre “andare indietro” e ricostruire lo stato iniziale dallo stato finale. E qui arriva la parte sorprendente: le operazioni reversibili possono, in teoria, essere eseguite con dissipazione energetica zero.
Non sto dicendo che potete far girare il vostro laptop senza batteria. La computazione reversibile richiede isolamento perfetto dal rumore termico, controllo quantistico precisissimo, e tutta una serie di requisiti praticamente impossibili da soddisfare su larga scala. Ma in principio, è possibile.
E questo è cruciale per lo scenario di Dyson. Se la vita deve sopravvivere eternamente con energia finita, deve usare computazione reversibile. Non c’è alternativa. Con computazione irreversibile, ogni operazione costa almeno \(kT \ln(2)\) joule, e anche se T diventa molto piccolo, una quantità finita di energia vi permette solo un numero finito di operazioni.
Ma c’è un altro limite, più fondamentale, che nemmeno la computazione reversibile può aggirare: il limite di velocità quantistico. Margolus e Levitin dimostrarono nel 1998 che c’è un limite superiore assoluto sulla velocità con cui un sistema quantistico può evolvere. La velocità di processing massima è:
\(≤ 6 × 10³³\) operazioni al secondo per joule di energia
Questo è un limite fondamentale, imposto dalla meccanica quantistica stessa. Non importa quanto siete intelligenti nel progettare il vostro computer—non potete superare questo limite. E significa che c’è un compromesso ineludibile tra energia e velocità: se volete pensare velocemente, dovete spendere molta energia. Se avete poca energia, dovete pensare lentamente.
Ed ecco perché lo scenario di Dyson funziona (almeno in teoria): man mano che la temperatura dell’universo scende, il costo energetico per operazione diminuisce proporzionalmente. A 300 K, cancellare un bit costa 3 × 10⁻²¹ J. A 3 K, costa 3 × 10⁻²³ J. A 0.03 K, costa 3 × 10⁻²⁵ J. Potete continuare a scendere, e il costo continua a diminuire.
Se potete raffreddare il vostro substrato computazionale abbastanza lentamente, sincronizzandolo con il raffreddamento dell’universo, e se usate computazione completamente reversibile, e se il duty cycle (il tempo che passate “accesi” vs. “spenti”) scala nel modo giusto… allora sì, in teoria, con energia finita potete eseguire un numero infinito di operazioni ed esperire un tempo soggettivo infinito.
Ma—e questo è un “ma” enorme—tutto questo richiede che l’universo continui a raffreddarsi per sempre, avvicinandosi asintoticamente allo zero assoluto. E qui è dove lo scenario di Dyson inizia a crollare.
Il Futuro Lontanissimo: Una Timeline Dell’Apocalisse Cosmica
Fred Adams e Gregory Laughlin, nel loro bellissimo libro “The Five Ages of the Universe” (1999), hanno creato una timeline dettagliata di cosa succederà all’universo nei prossimi… beh, praticamente per sempre. Hanno diviso il futuro cosmico in “decadi cosmologiche”—dove la decade n corrisponde all’intervallo tra \(10^n\) e \(10^{n+1}\) anni. Siamo attualmente nella decade 10 (tra 10 miliardi e 100 miliardi di anni dopo il Big Bang).
Ecco cosa ci aspetta:
Tra 10¹² e 10¹⁴ anni (100 trilioni di anni): Le ultime stelle si formeranno. Dopo questo punto, non c’è più abbastanza gas interstellare per formare nuove stelle. L’universo entra in quella che Adams e Laughlin chiamano l’Era Degenerata—un periodo dominato non da stelle luminose, ma dai loro cadaveri freddi: nane bianche, stelle di neutroni, buchi neri, e nane brune (stelle mancate che non sono mai riuscite ad accendere la fusione nucleare).
Le ultime piccole stelle rosse—quelle che bruciano così lentamente da poter durare trilioni di anni—esauriranno il loro combustibile. L’universo diventerà buio. Non completamente buio—ci saranno ancora un po’ di collisioni occasionali tra nane brune che potrebbero accendere brevemente la fusione—ma essenzialmente, l’era delle stelle sarà finita.
Le nane bianche si raffreddano in nane nere: Questo processo è straordinariamente lento. Una nana bianca inizia la sua vita a circa 100.000 Kelvin. Dopo un miliardo di anni, è scesa a circa 8.000 K (7727 °C)—ancora caldissima per i nostri standard. A questo punto, il suo nucleo si cristallizza, formando essenzialmente un gigantesco diamante caldo delle dimensioni della Terra. Ci vogliono altri quattro miliardi di anni perché la cristallizzazione sia completa.
Ma anche dopo, il raffreddamento continua. Una nana bianca impiega circa 10¹⁵ anni (un quadrilione di anni) per raffreddarsi abbastanza da diventare una vera nana nera—un oggetto completamente freddo e inerte, invisibile, che semplicemente esiste senza fare nulla. E notate che questo è più lungo dell’attuale età dell’universo di un fattore 70.000. Non esistono ancora nane nere nell’universo—il cosmo è troppo giovane. Le nane bianche più vecchie che conosciamo hanno solo 11-12 miliardi di anni e sono ancora a 3.000-4.000 K.
Tra 10⁶⁷ e 10¹⁰⁰ anni: Entriamo nell’Era dei Buchi Neri. A questo punto, se i protoni sono stabili (ci arriviamo tra poco), l’universo è pieno di nane nere fredde e buchi neri. Ma i buchi neri non durano per sempre.
Stephen Hawking predisse nel 1974 che i buchi neri emettono radiazione termica—la famosa radiazione di Hawking. Questo avviene perché fluttuazioni quantistiche vicino all’orizzonte degli eventi possono creare coppie di particelle virtuali, e occasionalmente una particella scappa mentre l’altra cade nel buco nero. Dal punto di vista esterno, sembra che il buco nero stia emettendo radiazione e perdendo massa.
La temperatura di un buco nero è inversamente proporzionale alla sua massa: \(T_H \approx 6 \times 10^{-8} \left( \frac{M_{\odot}}{M} \right) \ \text{K}\), dove \(M_{\odot}\) è la massa del Sole. Un buco nero di massa solare ha una temperatura di solo 60 nanokelvin—incredibilmente freddo. Ma buchi neri più piccoli sono più caldi, e più sono caldi, più velocemente evaporano.
Il tempo di evaporazione scala come il cubo della massa: un buco nero di una massa solare impiega circa 10⁶⁷ anni per evaporare completamente. Un buco nero supermassiccio da un miliardo di masse solari dura circa 10⁹³ anni (1083 trilioni di anni). I buchi neri più grandi che conosciamo, da 10-100 miliardi di masse solari, potrebbero durare fino a 2 × 10¹⁰⁰ anni.
Ma alla fine, anche loro evaporano. L’evaporazione è lenta all’inizio, ma accelera man mano che il buco nero perde massa e si riscalda. Gli ultimi momenti sono esplosivi—una scarica finale di radiazione ad alta energia, e poi… niente. Il buco nero è sparito.
E i protoni?: C’è un grosso “se” in tutto questo. Molte teorie di grande unificazione (GUT) predicono che i protoni—i nuclei degli atomi di idrogeno, i mattoni fondamentali della materia ordinaria—non sono stabili. Secondo queste teorie, un protone alla fine decade in particelle più leggere, come un positrone e un pione neutrale, che a sua volta decade in fotoni.
Il tempo di vita previsto è enorme: circa 10³⁴ anni. Gli esperimenti più sensibili, come Super-Kamiokande in Giappone, hanno stabilito che se i protoni decadono, lo fanno con una vita media superiore a 1.67 × 10³⁴ anni. Ma non abbiamo ancora osservato un singolo protone decadere—il che significa o che sono molto più stabili di quanto pensassimo, o che sono completamente stabili.
Se i protoni decadono, allora entro circa 10⁴⁰ anni, tutta la materia ordinaria si disintegra. Le nane bianche “sublimano”, le stelle di neutroni si dissolvono, e rimangono solo buchi neri, leptoni, e radiazione. In questo scenario, l’universo è dominato dai buchi neri molto prima di quanto pensassimo.
Ma se i protoni non decadono, le cose diventano ancora più strane.
10¹⁵⁰⁰ anni: L’era delle stelle di ferro: Attraverso processi quantistici estremamente lenti—fusione pycnonucleare, dove i nuclei fanno tunneling attraverso le barriere di repulsione elettrica anche a temperature zero—la materia potrebbe lentamente fondersi in nuclei sempre più pesanti. Il nucleo più stabile è il ferro-56, che ha l’energia di legame per nucleone più alta. Quindi, data abbastanza tempo, tutta la materia potrebbe convertirsi in ferro.
Le nane nere diventerebbero “stelle di ferro”—sfere gigantesche di ferro a temperatura quasi zero. E poi, tra 10¹⁰²⁶ e 10¹⁰⁷⁶ anni, anche queste potrebbero collassare. Se una stella di ferro è abbastanza massiccia, potrebbe collassare in una stella di neutroni o un buco nero. Se non è abbastanza massiccia, potrebbe semplicemente rimanere lì per… sempre?
O forse no. Matthew Caplan dell’Illinois State University ha calcolato che le nane bianche massicce (sopra 1.2 masse solari) potrebbero esplodere in supernove pycnonucleari circa 10¹¹⁰⁰ anni nel futuro. La fusione quantistica convertirebbe gradualmente il carbonio e l’ossigeno della nana bianca in nichel-56, che è instabile. Quando si accumula abbastanza nichel, l’intera stella esplode. Queste sarebbero le ultime luci nell’universo morente—esplosioni spettrali in un cosmo altrimenti completamente oscuro.
10¹⁰⁰ anni e oltre: Benvenuti nell’Era Oscura. A questo punto, probabilmente rimangono solo fotoni, neutrini, elettroni e positroni—tutte particelle che non interagiscono molto tra loro. La temperatura di fondo cosmico è indistinguibile dallo zero assoluto. La densità dell’energia è incredibilmente bassa. E fondamentalmente, l’universo è… finito. Non nel senso che cessa di esistere, ma nel senso che non succede più nulla di interessante.
Almeno, questo era lo scenario che Dyson aveva in mente quando scrisse il suo paper. Un universo freddo, oscuro, ma ancora esistente. Un posto dove, in teoria, la vita potrebbe continuare a pensare pensieri sempre più lenti per sempre.
Dove Tutto Crolla: L’Energia Oscura e i Suoi Amici
Ecco la parte triste della storia. Lo scenario di Dyson era elegante, matematicamente coerente, e rispettava tutte le leggi fisiche conosciute nel 1979. Ma nel 1998, due team di astronomi che studiavano supernove lontane fecero una scoperta scioccante: l’universo non sta solo espandendosi, sta accelerando.
Questo non doveva succedere. La gravità dovrebbe rallentare l’espansione, non accelerarla. Ma le osservazioni erano chiare: qualcosa—che chiamiamo “energia oscura” per mancanza di un nome migliore—sta spingendo lo spazio ad espandersi sempre più velocemente.
E questa scoperta demolisce completamente le fondamenta dello scenario di Dyson.
Il problema della temperatura minima
Dyson assumeva un universo aperto in espansione decelerata—un universo che si espande per sempre, ma rallentando gradualmente, permettendo alla temperatura di avvicinarsi asintoticamente allo zero assoluto. In un tale universo, potreste continuare a raffreddarvi per sempre, e quindi il vostro budget energetico (in termini di operazioni computazionali per joule) crescerebbe senza limite.
Ma in un universo con energia oscura (che sembra essere il nostro), le cose sono diverse. L’energia oscura può essere modellata come una costante cosmologica positiva, e questo crea un orizzonte cosmico permanente. Pensate all’orizzonte come a una sfera invisibile che vi circonda: qualsiasi cosa oltre quell’orizzonte è causalmente disconnessa da voi. La luce emessa da là non vi raggiungerà mai, non importa quanto aspettiate.
E un orizzonte cosmico ha una temperatura. È chiamata temperatura di Gibbons-Hawking, ed è analoga alla temperatura di Hawking di un buco nero. Per l’energia oscura che osserviamo nel nostro universo, questa temperatura si aggira tra 10⁻²⁹ a 10⁻³⁰ Kelvin.
Sembra incredibilmente freddo, vero? Ma il punto cruciale è che è maggiore di zero. E questo significa che l’universo non può mai raffreddarsi sotto questo valore. C’è una temperatura minima, un limite inferiore fondamentale. E questo rompe completamente la strategia di Dyson di continuare a raffreddarsi per sempre.
Se c’è una temperatura minima \(T_{min}\), allora c’è anche un costo energetico minimo per operazione computazionale: \(E_{min} = k T_{min} ln(2)\). E con energia finita, potete eseguire solo un numero finito di operazioni. Potete affinare all’infinito la vostra efficienza operativa e usare la computazione reversibile: la matematica, però, non concede scampo.
Il problema dell’informazione finita
Ma c’è di peggio. Lawrence Krauss e Glenn Starkman, due fisici che presero seriamente lo scenario di Dyson e lo esaminarono alla luce della cosmologia moderna, pubblicarono un paper nel 2000: “Life and Death in an Ever-Expanding Universe”.
La loro argomentazione è elegante e brutale. In un universo con energia oscura, c’è un volume finito di spazio con cui potete mai interagire (tutto ciò che è dentro il vostro orizzonte cosmico). E quel volume finito può contenere solo una quantità finita di informazione. Il limite è dato dal bound di Bekenstein: il massimo contenuto informativo di una regione di spazio è proporzionale all’area del suo confine, non al volume.
Per un orizzonte cosmico del raggio che ha il nostro universo, il contenuto informativo totale è mostruosamente grande ma finito—circa 10¹²⁰ bit. Questo sembra un numero enorme, ma se la coscienza richiede computazione (e cosa altro potrebbe richiedere?), allora con informazione finita potete eseguire solo un numero finito di stati computazionali distinti.
Krauss e Starkman concludono seccamente: “L’informazione totale recuperabile da qualsiasi civiltà nell’intera storia del nostro universo è finita, e assumendo che la coscienza abbia una base computazionale fisica, la vita non può essere eterna.”
Quando gli chiesero della sua reazione a queste scoperte, Dyson ammise onestamente: “In quei giorni quando scrissi quello… tutti credevano che l’universo si stesse espandendo linearmente… ora sappiamo che l’universo sta accelerando… e in un universo accelerato tutto è diverso quindi tutta quella discussione è ora sbagliata.”
È raro vedere uno scienziato del calibro di Dyson ammettere così francamente che un suo lavoro importante è stato invalidato. Ma è anche un bell’esempio di integrità scientifica: quando l’evidenza cambia, cambi la tua mente.
Gli altri problemi
Anche se l’energia oscura non esistesse, ci sarebbero altri ostacoli formidabili:
Decoerenza quantistica: Come preservate l’informazione per 10⁴⁰+ anni contro il rumore quantistico, il tunneling, e le fluttuazioni del vuoto? Anche a temperature incredibilmente basse, gli effetti quantistici possono corrompere la memoria. È un po’ come cercare di mantenere un castello di sabbia intatto mentre le onde, anche piccolissime, continuano a colpirlo—eventualmente, la struttura si degrada.
Decadimento del protone: Se i protoni decadono con una vita media di ~10³⁴ anni (come molte teorie GUT predicono), allora tutta la materia ordinaria si disintegra molto prima di raggiungere le timeline cosmiche di cui Dyson parlava. Le nane bianche sublimerebbero, le stelle di ferro non si formerebbero mai, e saremmo lasciati con… cosa esattamente? Leptoni e radiazione? Non è ovvio come costruireste un substrato computazionale stabile con quello.
Transizioni quantistiche spontanee: Su scala temporale estremamente lunghi, anche la materia “stabile” potrebbe fare tunneling spontaneo verso stati di energia più bassa. La materia barionica potrebbe convertirsi in buchi neri, che poi evaporano via radiazione di Hawking. Il punto finale dell’universo probabilmente non è materia fredda, ma radiazione diluita.
Materia barionica
i barioni sono particelle subatomiche composte da tre quark (come protoni e neutroni). La materia barionica è la materia “ordinaria” che compone stelle, pianeti e noi stessi.
Ci sono dettagli tecnici su tutti questi punti, ma la conclusione generale è chiara: l’universo reale è molto meno accogliente per la vita eterna di quanto Dyson sperava.
Menti Digitali: L’Ultima Trasformazione
C’è un elefante nella stanza che non ho ancora menzionato esplicitamente. Nello scenario di Dyson, la “vita” che sopravvive non può essere vita biologica come la conosciamo. Un cervello umano fatto di neuroni e sinapsi non può funzionare a 0.1 Kelvin. Il sangue congela a 273 K. Le membrane cellulari diventano rigide. Gli enzimi smettono di funzionare. È fisicamente impossibile.
Quindi, se la vita deve sopravvivere nell’universo morente, deve prima abbandonare la biologia.
Questa è l’idea del mind uploading o whole brain emulation: trasferire la nostra mente—i nostri pensieri, memorie, la nostra coscienza—da un substrato biologico a uno artificiale. Diventare, essenzialmente, software. E poi, una volta digitalizzati, potremmo essere eseguiti su hardware sempre più freddo, rallentando gradualmente ma continuando a pensare.
Ma è davvero possibile? Questa domanda ci porta in territori filosofici profondi e controversi.
Indipendenza dal substrato: La Mente Oltre la Materia
L’idea chiave qui è chiamata indipendenza dal substrato: la coscienza, l’intelligenza, e i processi mentali sono indipendenti dal loro substrato fisico specifico. Quello che conta è il pattern di elaborazione dell’informazione, non se è implementato in neuroni biologici, transistor al silicio, o qualcos’altro.
Il filosofo David Chalmers la chiama “invarianza organizzazionale”: se costruite un sistema artificiale (che so, fatto di silicio) che duplica l’organizzazione funzionale di un cervello umano in modo sufficientemente fedele, allora non c’è ragione di principio per negargli esperienza cosciente.
Max Tegmark la formula così: “Se la coscienza è il modo in cui l’informazione si sente quando viene elaborata in certi modi, allora deve essere substrato-indipendente; è solo la struttura del processamento dell’informazione che conta, non il substrato.”
Questa è una visione funzionalista della mente: ciò che rende un sistema cosciente non è di cosa è fatto, ma cosa fa—come elabora l’informazione, come gli stati interni sono correlati agli input e output, la struttura causale complessiva.
Se il funzionalismo è corretto, allora in principio potremmo “caricare” la nostra mente in un computer sufficientemente sofisticato, e quella mente digitale sarebbe genuinamente noi (o no?)—avrebbe le nostre memorie, la nostre personalità, e sì, la nostra esperienza cosciente soggettiva.
Ma—e questo è un “ma” enorme—ci sono filosofi e neuroscienziati che non sono affatto convinti.
Il Problema Duro e le Sue Implicazioni
C’è qualcosa che si chiama il problema duro della coscienza, formulato da Chalmers stesso. È facile (in linea di principio) spiegare le funzioni cognitive—come il cervello elabora informazioni, forma memorie, controlla il comportamento. Questi sono problemi “facili” (anche se tecnicamente difficilissimi). Ma c’è un problema più profondo: perché tutta questa elaborazione di informazioni è accompagnata da esperienza soggettiva? Perché c’è “qualcosa che si prova” ad essere coscienti?
Potreste avere un sistema che si comporta esattamente come un umano—parla, ragiona, sembra intelligente—ma è “vuoto dentro”, senza esperienza soggettiva. Un “zombie filosofico”. Come fate a sapere che una simulazione computerizzata di un cervello non è esattamente questo?
John Searle, con il suo famoso esperimento mentale della Chinese Room, argomentò che la manipolazione sintattica di simboli (computazione) non è sufficiente per la comprensione semantica genuina. Potete seguire regole meccanicamente senza capire davvero cosa state facendo. E se la coscienza richiede comprensione genuina, non solo computazione, allora forse non può essere “caricata” in un computer.
Poi c’è Integrated Information Theory (IIT) di Giulio Tononi, che complica ulteriormente le cose. IIT sostiene che la coscienza non dipende solo dall’organizzazione funzionale, ma dalla struttura causale fisica del sistema. Secondo IIT, non tutti i substrati che possono eseguire la stessa computazione sono ugualmente coscienti. Un computer tradizionale, per esempio, potrebbe non avere coscienza anche se simulasse perfettamente un cervello, perché manca di certi tipi di integrazione causale.
E Paul Thagard ha recentemente argomentato che le differenze nei requisiti energetici tra sistemi biologici e computazionali creano differenze fondamentali che minano il concetto d’indipendenza dal substrato.
In breve: non sappiamo se il mind uploading è possibile. Non sappiamo nemmeno se la domanda ha senso nel modo in cui pensiamo che abbia.
Il Percorso Tecnico (Se Fosse Possibile)
Ma assumiamo, per il momento, che sia possibile. Come lo fareste?
Anders Sandberg e Nick Bostrom, del Future of Humanity Institute di Oxford, hanno scritto nel 2008 un report dettagliato di 130 pagine chiamato “Whole Brain Emulation: A Roadmap”. È un’analisi tecnica seria di cosa servirebbe per “caricare” un cervello umano.
Le tre capacità fondamentali necessarie sono:
1. Scanning: Acquisire informazioni strutturali dal cervello a risoluzione sufficiente. Probabilmente microscopia elettronica a risoluzione nanometrica (~5×5×50 nm). Richiede fissazione del tessuto, sezionamento fisico, e imaging di migliaia di sezioni sottilissime. Non è un processo a cui potreste sopravvivere.
2. Translation: Interpretare i dati della scansione per costruire un modello computazionale. Identificare ogni neurone (86 miliardi nel cervello umano), tracciare ogni assone e dendrite, mappare ogni sinapsi (circa 10¹⁴ connessioni sinaptiche). Poi determinare i parametri funzionali—quanto è forte ogni connessione, quali neurotrasmettitori usa, ecc.
3. Simulation: Eseguire il modello su hardware sufficientemente potente. Sandberg e Bostrom stimano che servirebbero almeno 10¹⁶ operazioni al secondo e 10¹³ bit di memoria per un’emulazione base in tempo reale. Questo è… molto. Ma forse fattibile entro questo secolo se la legge di Moore (o qualche suo successore) continua.
Il punto cruciale è che non dovete capire come funziona il cervello a livello di principi primi. Dovete solo copiare la struttura con sufficiente fedeltà che l’emulazione si comporti come l’originale. È un approccio di “reverse engineering brute force”.
Ma anche assumendo che tutto questo funzioni tecnicamente, c’è una domanda filosofica più profonda: quell’emulazione digitale sareste voi, o sarebbe una copia? Se morite durante il processo di scanning, siete davvero “sopravvissuti” in forma digitale, o è solo una copia che pensa di essere voi mentre voi siete morti?
Hans Moravec, nei suoi libri “Mind Children” (1988) e “Robot: Mere Machine to Transcendent Mind” (1999), propose un processo graduale: un chirurgo cerebrale scansiona strati del vostro cervello e li sostituisce progressivamente con simulazioni computerizzate, mantenendo sempre la continuità della coscienza. Ma anche questo non risolve completamente il problema dell’identità personale.
Ray Kurzweil, nel suo “The Singularity Is Near” (2005), prevede un approccio ancora più graduale: impianti neurali che lentamente aumentano e poi sostituiscono le funzioni biologiche. Ma di nuovo: a che punto cessate di essere “voi” e diventate qualcos’altro?
Queste domande non hanno risposte chiare. Ma per lo scenario di Dyson, l’indipendenza dal substrato è assolutamente necessaria. Se la coscienza è legata intrinsecamente alla biologia, allora non può sopravvivere nell’universo morente. Ma se la coscienza è indipendente dal substrato, se può essere implementata su hardware che opera a temperature criogeniche… allora forse, forse, c’è una possibilità.
Una Nota su Kurzgesagt e l’Accuratezza Scientifica
Prima di concludere, vale la pena parlare brevemente di Kurzgesagt, il canale YouTube che ha recentemente prodotto un video su questo esatto argomento (“We Found a Loophole to Survive the End of the Universe”). Perché dovreste fidarvi—o non fidarvi—di un video di YouTube su argomenti così complessi?
Kurzgesagt ha costruito una reputazione notevole per l’accuratezza scientifica. Il loro processo è serio: per ogni video, producono documenti di ricerca di 10-50 pagine, consultano almeno due esperti per argomento, e pubblicano tutti i loro documenti sorgente con citazioni punto-per-punto. Hanno un team di ricerca dedicato di sei persone.
Ma la cosa più impressionante è che hanno commissionato ricerca originale. Nel 2019, per un video sui “motori stellari”, hanno assunto Matthew Caplan della Illinois State University per progettare un dispositivo teorico per muovere il Sole. Il risultato—il “Caplan Thruster”—fu pubblicato come paper peer-reviewed in Acta Astronautica nel dicembre 2019. Potrebbe essere la prima pubblicazione peer-reviewed che è derivata da un video YouTube.
Detto questo, Kurzgesagt prioritizza l’intrattenimento e la comprensibilità. Semplificano, omettono caveat, e rendono le cose più drammatiche di quanto sarebbero in un paper accademico. È comunicazione scientifica eccellente, ma non è letteratura primaria. Usateli come punto di partenza per interessarvi a un argomento, poi andate a leggere i paper veri che citano nei loro documenti sorgente. Ma è un canale che, assolutamente, ve lo consiglio!
Conclusioni: Sintesi critica e prospettive
Il paradosso elegante di Dyson
La proposta di Freeman Dyson del 1979 rimane uno dei pensieri più audaci nella fisica teorica: l’intelligenza potrebbe sopravvivere eternamente utilizzando solo energia finita attraverso ibernazione strategica e pensiero progressivamente rallentato. Matematicamente rigorosa e termodinamicamente sofisticata, la sua analisi dimostrò che nei limiti delle conoscenze del 1979, la sopravvivenza eterna non violava alcuna legge fisica conosciuta. L’energia totale richiesta per esistenza soggettiva infinita sarebbe stata finita (BQ ≈ 6×10³⁷ erg), eppure il tempo soggettivo si sarebbe esteso all’infinito.
Le limitazioni cosmologiche
Tre sviluppi scientifici hanno minato le fondamenta dello scenario di Dyson:
Scoperta dell’energia oscura (1998): L’espansione accelerata dell’universo crea orizzonti degli eventi permanenti, limitando l’informazione totale accessibile a una quantità finita. Krauss e Starkman dimostrarono che questo rende impossibile la computazione infinita. Dyson stesso riconobbe: “in un universo accelerato tutto è diverso quindi tutta quella discussione è ora sbagliata.”
Temperatura minima dell’universo: La temperatura di Gibbons-Hawking (~10⁻²⁹ K) rappresenta un limite inferiore fisico che l’universo non può mai superare, contraddicendo l’assunzione di raffreddamento verso lo zero assoluto.
Decoerenza quantistica e instabilità della materia: Su scale temporali cosmologiche, la preservazione dell’informazione affronta ostacoli dalla decoerenza quantistica, al potenziale decadimento del protone (limite sperimentale τ > 1.67 × 10³⁴ anni), e tunneling quantistico.
Il contributo duraturo
Nonostante queste limitazioni, il lavoro di Dyson ha stabilito l’escatologia fisica come campo legittimo di indagine scientifica, con 273 citazioni e influenza su Tipler, Krauss & Starkman, discussioni sul principio antropico. Ha dimostrato che domande sul destino ultimo della vita possono essere affrontate con rigore matematico e analisi termodinamica quantitativa.
La termodinamica computazionale come fondamento
Il principio di Landauer e il lavoro di Bennett sulla computazione reversibile forniscono i limiti fondamentali per qualsiasi scenario di intelligenza eterna. Operazioni irreversibili hanno costo energetico minimo che scala con temperatura. Computazione reversibile è teoricamente possibile ma praticamente mai dimostrata su scala. Limite di velocità quantistica impone un compromesso fondamentale tra energia e velocità computazionale. Questi principi sono più generali dello scenario specifico di Dyson e rimangono validi indipendentemente dal destino cosmologico.
Coscienza digitale: L’ultima frontiera
La possibilità di mind uploading e l’indipendenza dal substrato rimangono questioni profondamente controverse.
A favore: Funzionalismo computazionale, invarianza organizzazionale (Chalmers), roadmap tecnica dettagliata (Sandberg & Bostrom 2008 suggerisce possibilità tecnica entro XXI secolo se assunzioni si mantengono).
Contro: Il problema duro della coscienza, Chinese Room di Searle, requisiti energetici differenti (Thagard 2022), vincoli IIT sulla causalità fisica (non tutti substrati computazionali possono supportare coscienza).
Questioni irrisolte: Identità personale (upload è genuinamente te o copia?), natura della coscienza (computazione sufficiente o richiede substrati fisici specifici?).
Prospettiva da ingegnere informatico
Da una prospettiva analitica di ingegneria, lo scenario di Dyson rappresenta un elegante esercizio in ottimizzazione sotto vincoli: massimizzare operazioni computazionali totali dato budget energetico finito in ambiente con temperatura decrescente. La soluzione—cicli computazionali progressivamente decrescente con periodi di ibernazione crescenti—è matematicamente ottimale per le assunzioni date.
Tuttavia, l’ingegneria reale richiede considerazione di affidabilità hardware su scale temporali cosmologici (10⁴⁰+ anni), correzione degli errori a energie estremamente basse, implementazione fisica della computazione reversibile, salvataggio persistente dell’informazione contro decoerenza, e vincoli architetturali imposti da fisica fondamentale (orizzonti, limite di Bekenstein).
Timeline del futuro remoto: Sintesi
Era Stellifera (10¹⁰ anni attuale → 10¹⁴ anni): Ultimi stelle muoiono
Era Degenerata (10¹⁴ → 10⁴⁰ anni): Nane bianche raffreddano a nane nere (~10¹⁵ anni), decadimento protone se si verifica (10³⁴-10³⁶ anni)
Era Buchi Neri (10⁴⁰ → 10¹⁰⁰ anni): Evaporazione via Hawking (buco nero solare 10⁶⁷ anni, supermassiccio 10⁹³-10¹⁰⁰ anni)
Era Oscura (>10¹⁰⁰ anni): Solo fotoni, neutrini, elettroni/positroni, temperatura → 0 K asintoticamente
Scenario alternativo (se nessun decadimento protone): Stelle di ferro 10¹⁵⁰⁰ anni, collasso 10¹⁰²⁶-10¹⁰⁷⁶ anni
Il futuro della ricerca
Domande aperte critiche:
- Natura dell’energia oscura: Costante cosmologica o campo dinamico?
- Stabilità del protone: Decade o è stabile? Determina se Era Degenerata si estende a 10⁴⁰ o 10¹⁵⁰⁰ anni
- Radiazione di Hawking: Mai direttamente osservata; rimane predizione teorica
- Gravità quantistica: Richiesta per comprendere momenti finali evaporazione buco nero
- Natura della coscienza: Computazione sufficiente o richiede substrati fisici specifici?
Rilevanza pratica attuale
Per esplorazione spaziale e sopravvivenza a lungo termine, la coscienza digitale (se possibile) offrirebbe vantaggi enormi: resistenza radiazioni (menti digitali non influenzate da radiazione cosmica letale), eliminazione supporto vitale (nessun bisogno ossigeno/acqua/cibo), temperature estreme (-270°C a +1000°C), dilatazione temporale, ridondanza (copie backup multiple), comunicazione (trasmissione a velocità della luce), adattamento (modifiche software rapide).
Anche se l’intelligenza eterna è impossibile secondo cosmologia moderna, la sopravvivenza per 10⁴⁰+ anni rimane teoricamente possibile se i vincoli possono essere superati. Il backup civilizzazionale e la preservation del pattern umano attraverso catastrofi globali potrebbero essere realizzabili entro questo secolo.
Significato filosofico
Al di là della fisica, lo scenario di Dyson solleva domande profonde. In un universo destinato alla morte termica, la vita ha significato intrinseco? Se la vita deve trasformarsi radicalmente per sopravvivere, mantiene continuità? Esistono confini fondamentali oltre i quali l’esistenza cosciente è impossibile? Ma soprattutto, in questa sopravvivenza eterna, chi è che sta sopravvivendo? La “vita” o un semplice algoritmo?
Dyson concluse il suo paper con citazione da J.B.S. Haldane: “Though in black jest it bows and nods, I know it is roaring at the gods, Waiting the last eclipse.”
Questo spirito di sfida—l’intelligenza che si rifiuta di accettare la morte termica come finale—rimane l’eredità più duratura del suo lavoro. Sebbene lo scenario specifico di Dyson sia stato invalidato dalla scoperta dell’energia oscura, la domanda fondamentale che pose rimane aperta: esistono modi in cui l’intelligenza potrebbe persistere attraverso ere cosmiche, o la fisica fondamentale impone limiti ultimi sulla conoscenza, la coscienza e la computazione stessa?
La risposta probabilmente risiede nell’intersezione tra cosmologia, termodinamica computazionale, teoria dell’informazione quantistica, e una comprensione ancora da raggiungere della natura della coscienza. Come Dyson stesso scrisse: “Il mondo della fisica e dell’astronomia è anche inesauribile; non importa quanto lontano andiamo nel futuro, ci saranno sempre nuove cose che accadono, nuove informazioni in arrivo, nuovi mondi da esplorare.”
Riferimenti bibliografici
Il video che ha dato vita a questo articolo
Kurzgesagt – In a Nutshell (30 set 2025). Youtube. “We Found a Loophole to Survive the End of the Universe“.
Paper originale di Dyson
Dyson, F.J. (1979). “Time without end: Physics and biology in an open universe.” Reviews of Modern Physics, 51(3), 447-460. DOI: 10.1103/RevModPhys.51.447
Termodinamica e cosmologia
Adams, F.C. & Laughlin, G. (1997). “A dying universe: the long-term fate and evolution of astrophysical objects.” Reviews of Modern Physics, 69(2), 337-372.
Adams, F. & Laughlin, G. (1999). The Five Ages of the Universe: Inside the Physics of Eternity. Free Press.
Boltzmann, L. (1877). “Über die Beziehung zwischen dem zweiten Hauptsatze der mechanischen Wärmetheorie und der Wahrscheinlichkeitsrechnung.” Sitzungsberichte der Kaiserlichen Akademie der Wissenschaften, 76: 373–435.
Clausius, R. (1854). “Über die bewegende Kraft der Wärme.” Annalen der Physik, 93(2): 481–506.
Frautschi, S. (1982). “Entropy in an Expanding Universe.” Science, 217(4560): 593-599.
Hawking, S.W. (1974). “Black hole explosions?” Nature, 248: 30-31.
Bekenstein, J.D. (1973). “Black Holes and Entropy.” Physical Review D, 7(8): 2333-2346.
Gibbons, G.W. & Hawking, S.W. (1977). “Cosmological event horizons, thermodynamics, and particle creation.” Physical Review D, 15: 2738-2751.
Termodinamica computazionale
Landauer, R. (1961). “Irreversibility and Heat Generation in the Computing Process.” IBM Journal of Research and Development, Vol. 5, No. 3, pp. 183-191.
Bennett, C.H. (1973). “Logical Reversibility of Computation.” IBM Journal of Research and Development, 17: 525-532.
Bennett, C.H. (1982). “The Thermodynamics of Computation—A Review.” International Journal of Theoretical Physics, 21: 905-940.
Bennett, C.H. (2003). “Notes on Landauer’s Principle, Reversible Computation and Maxwell’s Demon.” Studies in History and Philosophy of Modern Physics, 34: 501-510.
Margolus, N. & Levitin, L. (1998). “The maximum speed of dynamical evolution.” Physica D, 120: 188-195.
Critiche allo scenario di Dyson
Krauss, L.M. & Starkman, G.D. (2000). “Life, the Universe, and Nothing: Life and Death in an Ever-Expanding Universe.” The Astrophysical Journal, 531(1): 22-30. arXiv:astro-ph/9902189
Krauss, L.M. & Starkman, G.D. (1999). “The Fate of Life in the Universe.” Scientific American, 281(5): 58-65.
Krauss, L.M. & Scherrer, R.J. (2008). “The End of Cosmology?” Scientific American, 298(3): 46-53.
Dyson, L., Kleban, M., & Susskind, L. (2002). “Disturbing Implications of a Cosmological Constant.” Journal of High Energy Physics, 2002(10): 011.
Coscienza digitale e mind uploading
Sandberg, A., & Bostrom, N. (2008). Whole Brain Emulation: A Roadmap. Technical Report #2008-3, Future of Humanity Institute, Oxford University.
Bostrom, N. (2003). “Are You Living in a Computer Simulation?” Philosophical Quarterly, 53(211): 243-255.
Bostrom, N. (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press.
Chalmers, D.J. (1995). “Facing Up to the Problem of Consciousness.” Journal of Consciousness Studies, 2(3): 200-219.
Chalmers, D.J. (1996). The Conscious Mind: In Search of a Fundamental Theory. Oxford University Press.
Chalmers, D.J. (2010). “The Singularity: A Philosophical Analysis.” Journal of Consciousness Studies, 17(9-10): 7-65.
Dennett, D.C. (1991). Consciousness Explained. Boston: Little, Brown and Company.
Moravec, H. (1988). Mind Children: The Future of Robot and Human Intelligence. Cambridge, MA: Harvard University Press.
Moravec, H. (1999). Robot: Mere Machine to Transcendent Mind. Oxford: Oxford University Press.
Kurzweil, R. (2005). The Singularity Is Near: When Humans Transcend Biology. New York: Viking.
Kurzweil, R. (2024). The Singularity is Nearer: When We Merge with AI. New York: Viking.
Tononi, G. (2004). “An Information Integration Theory of Consciousness.” BMC Neuroscience, 5: 42.
Tononi, G. (2008). “Consciousness as Integrated Information: A Provisional Manifesto.” Biological Bulletin, 215(3): 216-242.
Oizumi, M., Albantakis, L., & Tononi, G. (2014). “From the Phenomenology to the Mechanisms of Consciousness: Integrated Information Theory 3.0.” PLoS Computational Biology, 10(5): e1003588.
Tononi, G., Boly, M., Massimini, M., & Koch, C. (2016). “Integrated Information Theory: From Consciousness to Its Physical Substrate.” Nature Reviews Neuroscience, 17(7): 450-461.
Thagard, P. (2022). “Energy Requirements Undermine Substrate Independence and Mind-Body Functionalism.” Philosophy of Science, 89(1): 70-88.
Tegmark, M. (2017). “Substrate-Independence.” Edge.org Annual Question.
Escatologia fisica e altri scienziati
Barrow, J.D. & Tipler, F.J. (1986). The Anthropic Cosmological Principle. Oxford University Press.
Tipler, F.J. (1989). “The Omega Point as eschaton: Answers to Pannenberg’s questions for scientists.” Zygon: Journal of Religion and Science, 24(2): 217-253.
Tipler, F.J. (1994). The Physics of Immortality: Modern Cosmology, God and the Resurrection of the Dead. Doubleday.
Davies, P.C.W. (1992). The Mind of God: The Scientific Basis for a Rational World. Simon & Schuster.
Davies, P.C.W. (2019). The Demon in the Machine: How Hidden Webs of Information Are Solving the Mystery of Life. University of Chicago Press.
Penrose, R. (2010). Cycles of Time: An Extraordinary New View of the Universe. Bodley Head.
Rees, M. (2003). Our Final Hour: A Scientist’s Warning. Basic Books.
Rees, M. (2018). On the Future: Prospects for Humanity. Princeton University Press.
Caplan, M.E. (2020). “Black Dwarf Supernova in the Far Future.” Monthly Notices of the Royal Astronomical Society, 497(4): 4357-4362.
Caplan, M.E. (2019). “Stellar Engines: Design Considerations for Maximizing Acceleration.” Acta Astronautica, 165: 96-104.
Searle, J. (1980). “Minds, Brains, and Programs.” Behavioral and Brain Sciences, 3(3): 417-424.


2 risposte a “Sopravvivenza alla morte termica dell’universo: L’intelligenza eterna di Dyson e i suoi limiti”
L’articolo è come al solito molto interessante ed evidenzia i limiti fisici alla “sopravvivenza” dell’intelligenza.
Comunque, a dire il vero, più ci penso, più mi convinco che “io” finirò comunque con la fine del mio involucro biologico. Non per limiti termodinamici o quantistici, ma perché questa mia esperienza soggettiva – questo particolare “sentire” di essere me – è inseparabile dalla “mia” specifica configurazione fisica. Una eventuale copia digitale perfetta dei miei pattern neurali potrà dire “sono io” con assoluta convinzione, ma io – questo flusso di coscienza qui e ora – sarò comunque semplicemente cessato (e tutto sommato ne sono contento e sollevato).
Da ateo poi, sinceramente, vedo nei progetti transumanisti di sopravvivenza la stessa illusione delle promesse religiose, solo riproposte con vocabolario tecnologico anziché mistico. L’upload della mente è la nuova vita eterna, il cloud il nuovo paradiso. Ma per me la coscienza non è trasferibile e tutte queste strategie falliscono prima ancora dei limiti fisici: falliscono nel preservare ciò che conta davvero.
Il vero problema non è nei calcoli, ma nel presupposto di fondo: che valga la pena cercare di durare per sempre, quando quella “durata” significherebbe comunque la fine di ciò che siamo.
Lo penso come te.