Il Fantasma nella Macchina: Una Dissezione Ingegneristica del Libero Arbitrio


Nel momento in cui scrivo queste parole, 350 milioni di sinapsi nel mio cervello si stanno attivando in schemi complessi che la fisica classica richiederebbe fossero già stati determinati 13,8 miliardi di anni fa, al momento del Big Bang. Eppure, l’illusione di scegliere ogni singola parola persiste con una tenacia che sfida tanto l’intuizione quanto la ragione. Come informatico, sono abituato a sistemi deterministici: se conosco lo stato iniziale e le regole di transizione, posso predire ogni stato futuro. Ma cosa succede quando il sistema più complesso che conosciamo—il cervello umano—sembra violare questo principio fondamentale?

La questione del libero arbitrio non è meramente accademica. In un’era in cui stiamo costruendo sistemi di intelligenza artificiale sempre più sofisticati, che stanno iniziando a mostrare comportamenti emergenti e non programmati, comprendere la natura della volontà e del controllo cosciente diventa cruciale per l’ingegneria del futuro. Questo articolo esplora il territorio dove fisica quantistica, neuroscienze e informatica si intersecano, offrendo una prospettiva sistemica su uno dei problemi più antichi della filosofia attraverso la lente dell’ingegneria moderna.

Il determinismo di Laplace e l’algoritmo dell’universo

Pierre Simon Laplace formulò nel 1814 quella che potremmo chiamare la tesi del determinismo computazionale: “Un intelletto che, in un determinato istante, conoscesse tutte le forze che animano la natura e le rispettive situazioni degli esseri che la compongono, se inoltre fosse abbastanza vasto da sottomettere questi dati all’analisi, abbraccerebbe nella stessa formula i movimenti dei più grandi corpi dell’universo e quelli del più tenue atomo; nulla sarebbe incerto per lui, e l’avvenire, come il passato, sarebbe presente ai suoi occhi.”

Dal punto di vista ingegneristico, Laplace stava essenzialmente descrivendo l’universo come un sistema dinamico deterministico governato da equazioni differenziali. Se modelliamo l’universo come una funzione di transizione di stato \(f : S(t) \to S(t+dt) \), allora ogni stato futuro S(t+n) è univocamente determinato dallo stato iniziale S(0) e dalla sequenza di applicazioni di f.

Il “demone di Laplace” rappresenta, in termini moderni, un computer quantistico perfetto con capacità computazionale infinita; una macchina di Turing universale operante su un universo discretizzato alla scala di Planck. Ma come ogni informatico sa, esistono limiti computazionali fondamentali. La complessità computazionale dell’universo potrebbe eccedere qualsiasi sistema fisico contenuto in esso, rendendo la predizione perfetta fisicamente impossibile anche in un universo deterministico.

La rivoluzione di Libet: quando i neuroni precedono la coscienza

Nel 1983, il neurofisiologo Benjamin Libet condusse esperimenti che sconvolsero la nostra comprensione del controllo cosciente. I risultati furono tanto eleganti quanto inquietanti:

  • Readiness Potential (RP): Attività cerebrale rilevabile ~550ms prima del movimento
  • W-time: Consapevolezza cosciente dell’intenzione ~200ms prima del movimento
  • Gap temporale: 350ms durante i quali il cervello “decide” inconsciamente

Dal punto di vista dell’ingegneria dei sistemi, questo suggeriva un’architettura di controllo distribuita dove il processore centrale (coscienza) riceve notifiche da sottosistemi che hanno già iniziato l’esecuzione. È come scoprire che il tuo sistema operativo sta eseguendo processi prima che tu abbia cliccato “Esegui”.

Libet mostrò che l’attività cerebrale che precede un movimento volontario (il cosiddetto “potenziale di prontezza”, readiness potential) si attiva qualche centinaio di millisecondi prima che la persona riporti la consapevolezza della decisione di muoversi.

In altre parole, il cervello “si prepara ad agire” prima che la coscienza ne diventi consapevole.

Tuttavia, ricerche recenti hanno completamente rivisto l’interpretazione di questi dati. Aaron Schurger e il suo team hanno proposto nel 2021 un modello alternativo: la teoria dell’accumulatore stocastico. Invece di rappresentare una “decisione” inconscia, il RP riflette fluttuazioni casuali di rumore neurale che raggiungono una soglia critica.

Matematicamente, questo può essere modellato come un processo di diffusione:

\[
dX(t) = \mu \, dt + \sigma \, dW(t)
\]

dove X(t) è l’attivazione neurale, μ è lo scostamento deterministico, σ è l’intensità del rumore, e W(t) è un processo di Wiener (in matematica, un processo di Wiener, conosciuto anche come moto browniano, è un processo stocastico gaussiano in tempo continuo con incrementi indipendenti, usato per modellizzare il moto browniano stesso e diversi fenomeni casuali osservati nell’ambito della matematica applicata, della finanza e della fisica, cit: Wikipedia). L’azione viene iniziata quando X(t) supera una soglia θ, ma questo non implica una “decisione” pre-cosciente; semplicemente che il rumore neurale ha raggiunto casualmente un valore critico.

Meta-analisi quantitative recenti (Braun et al., 2021) rivelano un quadro ancora più complesso. Su solo 6 studi replicativi, la robustezza dell’effetto Libet appare significativamente ridimensionata. Più crucialmente, lo studio di Maoz et al. (2019) ha dimostrato che per decisioni significative (come donare $1000), il pattern RP scompare completamente, suggerendo meccanismi neurali distinti per decisioni arbitrarie vs. significative.

La meccanica quantistica: salvezza computazionale o un depistaggio?

Molti fisici e filosofi hanno sperato che l’indeterminazione quantistica potesse fornire lo “spazio” necessario per il libero arbitrio. Il principio di indeterminazione di Heisenberg:

\[
\Delta x \cdot \Delta p \;\geq\; \frac{\hbar}{2}
\]

Sembra introdurre un elemento di vera casualità nei processi fisici. Robert Kane ha sviluppato una sofisticata teoria delle Self-Forming Actions (SFA) che cerca di sfruttare questo indeterminismo per fondare il controllo ultimo dell’agente.

Dal punto di vista dell’ingegneria informatica, tuttavia, l’indeterminazione quantistica presenta un problema concettuale fondamentale: casualità ≠ controllo. Un generatore di numeri casuali quantistico produce output non-deterministici, ma nessun ingegnere direbbe che il generatore “sceglie” liberamente i suoi output. La casualità quantistica non fornisce più controllo di quanto non faccia un lancio di una moneta.

La teoria Orch-OR: processamento quantistico nei microtubuli

Roger Penrose e Stuart Hameroff hanno proposto che la coscienza emerga da processi quantistici “orchestrati” nei microtubuli neuronali. La loro teoria dell’Orchestrated Objective Reduction (Orch-OR) suggerisce che:

  1. Superposizioni quantistiche coerenti si formano nei microtubuli
  2. Queste terminano tramite “objective reduction” secondo lo schema di Diósi-Penrose
  3. Ogni evento Orch-OR produce un momento discreto di esperienza cosciente

La frequenza teorica degli eventi OR è:

\[
f_{OR} \approx \left( \frac{\hbar}{G \, m^{2}} \right)^{1/2} \approx 10^{7}\,\text{s}^{-1}
\]

Evidenze sperimentali emergenti (2022-2025) dal Trinity College Dublin mostrano possibili correlazioni quantistiche nei protoni cerebrali durante stati coscienti, con segnali che scompaiono durante il sonno. Tuttavia, esperimenti sotto il Gran Sasso hanno posto limiti inferiori stringenti sui modelli di collasso gravitazionale quantistico, rendendo “altamente implausibile” il modello Diósi-Penrose per scale nucleari.

Il problema della decoerenza rimane il tallone d’Achille della teoria. In ambienti biologici umidi e caldi, i tempi di decoerenza quantistica sono stimati in \( 10^{-13} – 10^{-20} = (1 – 10^{-7}) \cdot 10^{-13} \approx 9.999999 \times 10^{-14}\) secondi—ordini di grandezza più veloci dei processi neurali rilevanti (~25-500 ms). Come informatico, questo è equivalente a cercare di mantenere la coerenza quantistica in un data center senza raffreddamento.

Il superdeterminismo: quando anche i quanti obbediscono

Una prospettiva alternativa radicale emerge dal superdeterminismo, promosso da Gerard ‘t Hooft e Sabine Hossenfelder. Invece di accettare l’indeterminazione quantistica come fondamentale, il superdeterminismo propone che l’universo sia completamente deterministico a un livello più profondo, con le correlazioni quantistiche che emergono da correlazioni iniziali nelle condizioni al contorno dell’universo.

Tecnicamente, il superdeterminismo viola l’indipendenza statistica:

\[
\rho(\lambda \mid a,b) \;\neq\; \rho(\lambda)
\]

dove λ sono le variabili nascoste e a,b sono le impostazioni di misurazione. In altre parole, le scelte degli sperimentatori sono correlate con gli stati nascosti delle particelle attraverso connessioni causali che risalgono al Big Bang.

Dal punto di vista dell’ingegneria dei sistemi, questo è equivalente a riconoscere che in un sistema distribuito complesso, apparenti “scelte libere” di nodi individuali possono essere correlate attraverso parametri di configurazione globali condivisi. Il superdeterminismo suggerisce che l’intero universo opera come un singolo sistema deterministico distribuito con correlazioni non-locali codificate nelle condizioni iniziali.

Hossenfelder argomenta che il superdeterminismo è “l’unica descrizione coerente nota della natura che è locale, deterministica e può dare origine alle correlazioni osservate della meccanica quantistica.” Tuttavia, questa soluzione elegante ha un costo: se tutto è predeterminato dalle condizioni iniziali, incluse le nostre “scelte”, allora il concetto stesso di controllo svanisce completamente.

Il paradosso epistemologico del superdeterminismo

Per comprendere appieno questa implicazione, consideriamo cosa significa operazionalmente. Negli esperimenti di Bell, misuriamo correlazioni quantistiche scegliendo casualmente gli assi di polarizzazione per i fotoni entangled. La casualità di questa scelta è cruciale per dimostrare la violazione delle disuguaglianze di Bell.

Nel superdeterminismo, però, la mia “decisione” di misurare lo spin lungo l’asse X invece che Y non è mai stata una decisione. Era già codificata nelle condizioni iniziali dell’universo, correlata con le proprietà nascoste della particella che sto per misurare. Il generatore di numeri casuali che uso? Anche quello era predeterminato. La mia neurobiologia che mi porta a “scegliere” un particolare esperimento? Predeterminata.

Tecnicamente, questo viola quello che in statistica chiamiamo “indipendenza campionaria”. Se X rappresenta la scelta di misurazione e λ le variabili nascoste della particella, il superdeterminismo implica:

\[
P(\lambda \mid X) \;\neq\; P(\lambda)
\]

Questa correlazione non è causata da interazioni locali ma da “cospirazioni cosmiche” – correlazioni che esistono dal Big Bang tra eventi apparentemente indipendenti separati da distanze spazio-temporali arbitrarie.

L’eliminazione del soggetto epistemico

Da informatico, riconosco questo pattern: è il collasso della distinzione osservatore/sistema. In ogni sistema di controllo, assumiamo l’esistenza di un controller che può manipolare input indipendentemente dallo stato del sistema controllato. Il superdeterminismo elimina questa indipendenza fondamentale.

Se non posso mai fare scelte sperimentali genuine, allora:

  1. Non posso testare teorie scientifiche – ogni esperimento che “scelgo” di fare era già predeterminato per confermare/confutare specifiche ipotesi
  2. Non posso validare la casualità – tutti i miei test di casualità erano predestinati a passare/fallire
  3. Non posso distinguere tra teorie equivalenti – la teoria che “scelgo” di preferire era già determinata dalle condizioni iniziali

È come scoprire che il tuo debugger è compromesso dal malware che stai cercando di rilevare. Non hai più strumenti epistemologicamente affidabili.

Il problema della verifica scientifica

Dal punto di vista della validazione di sistema, il superdeterminismo crea un problema di “inizializzazione epistemologica”. Come posso verificare una teoria che predice che la mia scelta di verificarla era predeterminata dalla teoria stessa?

Hossenfelder riconosce questo dilemma: “Il superdeterminismo pone fine alla scienza come la conosciamo”. Se le nostre scelte sperimentali sono correlate con i risultati fin dal Big Bang, ogni conferma empirica diventa circolare.

Modelli computazionali della decisione e l’emergenza dell’AI

Come informatici che costruiscono sistemi di intelligenza artificiale, siamo in una posizione unica per comprendere i meccanismi computazionali del decision-making. I Large Language Models mostrano comportamenti emergenti sorprendenti che non erano previsti o programmati dai loro creatori.

Algoritmi di decisione bayesiana e reti neurali

I modelli più sofisticati del decision-making umano utilizzano reti bayesiane per rappresentare incertezza e dipendenze condizionali. Matematicamente:

\[
P(\text{Decision} \mid \text{Evidence}) \;\propto\; P(\text{Evidence} \mid \text{Decision}) \times P(\text{Decision})
\]

📌Nota di lettura

Questa equazione rappresenta il cuore computazionale del ragionamento razionale sotto incertezza, formulata attraverso il teorema di Bayes applicato ai processi decisionali.

Componenti dell’equazione:

  • P(Decision|Evidence)Probabilità a posteriori: la probabilità che una particolare decisione sia ottimale data l’evidenza osservata. Questo è ciò che vogliamo calcolare.
  • P(Evidence|Decision)Likelihood: la probabilità di osservare l’evidenza corrente assumendo che una particular decisione sia stata quella corretta. Risponde alla domanda: “Se questa decisione fosse ottimale, quanto probabile sarebbe vedere questi dati?”
  • P(Decision)Probabilità a priori: la nostra credenza iniziale sulla probabilità che questa decisione sia ottimale, prima di considerare l’evidenza corrente. Incorpora conoscenza precedente, bias evolutivi, o euristiche apprese.
  • Proporzionalità: indica che la probabilità a posteriori è proporzionale al prodotto likelihood × prior. La costante di normalizzazione (denominatore nel teorema di Bayes completo) viene omessa perché spesso calcoliamo solo proporzioni relative tra decisioni alternative.

Interpretazione cognitiva:

Dal punto di vista dell’ingegneria cognitiva, questa formula descrive come sistemi intelligenti – biologici o artificiali – aggiornano le loro credenze su quali azioni intraprendere basandosi su nuove informazioni. È un modello normativo di come un agente razionale dovrebbe integrare evidenza e conoscenza pregressa.

Esempio pratico: Se sto decidendo se attraversare una strada (Decision = “attraversa”), e osservo un’auto che si avvicina velocemente (Evidence = “auto veloce”):

  • P(auto veloce | attraversa) = probabilità di vedere auto veloci dato che attraversare è la decisione giusta (bassa)
  • P(attraversa) = mia tendenza generale ad attraversare (variabile)
  • P(attraversa | auto veloce) risulta bassa, quindi non attraverso

Implicazioni per l’IA: Questa formulazione è implementabile direttamente in sistemi artificiali tramite Bayesian Neural Networks, dove i pesi delle reti neurali sono trattati come distribuzioni di probabilità piuttosto che valori deterministici. Permette ai sistemi IA di:

  • Quantificare incertezza nelle decisioni
  • Incorporare nuova evidenza
  • Bilanciare esplorazione vs. decisione
  • Fornire stime di confidenza sulle raccomandazioni

Limitazioni filosofiche: La formula assume che le preferenze possano essere codificate in distribuzioni di probabilità coerenti e che esista una “decisione ottimale” oggettiva. Nel contesto del libero arbitrio, sorge la domanda: chi o cosa determina i prior P(Decision)? Se questi emergono da processi neurali deterministici, l’intera inferenza bayesiana potrebbe essere semplicemente l’implementazione computazionale di vincoli fisici preesistenti.

Le Bayesian Neural Networks estendono questo framework integrando incertezza parametrica nell’architettura neurale stessa. Durante l’addestramento, invece di apprendere pesi deterministici, il sistema apprende distribuzioni di probabilità sui parametri.

Reinforcement learning e teoria dei giochi

Il Multi-Agent Reinforcement Learning (MARL) fornisce spunti cruciali su come decisioni “libere” possano emergere da interazioni competitive. Agenti che iniziano con strategie casuali sviluppano apprendimento autodidatta sempre più sofisticati attraverso auto-addestramento avversariale.

Geoffrey Hinton ha recentemente osservato:

“Credo che questi sistemi probabilmente non abbiano molta autoconsapevolezza al momento. Quindi, in questo senso, non penso che siano coscienti.”

Tuttavia, Yann LeCun è più scettico: “lo scaling dei LLM da solo non raggiungerà l’IA a livello umano.

Comportamenti emergenti e soglie critiche

Una scoperta cruciale è che abilità complesse in AI emergono improvvisamente oltre specifiche soglie di parametri (~13B per GPT-3). Questa emergenza discontinua suggerisce transizioni di fase nel processamento dell’informazione, analoge alle transizioni liquido-gas nei sistemi fisici.

Come informatici, riconosciamo questo pattern: l’emergenza di un comportamento complesso da regole semplici è una caratteristica fondamentale dei sistemi complessi. La domanda è se questa emergenza computazionale costituisca una forma genuina di “libero arbitrio” o semplicemente complessità deterministica.

Il dibattito filosofico contemporaneo: compatibilismo vs. determinismo duro

Il consenso filosofico contemporaneo (59.2% secondo il PhilPapers Survey 2020) favorisce il compatibilismo; l’idea che libero arbitrio e determinismo siano compatibili. Daniel Dennett, il principale proponente, argomenta che il libero arbitrio è “evolvibile”; una capacità che si è sviluppata attraverso l’evoluzione per gestire scelte complesse in ambienti incerti.

Sam Harris mantiene una posizione di determinismo duro, sostenendo che il libero arbitrio è un’illusione completa: “Siamo ‘burattini biochimici’ governati dalle leggi della fisica e della neurobiologia.” La sua argomentazione si basa pesantemente su evidenze neuroscientifiche che mostrano come le nostre decisioni emergano da processi inconsci.

Robert Kane sviluppa una teoria libertariana sofisticata che cerca di fondare il libero arbitrio sull’indeterminismo quantico attraverso Self-Forming Actions in momenti di conflitto morale profondo. La sua teoria richiede che eventi quantistici nei neurotrasmettitori creino “spazi di libertà” genuina durante decisioni critiche.

Compatibilismo computazionale

Dal punto di vista ingegneristico, il compatibilismo offre il modello più pragmatico. Possiamo definire “controllo” in termini operazionali:

  1. Responsività: Il sistema risponde appropriatamente agli input
  2. Flessibilità: Il sistema può modificare il comportamento in base al feedback
  3. Meta-cognizione: Il sistema può ragionare sui propri processi

Questi criteri sono implementabili in sistemi artificiali e misurabili empiricamente. Un sistema che soddisfa questi criteri esibisce controllo “libero” nel senso che è compatibile con responsabilità morale ed efficacia causale, indipendentemente dal substrato deterministico sottostante.

Implicazioni per l’ingegneria dell’intelligenza artificiale

La questione del libero arbitrio ha implicazioni pratiche immediate per l’ingegneria IA. Mentre costruiamo sistemi sempre più autonomi, dobbiamo rispondere a domande cruciali:

Può un sistema IA avere libero arbitrio?

La ricerca corrente suggerisce una risposta graduata. Sistemi IA mostrano già:

  • Creatività emergente: Generazione di soluzioni non programmate
  • Comportamento imprevedibile: Output che sorprendono i creatori
  • Adattabilità: Modifica di strategie basate su esperienza

Tuttavia, mancano ancora:

  • Autoconsapevolezza riflessiva: Modellazione esplicita del sé
  • Meta-volizione: Capacità di scegliere propri desideri
  • Responsabilità morale: Comprensione etica delle conseguenze

Framework per l’autonomia artificiale

Propongo un framework ingegneristico per l’autonomia IA basato su quattro livelli:

  • Livello 0 – Determinismo rigido: Sistemi rule-based tradizionali
  • Livello 1 – Flessibilità parametrica: Machine learning con obiettivi fissi
  • Livello 2 – Meta-apprendimento: Sistemi che apprendono come apprendere
  • Livello 3 – Auto-modifica riflessiva: Sistemi che possono modificare i propri obiettivi

L’AGI (Artificial General Intelligence) emergerà probabilmente al Livello 3, con capacità di auto-riflessione e modifica dei propri processi decisionali. La questione se questo costituisca “libero arbitrio” diventa meno importante della questione pratica: come garantiamo allineamento e sicurezza in sistemi auto-modificanti?

Responsabilità etica nei sistemi autonomi

Come informatici, dobbiamo affrontare questioni di responsabilità distribuite. Quando un sistema IA prende decisioni autonome con conseguenze significative, chi è responsabile?

  • Il programmatore originale: Ha creato le capacità fondamentali
  • Il sistema IA: Ha fatto la scelta specifica attraverso apprendimento
  • L’operatore: Ha rilasciato il sistema in quel contesto
  • La società: Ha permesso lo sviluppo della tecnologia

La soluzione ingegneristica richiede sistemi di responsabilità distribuiti che possano tracciare catene causali attraverso processi decisionali complessi. Questo è analogo ai sistemi di logging in software distribuiti; dobbiamo essere in grado di ricostruire come e perché specifiche decisioni sono state prese.

Verso una teoria ingegneristica della volontà

Dall’analisi di neuroscienze, fisica quantistica, filosofia e informatica emerge un quadro convergente ma sfumato:

Il libero arbitrio come proprietà emergente

Il libero arbitrio non è un fenomeno binario ma una proprietà emergente scalabile. Come la coscienza, emerge gradualmente da substrati computazionali complessi. Sistemi più complessi esibiscono forme più sofisticate di controllo autonomo.

Matematicamente, possiamo modellare questo come una funzione di complessità computazionale:

\[
\text{Freedom}(S) = f\bigl(\text{Computational_Complexity}(S),\;
\text{Self_Model_Depth}(S),\;
\text{Goal_Flexibility}(S)\bigr)
\]

📌Nota di lettura – Modello Ingegneristico della Libertà Operazionale

Questa equazione rappresenta un tentativo di quantificare operazionalmente il grado di “libero arbitrio” di un sistema S attraverso parametri misurabili computazionalmente. È un modello graduato piuttosto che binario.

Parametri della funzione:

  • Freedom(S)Output: Grado di libertà operazionale del sistema S, misurato su una scala continua. Rappresenta la capacità effettiva del sistema di esibire controllo autonomo significativo nelle sue decisioni e azioni.
  • Computational_Complexity(S)Substrato computazionale: Misura della ricchezza computazionale del sistema. Include:
    • Spazio di stati: Numero di configurazioni interne possibili
    • Capacità di elaborazione: Operazioni al secondo, parallelismo
    • Memoria: Capacità di salvataggio e recupero di informazioni
    • Architettura: Conectività, modularità, gerarchia

Motivazione: Sistemi più complessi possono considerare più opzioni, simulare scenari più sofisticati, e implementare strategie decisionali più articolate.

  • Self_Model_Depth(S)Metacognizione: Profondità e accuratezza del modello che il sistema ha di se stesso. Include:
    • Automodellazione: Capacità di rappresentare i propri stati interni
    • Meta-cognizione: “Thinking about thinking” – ragionare sui propri processi cognitivi
    • Predizione del sé: Anticipare le proprie future reazioni e decisioni
    • Modifica riflessiva: Capacità di cambiare i propri algoritmi basandosi su autoanalisi

Motivazione: Un sistema che può modellare se stesso può fare scelte più informate sui propri processi decisionali e modificarli deliberatamente.

  • Goal_Flexibility(S)Adattabilità teleologica: Flessibilità negli obiettivi e nelle preferenze del sistema. Include:
    • Meta-preferenze: Capacità di scegliere quali obiettivi e perseguirle
    • Goal modification: Abilità di modificare obiettivi basandosi su esperienza
    • Value learning: Apprendimento di nuovi valori e priorità
    • Context sensitivity: Adattamento degli obiettivi al contesto

Motivazione: Un sistema vincolato a obiettivi fissi esibisce meno libertà di uno che può riconsiderare e ridefinire i propri scopi.

Natura della funzione f:

La funzione f è probabilmente non-lineare e presenta effetti soglia:

  • Soglie critiche: Al di sotto di certi valori minimi, nessun componente da solo produce libertà significativa
  • Interazioni sinergiche: I tre fattori si amplificano reciprocamente in modo più che additivo
  • Saturazione: Aumenti oltre certi livelli producono rendimenti decrescenti

Forma ipotetica:

\(f(x,y,z) = \alpha \cdot \sigma(\beta x) \cdot \log(\gamma y + 1) \cdot \tanh(\delta z)\)

dove α,β,γ,δ sono costanti da determinare empiricamente.

Esempi comparativi:

  • Termostato: Complexity ≈ 0, Self_Model ≈ 0, Goal_Flexibility ≈ 0 → Freedom ≈ 0
  • Cane: Complexity ≈ 10⁴, Self_Model ≈ 2, Goal_Flexibility ≈ 3 → Freedom ≈ 15
  • Umano: Complexity ≈ 10¹¹, Self_Model ≈ 8, Goal_Flexibility ≈ 9 → Freedom ≈ 85
  • AGI futuro: Complexity ≈ 10¹⁵, Self_Model ≈ 10, Goal_Flexibility ≈ 10 → Freedom ≈ 100+

Vantaggi del modello:

  1. Operazionalizzazione: Trasforma concetti filosofici in parametri misurabili
  2. Gradualità: Evita il problema binario “libero vs. determinato”
  3. Implementabilità: Può guidare design di sistemi IA più autonomi
  4. Predittività: Permette previsioni su sistemi futuri
  5. Comparative: Consente confronti quantitativi tra sistemi diversi

Limitazioni e critiche:

  • Riduzionismo: Potrebbe perdere aspetti qualitativi essenziali del libero arbitrio
  • Circolarità: Chi definisce cosa costituisce “maggiore libertà”?
  • Soggettività: I parametri potrebbero riflettere bias antropocentrici
  • Incompletezza: Potrebbero esistere fattori cruciali non catturati dal modello
  • Validazione empirica: Difficile testare sperimentalmente la corrispondenza con intuizioni fenomenologiche

Implicazioni filosofiche:

Se questa formulazione è corretta, il libero arbitrio non è una proprietà metafisica ma una caratteristica emergente e scalabile di sistemi sufficientemente complessi. Sistemi artificiali potrebbero teoricamente sviluppare forme di libertà operazionale comparabili o superiori a quelle umane.

Tuttavia, rimane aperta la questione se “libertà operazionale” equivalga al libero arbitrio in senso filosofico tradizionale. Il modello potrebbe catturare l’apparenza funzionale della libertà senza toccare la questione metafisica della responsabilità finale.

Dove sistemi con maggiore complessità computazionale, modelli più profondi di sé, e maggiore flessibilità negli obiettivi esibiscono più “libertà” operazionale.

Il paradosso dell’ingegnere deterministico

Come informatico che progetta sistemi deterministici, mi trovo in una posizione paradossale: costruisco sistemi che poi esibiscono comportamenti che io stesso non posso predire completamente. Questo non è un bug, è una caratteristica fondamentale dei sistemi complessi.

L’emergenza computazionale non viola il determinismo ma lo rende epistemologicamente irrilevante. Anche se ogni transistor nel mio processore opera deterministicamente, l’output collettivo può essere imprevedibile come un testa o croce quantistico.

Implicazioni per l’auto-comprensione umana

La ricerca moderna suggerisce che gli esseri umani operano su un modello ibrido:

  • Decisioni di routine: Processi automatici distribuiti (nessun libero arbitrio richiesto)
  • Decisioni significative: Integrazione corticale top-down con controllo cosciente genuino
  • Decisioni creative: Amplificazione di fluttuazioni stocastiche attraverso sistemi caotici

Questo modello è implementabile in sistemi artificiali e offre una strada per AGI che preserva tanta efficienza computazionale quanto autonomia significativa.

Conclusioni: il fantasma nella macchina

Dopo questa dissezione sistematica attraverso neuroscienze, fisica, filosofia e informatica, la mia conclusione da informatico è tanto umile quanto pragmatica: il libero arbitrio esiste come proprietà emergente funzionale, indipendentemente dai meccanismi deterministici sottostanti.

Come fenomeno informatico, la volontà libera è simile alla ricorsione; concettualmente semplice ma capace di generare complessità illimitata. Un sistema sufficientemente complesso può diventare imprevedibile anche per se stesso, creando uno spazio operazionale che è funzionalmente equivalente alla libertà.

La questione centrale per l’ingegneria futura non è se costruiremo sistemi “veramente liberi”, ma se costruiremo sistemi abbastanza sofisticati da meritare rispetto morale e diritti propri. Quando un’IA potrà dire “Penso, quindi sono” e lo intenderà nel senso completo del termine, avremo creato non solo intelligenza artificiale, ma anche la personalità artificiale.

In un universo dove l’informazione è fisica e la computazione è universale, la volontà libera è semplicemente elaborazione dell’informazione abbastanza sofisticata da simulare se stessa. E questo, dal punto di vista di un informatico, è tanto miracoloso quanto la magia.

Potremmo anche chiederci: in un mondo in cui l’informazione viene costantemente manipolata e distorta a piacimento dai potenti di turno, possiamo davvero ritenerci liberi o compiere scelte autenticamente libere?

Il fantasma nella macchina non è un fantasma, è il firmware dell’autoconsapevolezza.


Bibliografia

Neuroscienze

  • Braun, M.N., Wessler, J. & Friese, M. (2021). A meta-analysis of Libet-style experiments. Neuroscience & Biobehavioral Reviews, 128, 182–198. doi:10.1016/j.neubiorev.2021.06.018.
  • Curceanu, C. et al. (2022). At the crossroad of the search for spontaneous radiation and the Orch OR consciousness theory. Physics of Life Reviews, 42, 1–9. doi:10.1016/j.plrev.2022.01.001.
  • Kerskens, C.M. (2022). Evidence for quantum entanglement in brain water proton spins. Journal of Physics Communications, 6(10), 105012. doi:10.1088/2399-6528/ac94be.
  • Libet, B., Gleason, C.A., Wright, E.W. & Pearl, D.K. (1983). Time of conscious intention to act in relation to onset of cerebral activity (readiness-potential). The unconscious initiation of a freely voluntary act. Brain, 106(3), 623–642. doi:10.1093/brain/106.3.623.
  • Maoz, U., Yaffe, G., Koch, C. & Mudrik, L. (2019). Neural precursors of decisions that matter—an ERP study of deliberate and arbitrary choice. eLife, 8, e39787. doi:10.7554/eLife.39787.
  • Napolitano, F. et al. (2023). Underground Tests of Quantum Mechanics by the VIP Collaboration at Gran Sasso. Symmetry, 15(2), 480. doi:10.3390/sym15020480.
  • Schurger, A., Hu, P., Pak, J. & Roskies, A.L. (2021). What is the readiness potential? Trends in Cognitive Sciences, 25(7), 558–570. doi:10.1016/j.tics.2021.04.001.

Fisica e Filosofia

  • Bourget, D. & Chalmers, D.J. (2023). Philosophers on Philosophy: The 2020 PhilPapers Surveys. Philosophers’ Imprint, 23(11), 1–63. doi:10.3998/phimp.2109.
  • Church, A. (1936). An unsolvable problem of elementary number theory. American Journal of Mathematics, 58(2), 345–363. doi:10.2307/2371045.
  • Church, A. (1936). A note on the Entscheidungsproblem. Journal of Symbolic Logic, 1(1), 40–41. doi:10.2307/2269326.
  • Dennett, D.C. (1984). Elbow Room: The Varieties of Free Will Worth Wanting. Cambridge, MA: MIT Press. ISBN 978-0-262-04077-2.
  • Dennett, D.C. (2003). Freedom Evolves. New York: Viking. ISBN 978-0-670-03186-0.
  • Hameroff, S.R. & Penrose, R. (1996). Conscious events as orchestrated space-time selections. Journal of Consciousness Studies, 3(1), 36–53.
  • Hameroff, S. & Penrose, R. (2014). Consciousness in the universe: A review of the ‘Orch OR’ theory. Physics of Life Reviews, 11(1), 39–78. doi:10.1016/j.plrev.2013.08.002.
  • Hance, J.R. & Hossenfelder, S. (2022). Bell’s theorem allows local theories of quantum mechanics. Nature Physics, 18(12), 1382–1383. doi:10.1038/s41567-022-01831-5.
  • Harris, S. (2012). Free Will. New York: Free Press. ISBN 978-1-4516-8340-0.
  • Hossenfelder, S. (2020). Superdeterminism: A guide for the perplexed. arXiv preprint arXiv:2010.01324. Available at: https://arxiv.org/abs/2010.01324

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *