Come una disputa matematica del 1905 ha cambiato il mondo digitale
TL;DR: Una battaglia intellettuale tra due matematici russi all’inizio del XX secolo ha dato origine alle catene di Markov, che oggi alimentano Google, i metodi Monte Carlo e l’intelligenza artificiale. Questa è la storia straordinaria di come l’odio accademico abbia rivoluzionato la probabilità e creato algoritmi da trilioni di dollari.
La matematica, contrariamente alla sua reputazione di disciplina pura e dispassionata, nasconde spesso storie di rivalità feroci e vendette intellettuali. Una di queste storie, ambientata nella Russia rivoluzionaria del 1905, ha prodotto uno degli strumenti matematici più potenti della storia moderna: le catene di Markov.
Questa è la storia di come l’odio tra due accademici abbia creato gli algoritmi che oggi dominano il nostro mondo digitale.
Il Contesto: Russia in Fiamme
Il 1905 fu un anno di profonda crisi per l’Impero Russo. La sconfitta nella guerra russo-giapponese aveva esposto la debolezza del regime zarista, scatenando rivolte socialiste in tutto il paese. I gruppi socialisti cercavano di rovesciare lo zar, richiedendo riforme politiche complete.
Questa frattura politica si propagò attraverso ogni strato della società russa, persino tra i matematici. La comunità accademica si divise in due fazioni opposte: da un lato i monarchici conservatori, dall’altro i progressisti rivoluzionari.
I Protagonisti: Giganti in Guerra
Pavel Alekseevich Nekrasov: “Lo Zar della Probabilità”
Pavel Alekseevich Nekrasov (1853-1924) era un matematico russo e rettore dell’Università Imperiale di Mosca. Profondamente religioso e potente politicamente, Nekrasov rappresentava l’establishment ortodosso. Aveva studiato in un seminario teologico ortodosso prima di dedicarsi alla matematica.
Per Nekrasov, la matematica non era un’astrazione pura: era uno strumento divino per comprendere la volontà di Dio. Credeva che la matematica potesse essere utilizzata per spiegare la libertà e la volontà di Dio, e vedeva nella teoria della probabilità una prova dell’esistenza del libero arbitrio.
Andrey Andreyevich Markov: “Andrey il Furioso”
All’estremo opposto stava Andrey Andreyevich Markov (1856-1922), celebrato per il suo lavoro pionieristico nei processi stocastici. Ateo militante e repubblicano convinto, Markov disprezzava l’autoritarismo zarista e qualsiasi contaminazione religiosa della scienza.
La stampa lo soprannominò “Neistovy Andrei” (Andrey il Furioso) per il suo temperamento esplosivo e le sue posizioni politiche radicali. Nel 1912, in risposta alla scomunica di Tolstoj dalla Chiesa ortodossa russa, Markov chiese formalmente la propria scomunica.
La Controversia: Libero Arbitrio vs. Determinismo
Il cuore del conflitto riguardava una questione filosofica fondamentale: il libero arbitrio umano può essere dimostrato matematicamente?
L’Argomento di Nekrasov
Nekrasov aveva sviluppato un ragionamento apparentemente brillante. Considerando le statistiche sociali dell’epoca – matrimoni, crimini, nascite – notò che seguivano pattern regolari, convergendo verso valori medi stabili. Esaminando i dati sui matrimoni belgi dal 1841 al 1845, osservò che ogni anno la media si aggirava intorno ai 29.000.
La sua logica era questa:
- La Legge dei Grandi Numeri (dimostrata da Bernoulli nel 1713) afferma che i risultati convergono al valore atteso solo per eventi indipendenti
- Le statistiche sociali mostrano questa convergenza
- Quindi, le decisioni umane che generano queste statistiche devono essere indipendenti
- Ergo, il libero arbitrio esiste ed è misurabile scientificamente
Per Nekrasov, aveva trovato la prova matematica dell’esistenza di Dio.
La Furia di Markov
Markov considerava questo ragionamento un “abuso della matematica”. Per lui, collegare l’indipendenza matematica al libero arbitrio era assurdo e pericoloso.
Ma Markov non si limitò alle critiche: decise di distruggere completamente l’argomento di Nekrasov dimostrando che la Legge dei Grandi Numeri si applica anche a eventi dipendenti.
L’Esperimento Rivoluzionario: “Evgenij Onegin”
Per la sua dimostrazione, Markov scelse un oggetto di studio tanto inaspettato quanto geniale: il poema “Evgenij Onegin” di Alexander Pushkin.
La Metodologia
Nel 1913, Markov analizzò i primi 20.000 caratteri del poema, classificando ogni lettera come vocale o consonante. Scoprì che:
- 43% erano vocali
- 57% erano consonanti
Ma qui venne il colpo di genio: Markov analizzò le coppie di lettere consecutive.
I Risultati Devastanti
Se le lettere fossero state indipendenti, la probabilità di una coppia vocale-vocale sarebbe stata: 0.43 × 0.43 = 18.5%
Ma quando Markov contò, trovò che le coppie vocale-vocale apparivano solo il 6% del tempo – molto meno di quanto previsto dall’ipotesi di indipendenza.
Le lettere erano chiaramente dipendenti: la probabilità che la prossima lettera fosse una vocale dipendeva fortemente dalla lettera attuale.
La Nascita delle Catene di Markov
La Macchina Predittiva
Markov costruì quello che oggi chiamiamo una catena di Markov:
Stati: [Vocale] ⟷ [Consonante]
Probabilità di transizione:
- Da Vocale a Vocale: 13%
- Da Vocale a Consonante: 87%
- Da Consonante a Vocale: ~70%
- Da Consonante a Consonante: ~30%
📚 Nota di Lettura: Questo diagramma rappresenta una macchina predittiva a due stati. Partendo da qualsiasi lettera (vocale o consonante), possiamo calcolare la probabilità della lettera successiva.
Come si leggono le probabilità: Se siamo in una vocale, c’è solo il 13% di probabilità che la prossima lettera sia ancora una vocale, e l’87% che sia una consonante. Notate come le probabilità da ogni stato sommino sempre al 100% (13% + 87% = 100%).
Il calcolo di Markov: Per ottenere il 13%, Markov divise la frequenza delle coppie vocale-vocale (6%) per la frequenza totale delle vocali (43%): 6% ÷ 43% ≈ 13%. Questo è il cuore del metodo: trasformare frequenze osservate in probabilità di transizione.
La prova della dipendenza: Se le lettere fossero indipendenti, la probabilità vocale→vocale dovrebbe essere 43% (la frequenza generale delle vocali). Ma è solo 13% – prova schiacciante che la lettera precedente influenza quella successiva!
Il Principio Fondamentale
La proprietà markoviana stabilisce che: Il futuro dipende solo dallo stato presente, non dalla storia passata.
Questa macchina, partendo da uno stato casuale, convergeva sempre verso la distribuzione 43%-57%, dimostrando che la Legge dei Grandi Numeri funziona anche con eventi dipendenti.
La Vittoria Intellettuale
Markov concluse il suo paper con queste parole taglienti: “Quindi, l’indipendenza delle quantità non costituisce una condizione necessaria per l’esistenza della legge dei grandi numeri”.
Nekrasov era stato demolito. Le statistiche sociali regolari non dimostravano il libero arbitrio – dimostravano semplicemente che anche i sistemi dipendenti seguono leggi matematiche prevedibili.
Dal Solitario alle Bombe Nucleari
Stanisław Ulam e l’Encefalite
Nel gennaio 1946, Stanisław Ulam fu colpito da un caso improvviso e severo di encefalite. Durante la lunga convalescenza, per passare il tempo, giocava a solitario.
Ma la mente di Ulam, anche indebolita, rimaneva quella di un genio. Si chiese: “Qual è la probabilità che una partita di solitario casuale possa essere vinta?”
Dopo aver tentato di risolvere questo problema con calcoli combinatori puri, si chiese se non fosse più semplice giocare multiple mani di solitario e osservare la frequenza delle vittorie.
L’Intuizione Nucleare
Quando Ulam tornò al lavoro a Los Alamos, ebbe una rivelazione. Si rese conto che i problemi della diffusione neutronifica nelle armi nucleari erano simili al suo problema del solitario – troppo complessi per essere risolti analiticamente, ma affrontabili con simulazioni casuali.
Il Metodo Monte Carlo
Collaborando con John von Neumann e Nicholas Metropolis, Ulam sviluppò algoritmi per implementazioni computerizzate. Fu Metropolis a denominare la nuova metodologia dal nome dei casinò di Monte Carlo.
Il metodo funzionava modellando il comportamento dei neutroni come una catena di Markov:
Stati possibili per un neutrone:
1. Continua a viaggiare (loop su se stesso)
2. Viene assorbito o lascia il sistema (terminazione)
3. Colpisce un nucleo U-235 causando fissione (genera 2-3 nuovi neutroni)
Utilizzando ENIAC, il primo computer elettronico, simularono migliaia di storie di neutroni per calcolare il fattore di moltiplicazione K:
- K < 1: La reazione decade
- K = 1: Reazione a catena stabile
- K > 1: Bomba nucleare
L’Algoritmo da Trilioni di Dollari
Il Caos Pre-Google
Negli anni ’90, il World Wide Web esplose. Entro la metà degli anni ’90, migliaia di nuove pagine apparivano ogni giorno. I motori di ricerca esistenti come Yahoo! erano facilmente ingannabili: bastava ripetere keyword centinaia di volte per apparire in cima ai risultati.
I Ragazzi di Stanford
Nel 1996, due studenti PhD di Stanford, Larry Page e Sergey Brin, svilupparono PageRank. La loro intuizione era rivoluzionaria: trattare il web come una gigantesca catena di Markov.
Il Random Surfer Model
L’algoritmo simula un “surfer casuale” che naviga il web:
1. Parte da una pagina casuale
2. Per l'85% del tempo: segue un link casuale dalla pagina attuale
3. Per il 15% del tempo: salta a una pagina completamente casuale (damping factor)
4. Ripete il processo milioni di volte
La Matematica del PageRank
Le catene di Markov e il teorema di Perron-Frobenius sono gli ingredienti centrali dell’algoritmo PageRank di Google.
Ogni pagina web è uno stato della catena di Markov ed i link tra pagine definiscono le probabilità di transizione. Il PageRank di una pagina è la probabilità che il surfer casuale vi si trovi dopo un tempo infinito.
L’Impatto
Utilizzando PageRank, Page e Brin ottennero risultati molto migliori, spesso portando gli utenti a decidere cosa stavano cercando in un singolo passaggio.
Dal loro garage nel 1998, Google oggi vale oltre 2 trilioni di dollari.
Il Ritorno delle Catene: L’Era dell’AI
I Large Language Models
I moderni modelli di linguaggio (GPT, Claude, etc.) sono catene di Markov avanzate. Invece di predire solo la prossima lettera, predicono il prossimo token (che può essere una parola, punteggiatura, o parte di parola).
Il processo è concettualmente identico all’esperimento di Markov su Pushkin:
- Input: Sequenza di token
- Processo: Calcola probabilità per il prossimo token basandosi sui token precedenti
- Output: Seleziona il token più probabile (o usa campionamento)
L’Attenzione: Markov Potenziato
I moderni transformer utilizzano meccanismi di attenzione che permettono al modello di “guardare indietro” oltre l’immediato passato, superando la limitazione markoviana originale pur mantenendo la stessa struttura probabilistica fondamentale.
Il Paradosso del Mescolamento
La Domanda di Ulam
Tornando al solitario: come faceva Ulam a sapere che le sue carte erano perfettamente mescolate?
La Scienza del Mescolamento
Il modello Gilbert-Shannon-Reeds fornisce un modello matematico dei risultati casuali del mescolamento che si è dimostrato sperimentalmente una buona approssimazione del mescolamento umano e forma la base per una raccomandazione che i mazzi di 52 carte vengano mescolati sette volte per randomizzarli completamente.
Il mescolamento può essere modellato come una catena di Markov dove:
- Ogni arrangiamento del mazzo è uno stato
- Ogni mescolamento è una transizione
Il lavoro famoso di Bayer e Diaconis del 1992 analizzò il modello Gilbert-Shannon-Reeds e concluse che il mazzo non iniziava a diventare casuale fino a cinque buoni mescolamenti a ventaglio, ed era veramente casuale dopo sette.
Riflessioni: Il Potere della Memoria-lessness
La Proprietà Markoviana
La brillantezza delle catene di Markov risiede nella loro proprietà “memoryless”: per fare previsioni sul futuro, basta conoscere lo stato presente. Questa apparente limitazione è in realtà la loro forza.
Universalità
Come osservava il matematico Olle Häggström nel 2007: “Problem solving is often a matter of cooking up an appropriate Markov chain”.
Dalle reazioni nucleari ai modelli climatici, dal comportamento delle particelle subatomiche alle dinamiche dei mercati finanziari, le catene di Markov forniscono un framework unificato per modellare sistemi complessi.
L’Ironia Storica
È profondamente ironico che il tentativo di Nekrasov di dimostrare il libero arbitrio abbia portato alla creazione di strumenti che rendono il comportamento umano sempre più prevedibile e manipolabile.
Gli algoritmi basati su Markov oggi predicono:
- Cosa compreremo (raccomandazioni e-commerce)
- Cosa leggeremo (feed social media)
- Come voteremo (microtargeting politico)
- Persino cosa scriveremo (autocompletamento)
Conclusioni: L’Eredità di una Rivalità
La feroce battaglia intellettuale tra Nekrasov e Markov nella Russia rivoluzionaria ha generato uno degli strumenti matematici più influenti della storia moderna.
Il Paradosso del Progresso
Quello che iniziò come un dibattito su Dio e libero arbitrio si è trasformato negli algoritmi che governano la nostra esistenza digitale. Le catene di Markov sono diventate le catene invisibili che collegano ogni aspetto della nostra vita tecnologica.
La Lezione per il Futuro
La storia di Markov ci insegna che spesso i progressi più rivoluzionari nascono dal disaccordo intellettuale e dalla volontà di demolire le idee consolidate. In un’epoca di crescente polarizzazione, forse dovremmo celebrare – piuttosto che temere – il conflitto costruttivo tra idee.
L’Ultima Ironia
Markov, che odiava l’autorità e lottava per la libertà, ha creato gli strumenti matematici che oggi permettono alle aziende tecnologiche di esercitare un controllo senza precedenti sui nostri comportamenti.
Forse, alla fine, sia Nekrasov che Markov avevano ragione: il libero arbitrio esiste (Nekrasov), ma è statisticamente prevedibile e manipolabile (Markov).
Riferimenti
Questo articolo è riassuntivo del seguente video (Veritasium): https://www.youtube.com/watch?v=KZeIEiBrT_w
- Markov, A. A. (1913). An example of statistical investigation of the text “Eugene Onegin” illustrating the connection of samples in chains. Proceedings of the Imperial Academy of Sciences of St. Petersburg, 7(3), 153–162
- Brin, S., & Page, L. (1998). “The anatomy of a large-scale hypertextual Web search engine.” Computer Networks and ISDN Systems 30(1-7):107-117.
- Ulam, S., & Metropolis, N. (1949). “The Monte Carlo Method.” Journal of the American Statistical Association 44(247):335-341.
- Seneta, E. (1996). “Markov and the birth of chain dependence theory.” International Statistical Review 64:255–263.
- Bayer, D., & Diaconis, P. (1992). “Trailing the dovetail shuffle to its lair.” The Annals of Applied Probability 2(2):294-313.
- Ondar, Kh. O. (ed.) (1981). The Correspondence Between A. A. Markov and A. A. Chuprov on the Theory of Probability and Mathematical Statistics. New York: Springer-Verlag.
- Hayes, B. (2013). “First Links in the Markov Chain.” American Scientist 101(2):252-262.
- Häggström, O. (2007). “Problem Solving is Often a Matter of Cooking Up an Appropriate Markov Chain.” Scandinavian Journal of Statistics 34(4):768-780.


Una risposta a “Le Catene di Markov: Dall’Odio Russo all’Algoritmo da Trilioni di Dollari”
Molto interessante, e ho anche capito quasi tutto! 😉