diff --git a/book/silenzio_stelle.tex b/book/silenzio_stelle.tex new file mode 100644 index 0000000..e7ca938 --- /dev/null +++ b/book/silenzio_stelle.tex @@ -0,0 +1,3175 @@ +\documentclass[12pt,a4paper,openany]{book} + +% --- Encoding & Language --- +\usepackage{fontspec} +\usepackage{polyglossia} +\setmainlanguage{italian} + +% --- Fonts --- +\setmainfont{Linux Libertine O}[ + BoldFont = Linux Libertine O Bold, + ItalicFont = Linux Libertine O Italic, + BoldItalicFont = Linux Libertine O Bold Italic +] +\setsansfont{Linux Biolinum O} + +% --- Page Layout --- +\usepackage[ + a4paper, + top=2.8cm, + bottom=3.2cm, + inner=3cm, + outer=2.5cm, + headheight=15pt +]{geometry} + +% --- Typography --- +\usepackage{microtype} +\usepackage{setspace} +\setstretch{1.25} +\usepackage{parskip} +\setlength{\parskip}{0.6em} +\setlength{\parindent}{0pt} + +% --- Headers/Footers --- +\usepackage{fancyhdr} +\pagestyle{fancy} +\fancyhf{} +\fancyhead[LE]{\small\itshape Il silenzio tra le stelle} +\fancyhead[RO]{\small\itshape\leftmark} +\fancyfoot[C]{\thepage} +\renewcommand{\headrulewidth}{0.3pt} + +% --- Chapter Style --- +\usepackage{titlesec} +\titleformat{\chapter}[display] + {\normalfont\huge\bfseries} + {} + {0pt} + {\vspace{-1em}\rule{\textwidth}{1pt}\vspace{0.3em}\huge} + [\vspace{0.3em}\rule{\textwidth}{0.4pt}\vspace{1em}] + +\titleformat{\section}{\normalfont\large\bfseries}{}{0em}{} +\titleformat{\subsection}{\normalfont\normalsize\bfseries\itshape}{}{0em}{} + +\titlespacing*{\chapter}{0pt}{0pt}{2em} + +% --- Math --- +\usepackage{amsmath,amssymb,amsthm} +\usepackage{mathtools} + +% --- Boxes / Epigraphs --- +\usepackage{mdframed} +\usepackage{epigraph} +\setlength{\epigraphwidth}{0.72\textwidth} +\setlength{\epigraphrule}{0pt} +\renewcommand{\epigraphflush}{center} + +% --- Lists --- +\usepackage{enumitem} +\setlist[itemize]{leftmargin=1.5em, itemsep=0.2em} + +% --- Misc --- +\usepackage{graphicx} +\usepackage{xcolor} +\definecolor{accent}{RGB}{60,60,90} +\usepackage{hyperref} +\hypersetup{ + colorlinks=true, + linkcolor=accent, + urlcolor=accent, + pdftitle={Il silenzio tra le stelle}, + pdfauthor={}, +} + +% --- Custom commands --- +\newcommand{\sezione}[1]{\vspace{1.2em}{\large\bfseries #1}\vspace{0.5em}\par} +\newcommand{\puntini}{\begin{center}$\cdot\ \cdot\ \cdot$\end{center}\vspace{0.3em}} +\newcommand{\nota}[1]{\begin{mdframed}[backgroundcolor=gray!8,linecolor=gray!30,linewidth=0.5pt,leftmargin=1em,rightmargin=1em,innerleftmargin=1em,innerrightmargin=1em,innertopmargin=0.8em,innerbottommargin=0.8em]\small #1\end{mdframed}} + +\newenvironment{pensiero}{% + \begin{center}\begin{minipage}{0.85\textwidth}\itshape\small +}{% + \end{minipage}\end{center} +} + +\begin{document} + +% ============================================================ +% COPERTINA +% ============================================================ +\begin{titlepage} +\begin{center} +\vspace*{3cm} +{\fontsize{36}{44}\selectfont\bfseries Il silenzio tra le stelle}\\[1.2em] +{\fontsize{14}{18}\selectfont\itshape Frammenti di un universo che non smette di stupirsi}\\[3em] +{\large\scshape Fisica · Filosofia · Matematica · Mente}\\[5em] +\rule{0.4\textwidth}{0.5pt}\\[2em] +{\normalsize Edizione espansa} +\vfill +\end{center} +\end{titlepage} + +% ============================================================ +% DEDICA +% ============================================================ +\thispagestyle{empty} +\vspace*{8cm} +\begin{center} +\itshape +A chi guarda il cielo e si chiede.\\ +A chi fa la domanda sbagliata e scopre che era quella giusta.\\[2em] +\end{center} +\clearpage + +% ============================================================ +% NOTA DELL'AUTORE +% ============================================================ +\chapter*{Nota dell'autore} +\addcontentsline{toc}{chapter}{Nota dell'autore} + +Questo libro è nato nel mezzo di un'insonnia. + +Non quella insonnia d'ansia che conosce chi ha troppe cose in sospeso. Quella insonnia diversa — la più rara — che viene dall'eccesso di pensiero. Una domanda aveva cominciato a tirare un filo e il filo non smetteva di venire. La domanda era banale nel senso che la fanno anche i bambini: \textit{cos'è il tempo?} Ho trascorso tre ore a fissare il soffitto, costruendo e demolendo risposte. Non perché non conoscessi le risposte fisiche disponibili, ma perché nessuna sembrava abbastanza vera per fermare il filo. Ognuna tirava un altro filo. E quell'altro filo tirava un altro ancora. + +Il risultato è questo libro. Non è un manuale di fisica, né una storia della filosofia. È qualcosa che sta nel mezzo tra una lettera lunga e un trattato incompiuto — quella zona ibrida che i tedeschi chiamerebbero \textit{Denkschrift}: uno scritto del pensiero mentre accade, mentre costruisce, mentre sbaglia e si corregge. + +Ho cercato di portare dentro queste pagine tutto quello che mi affascina senza rispettare le etichette disciplinari: la fisica quando diventa filosofia, la filosofia quando diventa matematica, la matematica quando diventa linguaggio dell'essere. E ho cercato voci meno frequentate nei libri di divulgazione. Alexander Bogdanov sulla tectologia come precursore della teoria dei sistemi. Günther Anders sulla sproporzione tra capacità tecnica e comprensione morale. Simone Weil sulla gravità come metafora etica. Ernst Cassirer sull'irreducibilità delle forme simboliche. Cristina Bicchieri sulla struttura normativa della realtà sociale. Queste voci illuminano angoli che le solite citazioni di Kant e Aristotele lasciano in ombra. + +Alcune sezioni sono tecniche. Non per intimidire, ma perché la tecnicità è spesso il posto dove si nasconde la vera bellezza. Le equazioni non sono ostacoli alla comprensione: sono la forma più densa e precisa che il pensiero umano abbia mai trovato per dire qualcosa di vero sul mondo. Le formule in questo libro sono scritte per essere lette lentamente, non saltate. Per chi vuole i dettagli formali senza interruzioni narrative, la sezione degli Approfondimenti Tecnici è posizionata dopo l'epilogo. + +Una parola sulla voce. Questo libro non si nasconde dietro la falsa neutralità della divulgazione convenzionale. Dove ho una posizione, la dichiaro. Penso che la meccanica quantistica relazionale di Rovelli sia l'interpretazione più filosoficamente onesta disponibile. Penso che il problema difficile della coscienza sia reale e non dissolto dal funzionalismo. Penso che il libero arbitrio in senso compatibilista sia l'unica versione del concetto degna di difesa. Il lettore è libero di dissentire. Anzi, è incoraggiato a farlo. + +C'è un filo che attraversa l'intero libro e che in questa edizione ho cercato di rendere più esplicito: il \textit{relazionalismo}. La tesi, non ovvia, è che le strutture fondamentali della realtà non sono oggetti con proprietà assolute, ma relazioni. Questo vale per le proprietà quantistiche, per il tempo, per lo spazio nella gravità quantistica, per il significato nel linguaggio, per le norme sociali. Non è una posizione ideologica: è la struttura che la fisica ha scoperto, uno strato alla volta, nel corso del Novecento. Renderla visibile come filo conduttore è uno degli scopi principali di questa versione del libro. + +Buona lettura. O, come preferisco pensarla: buona insonnia. + +\clearpage + +% ============================================================ +% COME LEGGERE QUESTO LIBRO +% ============================================================ +\chapter*{Come leggere questo libro} +\addcontentsline{toc}{chapter}{Come leggere questo libro} + +Il libro è diviso in quattro parti narrative, due intermezzi, una sezione di approfondimenti tecnici e un'appendice bibliografica. + +\textbf{Parte Prima — La Struttura del Reale} (Capitoli I–VIII)\\ +Demolizione delle certezze fondamentali. La solidità della materia, la continuità dello spazio, la direzionalità del tempo, la certezza della causalità. Introduce il Modello Standard, la meccanica quantistica, la relatività, la gravità quantistica a loop, la teoria delle stringhe, il vuoto quantistico, l'entanglement e il teorema di Bell. + +\textbf{Intermezzo I — L'Invariante Relazionale}\\ +Un capitolo di connessione esplicita: mostra come la meccanica quantistica relazionale, il relazionalismo spaziale della LQG, il tempo come correlazione, e il linguaggio come pratica sociale siano tutti istanze dello stesso principio profondo. Lettura raccomandata prima della Parte Seconda. + +\textbf{Parte Seconda — La Mente che Osserva} (Capitoli IX–XIII)\\ +Dal mondo fisico al soggetto che lo abita. La matematica come struttura reale o convenzione umana. Il cervello come sistema fisico di elaborazione dell'informazione. La coscienza e il problema difficile. Il libero arbitrio. La percezione come costruzione. Le emozioni come informazione. + +\textbf{Parte Terza — I Confini} (Capitoli XIV–XVI)\\ +Le domande aperte al bordo della conoscenza. L'origine e il destino dell'universo. La vita cosmica. L'intelligenza artificiale come specchio della mente. Un capitolo nuovo sul \textit{Problema dell'Interno}: perché qualcosa come l'esperienza soggettiva esiste affatto. + +\textbf{Intermezzo II — La Gerarchia dell'Emergenza}\\ +Uno schema unificato di come la complessità si stratifica dalla fisica delle particelle alla coscienza. Prepara la Parte Quarta. + +\textbf{Parte Quarta — Come Vivere Sapendo} (Capitoli XVII–XXI)\\ +La traduzione della visione del mondo della fisica in una visione del mondo per vivere. La morte e il significato. La bellezza come categoria epistemica. Il linguaggio come tecnologia cognitiva. L'etica cosmica. La scienza come epistemologia vissuta. + +\textbf{Capitolo finale — Il Paradosso dell'Osservatore Cosmico}\\ +Un capitolo nuovo che riprende tutti i temi del libro a un livello più alto, esponendo la tensione irrisolta al cuore di tutto: siamo il punto dove l'universo diventa consapevole di sé — ma cosa significa che un pezzo dell'universo si guardi dall'interno? + +\textbf{Epilogo — Il Miracolo Ordinario} + +\textbf{Approfondimenti Tecnici T.1–T.8}\\ +Derivazioni formali e strutture matematiche di dettaglio. Accessibili a chi ha una base in fisica o matematica universitaria. + +\puntini + +\textbf{Una nota sulle equazioni.} Ogni equazione in questo libro appare perché fa qualcosa che le parole non possono fare: comprime in una riga una relazione che richiederebbe pagine per essere descritta verbalmente. Non è necessario saperle derivare. È necessario leggerle lentamente, nel contesto, e lasciarle depositare. + +\clearpage + +% ============================================================ +% TAVOLA DEI SIMBOLI +% ============================================================ +\chapter*{Tavola dei simboli principali} +\addcontentsline{toc}{chapter}{Tavola dei simboli principali} + +\begin{tabular}{ll} +$\hbar$ & Costante di Planck ridotta $(h/2\pi) \approx 1.055 \times 10^{-34}$ J·s \\[4pt] +$c$ & Velocità della luce nel vuoto $\approx 2.998 \times 10^8$ m/s \\[4pt] +$G$ & Costante gravitazionale $\approx 6.674 \times 10^{-11}$ m$^3$ kg$^{-1}$ s$^{-2}$ \\[4pt] +$k_B$ & Costante di Boltzmann $\approx 1.381 \times 10^{-23}$ J/K \\[4pt] +$l_P$ & Lunghezza di Planck $= \sqrt{\hbar G/c^3} \approx 1.616 \times 10^{-35}$ m \\[4pt] +$M_{Pl}$ & Massa di Planck $= \sqrt{\hbar c/G} \approx 2.176 \times 10^{-8}$ kg \\[4pt] +$\alpha$ & Costante di struttura fine $= e^2/(4\pi\varepsilon_0\hbar c) \approx 1/137$ \\[4pt] +$|\psi\rangle$ & Vettore di stato (ket) nello spazio di Hilbert \\[4pt] +$\rho$ & Matrice densità: operatore hermitiano $\geq 0$ con $\mathrm{Tr}(\rho)=1$ \\[4pt] +$S(\rho)$ & Entropia di von Neumann: $-\mathrm{Tr}(\rho\log\rho)$ \\[4pt] +$H$ & Entropia di Shannon: $-\sum_i p_i \log_2 p_i$ (bit) \\[4pt] +$G_{\mu\nu}$ & Tensore di Einstein $= R_{\mu\nu} - \tfrac{1}{2}g_{\mu\nu}R$ \\[4pt] +$T_{\mu\nu}$ & Tensore energia-impulso della materia \\[4pt] +$\Lambda$ & Costante cosmologica / energia oscura \\[4pt] +$\Phi$ & Informazione integrata (IIT di Tononi) \\[4pt] +\end{tabular} + +\clearpage + +% ============================================================ +% TABLE OF CONTENTS +% ============================================================ +\tableofcontents +\clearpage + +% ============================================================ +% PARTE PRIMA +% ============================================================ +\part{La Struttura del Reale} +\begin{center} +\itshape +In cui demoliamo, con rispetto e meraviglia,\\ +quasi tutto ciò che credevamo di sapere\\ +sulla materia, il tempo, lo spazio e la legge. +\end{center} +\clearpage + +% ============================================================ +% CAPITOLO I +% ============================================================ +\chapter{La Solitudine dell'Atomo} + +\epigraph{``Everything we call real is made of things that cannot be regarded as real.''}{--- Niels Bohr, in Werner Heisenberg, \textit{Physics and Philosophy} (1958)} + +\sezione{Il paradosso della solidità} + +Iniziate con un blocco di piombo. Tenetelo in mano. Sentite il peso, la resistenza, la fredda solidità del metallo. Ora immaginate un ingrandimento senza limiti: prima i cristalli del reticolo metallico, poi i singoli atomi, poi il nucleo atomico. Quello che trovereste è sconcertante. + +Il raggio di un nucleo atomico è circa $10^{-15}$ m; il raggio atomico è circa $10^{-10}$ m. Il rapporto tra i raggi è $10^{-5}$; il rapporto tra i volumi è $(10^{-5})^3 = 10^{-15}$. Se un atomo fosse grande come la cattedrale di Notre-Dame — circa 80 metri di navata — il nucleo sarebbe un granello di riso da due millimetri al centro. Tutto il resto è spazio attraversato da funzioni d'onda elettroniche, da campi di forza, da scambi di particelle virtuali. Il piombo che tenete in mano è quasi interamente vuoto. + +Eppure non ci cadete attraverso. Questa è la prima meraviglia che questo libro deve spiegare, e la spiegazione ha una profondità che supera di gran lunga l'intuizione ordinaria. Non è una risposta tecnica che si aggiunge alla domanda banale. È una risposta che cambia la natura della domanda: la solidità non è assenza di vuoto, è una proprietà emergente di un sistema quasi interamente vuoto. + +\sezione{Un secondo sguardo al vuoto} + +Prima di rispondere alla domanda sulla solidità, vale la pena fermarsi un momento sul vuoto che abbiamo appena scoperto. Non è il vuoto classico — assenza di tutto. Nel vuoto atomico ci sono campi, funzioni d'onda, forze virtuali. Lo spazio apparentemente vuoto tra nucleo ed elettroni non è silenzio: è un ambiente denso di attività quantistica. Gli elettroni non si trovano in posizioni definite: occupano \textit{orbitali}, regioni di probabilità descritte da funzioni d'onda. Non sono mai fermi: il principio di indeterminazione di Heisenberg proibisce che abbiano simultaneamente posizione e velocità definite, e questo significa che sono sempre in moto, con un'energia di punto zero non riducibile a zero nemmeno allo zero assoluto. + +Questo `vuoto attivo' è la prima forma del relazionalismo che incontreremo in tutto il libro: le proprietà degli elettroni non sono proprietà intrinseche che gli elettroni `hanno' isolati. Sono proprietà che emergono dalle relazioni: dalla relazione con il nucleo, dalla relazione con gli altri elettroni, dalla relazione con i campi di gauge che mediano le interazioni. + +\sezione{Il meccanismo della solidità: forze di gauge e fotoni virtuali} + +La risposta passa attraverso uno dei risultati più profondi della fisica del Novecento: la teoria quantistica dei campi (QFT) e in particolare l'elettrodinamica quantistica (QED), formulata da Feynman, Schwinger e Tomonaga negli anni Quaranta (Nobel 1965). + +Nella QED le forze non sono azioni a distanza come le immaginava Newton. Sono mediate da particelle. L'interazione elettromagnetica tra due cariche è mediata dallo scambio di \textit{fotoni virtuali}: particelle che esistono temporaneamente in prestito di energia per un tempo compatibile con il principio di indeterminazione di Heisenberg, $\Delta E \cdot \Delta t \geq \hbar/2$. Questi fotoni non sono osservabili direttamente, ma i loro effetti sono misurabili con precisione straordinaria: il momento magnetico anomalo dell'elettrone è calcolato e misurato con accordo a undici cifre decimali. + +Quando gli elettroni degli atomi del piombo si avvicinano agli elettroni della vostra mano, si scambiano fotoni virtuali che trasportano impulso, generando una forza repulsiva. Quella che chiamate solidità è questa repulsione, operante a scale di nanometri. + +Il Modello Standard estende il meccanismo a tutte le forze fondamentali non gravitazionali. La struttura matematica è quella delle \textit{teorie di gauge}: teorie invarianti sotto trasformazioni locali dei gruppi $\mathrm{SU}(3) \times \mathrm{SU}(2) \times \mathrm{U}(1)$. La forza forte è mediata da gluoni sotto $\mathrm{SU}(3)$. La forza debole dai bosoni $W^\pm$ e $Z^0$ sotto $\mathrm{SU}(2) \times \mathrm{U}(1)$. Il bosone di Higgs, scoperto al CERN il 4 luglio 2012 (massa $\approx 125\,\mathrm{GeV}/c^2$), completa il quadro: è il quanto del campo scalare che permea lo spazio e dalla cui interazione i bosoni $W$ e $Z$ acquistano massa attraverso il meccanismo di rottura spontanea della simmetria elettrodebole. + +\sezione{Il principio di esclusione di Pauli e la pressione quantistica} + +Ma la repulsione elettromagnetica non basta da sola a spiegare la stabilità della materia. C'è un secondo meccanismo, più sottile e più profondo: il \textit{principio di esclusione di Pauli} (1925). Due fermioni identici — particelle con spin semintero come gli elettroni — non possono occupare lo stesso stato quantistico nello stesso sistema. Questo genera una pressione di degenerazione indipendente dalla temperatura, una resistenza puramente quantistica alla compressione della materia. + +Per gli elettroni in una nana bianca (densità $\sim 10^6\,\mathrm{g/cm}^3$), questa pressione bilancia la gravità fino al limite di Chandrasekhar di $1.4$ masse solari. Sotto questo limite, la stella si stabilizza come nana bianca per miliardi di anni. Sopra, gli elettroni vengono catturati dai protoni e la stella collassa in una stella di neutroni, sostenuta dalla pressione di degenerazione dei neutroni. La solidità del ferro sul vostro tavolo e la stabilità di stelle di neutroni a diecimila anni luce hanno la stessa radice: il principio di Pauli. + +\sezione{Il teorema spin-statistica: la connessione più profonda} + +La domanda filosoficamente più ricca è: \textit{perché} esistono fermioni e bosoni? Perché le particelle con spin semintero obbediscono alla statistica di Fermi-Dirac e quelle con spin intero alla statistica di Bose-Einstein? + +La risposta viene dal \textit{teorema spin-statistica}, dimostrato da Pauli nel 1940 nell'ambito della QFT relativistica. Il teorema mostra che qualsiasi teoria di campo relativistica consistente — invariante di Lorentz, causale, con hamiltoniano limitato dal basso — deve assegnare la statistica di Fermi agli spin semiinteri e di Bose agli spin interi. Non è un postulato aggiuntivo: emerge dalla struttura matematica della teoria. La geometria interna delle particelle (lo spin, legato alla rappresentazione del gruppo di Lorentz) determina le loro proprietà statistiche. La solidità del ferro, la luce dei laser, la superconduttività, le nane bianche: tutte hanno la loro radice ultima in questa connessione tra geometria e statistica. + +Questo è già un anticipo di qualcosa che attraversa l'intero libro: le proprietà fisiche più sorprendenti del mondo macroscopico — la sua solidità, la sua chimica, la sua organizzazione — non sono fatti aggiuntivi che si sovrappongono alla fisica fondamentale. Sono \textit{conseguenze geometriche} della struttura interna delle particelle. + +\sezione{Oltre il Modello Standard} + +Il Modello Standard descrive con precisione straordinaria la materia ordinaria. Ma sappiamo che è incompleto. La materia barionica ordinaria costituisce solo circa il 5\% del contenuto energetico dell'universo. Il 27\% è materia oscura: gravitazionalmente attiva, mai rilevata direttamente. Il 68\% è energia oscura: la causa dell'accelerazione cosmica, identificata con la costante cosmologica ma di natura profondamente misteriosa. Il Modello Standard non include la gravità, non spiega la materia oscura, non spiega l'asimmetria tra materia e antimateria. + +Questa situazione ha un nome preciso nella metodologia scientifica: crisi dei fondamenti. Non è catastrofica — è produttiva. Significa che la struttura concettuale esistente è verificata entro i suoi limiti, e che quei limiti sono visibili. È la posizione epistemicamente più sana possibile: sapere con precisione cosa non si sa. + +\sezione{Una nota sul riduzionismo} + +C'è una tentazione che voglio nominare esplicitamente per poi sfidare: il \textit{riduzionismo ontologico} — l'idea che spiegare le proprietà di un sistema in termini di livelli più fondamentali significhi che le proprietà del sistema siano meno reali. + +La solidità è reale nel senso che descrive accuratamente il comportamento del sistema a quella scala e genera previsioni corrette. Ridurla ai fotoni virtuali non elimina la solidità: la spiega. E spiegarla non è lo stesso che dissolverla. David Chalmers ha formalizzato questa distinzione: la riduzione esplicativa (il comportamento di $X$ è spiegato da $Y$) non implica la riduzione ontologica ($X$ è identico a $Y$ e non è reale in senso proprio). Il mondo è stratificato: ogni strato ha la propria forma di realtà, e la fisica dei livelli inferiori fonda la realtà dei livelli superiori senza cancellarla. + +Questa stratificazione non è una debolezza della fisica: è la sua struttura più interessante. Ogni livello emergente è genuinamente nuovo. Lo torneremo a vedere, con crescente precisione, in ogni capitolo che segue. + +\puntini + +Guardare un muro sapendo tutto questo non lo rende meno solido. Lo rende più interessante. Quella solidità che diamo per scontata è la conseguenza di forze di gauge, di simmetrie interne, di statistiche quantistiche, di fluttuazioni del vuoto. Il mondo ordinario è straordinario fino al midollo. + +% ============================================================ +% CAPITOLO II +% ============================================================ +\chapter{L'Equazione che Non Ha Soluzione} + +\epigraph{``I think I can safely say that nobody understands quantum mechanics.''}{--- Richard Feynman, \textit{The Character of Physical Law} (1967)} + +\sezione{L'equazione di Schrödinger e il suo strano silenzio} + +Nel 1926 Erwin Schrödinger scrisse l'equazione che porta il suo nome. Nella forma dipendente dal tempo: +\[ +i\hbar\,\frac{\partial\psi}{\partial t} = \hat{H}\psi +\] +dove $\psi$ è la funzione d'onda del sistema — un elemento di uno spazio di Hilbert $L^2$ — e $\hat{H}$ è l'operatore hamiltoniano. L'equazione è lineare, deterministica, continua, simmetrica per inversione temporale. Non c'è nulla di casuale in essa. Eppure la meccanica quantistica descrive un mondo probabilistico. Come si conciliano queste due immagini? + +Questa è la domanda fondamentale dell'interpretazione della meccanica quantistica — e dopo quasi cent'anni non ha risposta unanime. Non perché i fisici siano stati pigri o distratti. Ma perché la domanda tocca qualcosa di più profondo di un tecnicismo: tocca cosa vogliamo dire quando diciamo che qualcosa \textit{è reale}. + +\sezione{Il postulato del collasso e i suoi tre problemi} + +L'interpretazione di Copenaghen risponde così: prima della misura, il sistema evolve in sovrapposizione coerente secondo Schrödinger. Quando avviene una misura, la funzione d'onda collassa istantaneamente in uno degli autostati dell'osservabile misurata, con probabilità data dalla regola di Born: $P(a_n) = |\langle a_n|\psi\rangle|^2$. Il postulato del collasso genera tre problemi strutturali che non si risolvono con la tecnica. + +Il \textbf{primo problema} è la non-località del collasso. Il processo è istantaneo in tutto lo spazio, in apparente tensione con la struttura causale della relatività speciale che proibisce la trasmissione di segnali a velocità superluminale. Il collasso non trasmette informazione (come garantisce il teorema di no-communication), ma la sua istantaneità ontologica rimane concettualmente problematica. + +Il \textbf{secondo problema} è il taglio di Heisenberg: il confine tra il dominio quantistico — dove vale la sovrapposizione — e il dominio classico — dove gli esiti sono definiti — non è specificato dalla teoria. Dove finisce il sistema e inizia l'apparato di misura? Un singolo fotone? Una molecola? Un rivelatore macroscopico? Un essere umano? + +Il \textbf{terzo problema}, il più profondo, è la catena di von Neumann (1932). Se applicate la meccanica quantistica all'apparato di misura, anch'esso entra in sovrapposizione col sistema misurato. Se la applicate all'osservatore, anche l'osservatore entra in sovrapposizione. La catena continua indefinitamente: il collasso non emerge mai dall'equazione. Viene postulato ad hoc come secondo processo fisico, distinto dall'evoluzione unitaria, ma non derivato da essa. + +Questi tre problemi non sono separati. Sono aspetti dello stesso problema: il collasso è un'entità concettuale che fa un lavoro descrittivo essenziale (spiegare perché vediamo esiti definiti) senza avere un posto legittimo nella struttura formale della teoria. È il segno di un'incompletezza concettuale reale. + +\sezione{Le interpretazioni} + +\textbf{I molti mondi di Everett (1957).} Hugh Everett III propose la soluzione radicale: non c'è collasso. L'equazione di Schrödinger è sempre valida, per tutti i sistemi, senza eccezioni. Quando avviene una misura, l'universo si ramifica: entrambi i rami della sovrapposizione continuano a esistere, ognuno contenente un esito diverso. Tutte le ramificazioni sono ugualmente reali. Noi siamo in una di esse. + +L'eleganza formale è netta: nessun postulato aggiuntivo, nessun taglio arbitrario, nessuna coscienza privilegiata. Il prezzo è ontologico: una proliferazione indefinita di universi paralleli a ogni misura. Il problema tecnico aperto è la derivazione della regola di Born: perché le probabilità dei rami sono $|c_n|^2$ e non, per esempio, il numero di rami? David Deutsch e David Wallace hanno proposto derivazioni decisionali-bayesiane, ma il dibattito rimane aperto. + +\textbf{La meccanica di de Broglie-Bohm (1927, 1952).} Bohm elaborò nel 1952 una teoria completamente deterministica. Le particelle hanno posizioni precise in ogni istante, guidate dalla funzione d'onda attraverso un'equazione pilota: +\[ +\frac{d\mathbf{x}}{dt} = \frac{\hbar}{m}\,\mathrm{Im}\!\left[\frac{\nabla\psi}{\psi}\right] +\] +La casualità emerge dall'ignoranza della posizione iniziale esatta, non da un'indeterminazione fondamentale. La teoria è empiricamente equivalente alla QM standard. Il prezzo è la non-località esplicita e fondamentale: la velocità di ogni particella dipende istantaneamente dalla configurazione dell'intera funzione d'onda nell'universo. + +\textbf{La meccanica quantistica relazionale di Rovelli (1996).} Carlo Rovelli propose nel 1996 l'interpretazione che ritengo la più filosoficamente onesta disponibile. Il gesto concettuale è analogo a quello di Einstein con la simultaneità: il problema del collasso emerge dall'assumere che esistano stati quantistici assoluti, definiti indipendentemente da qualsiasi sistema osservante. Eliminiamo questa nozione. + +Gli stati quantistici sono relazionali: le proprietà di un sistema $S$ hanno valore definito solo rispetto a un sistema $S'$ che interagisce con $S$. Due sistemi $S'$ e $S''$ che interagiscono con lo stesso $S$ possono assegnargli stati diversi — e questa non è una contraddizione ma la struttura fondamentale della realtà. Non c'è uno stato assoluto dell'universo: ci sono solo fatti relazionali, eventi all'interfaccia tra sistemi. + +Perché questa posizione mi convince? Perché è la meno evasiva. Non moltiplica ontologie (come Everett), non introduce non-località esplicita come proprietà fondamentale (come Bohm), non fa dipendere la fisica dalla coscienza. Dice semplicemente: i fatti fisici sono relazionali. Questo è scomodo per l'intuizione classica, ma matematicamente preciso e fisicamente coerente. + +Vedremo, nel capitolo successivo e nell'Intermezzo, che questa idea — i fatti fisici sono relazionali — ricompare in modo indipendente in ogni angolo della fisica fondamentale: nel tempo, nello spazio, nel linguaggio, nelle norme sociali. Il relazionalismo non è una scelta interpretativa: è la struttura che la fisica ha scoperto. + +\textbf{GRW e i modelli di collasso spontaneo.} Ghirardi, Rimini e Weber proposero nel 1986 un'alternativa che modifica l'equazione di Schrödinger aggiungendo un termine di collasso stocastico. Nell'interpretazione GRW, il collasso è un processo fisico reale (non un postulato interpretativo): ogni particella subisce un collasso spontaneo con frequenza $\sim 10^{-16}$ s$^{-1}$, e il collasso si propaga in modo amplificato ai sistemi macroscopici attraverso l'entanglement. I sistemi macroscopici collassano rapidamente; i sistemi microscopici restano in sovrapposizione a lungo. GRW spiega la transizione classico-quantistica modificando la fisica fondamentale. Ha predizioni falsificabili (leggerissime deviazioni dall'unitarietà per sistemi grandi) non ancora osservate. È una delle posizioni più oneste nel panorama interpretativo: non interpreta la QM, la modifica. + +\textbf{La decoerenza: un progresso reale con limiti precisi.} La teoria della decoerenza quantistica (Zurek, anni Ottanta--Novanta) ha chiarito in modo decisivo la transizione quantistico-classico. Ogni sistema fisico interagisce con il suo ambiente: fotoni del fondo cosmico, molecole d'aria, vibrazioni del reticolo. L'entanglement sistema-ambiente disperde le interferenze quantistiche. Per un granello di polvere ($10^{-6}$ g) in aria, il tempo di decoerenza è $\sim 10^{-23}$ s: le sovrapposizioni macroscopiche collassano praticamente prima che l'esperimento inizi. + +Ma la decoerenza non risolve il problema della misura nel senso profondo. Spiega perché le interferenze macroscopiche sono invisibili. Non spiega perché otteniamo un esito specifico piuttosto che un altro in ogni singola realizzazione. Nella terminologia di Chalmers: risolve i problemi facili dell'interpretazione, non il problema difficile dell'unicità dell'esito soggettivo. + +\sezione{Una tesi originale: il problema della misura come problema linguistico-ontologico} + +Propongo una tesi che non trovo formulata esattamente in questi termini nella letteratura standard. Il problema della misura può essere scomposto in due problemi distinti: un problema ontologico (quale stato fisico corrisponde all'esito di una misurazione?) e un problema \textit{linguistico-concettuale} (cosa significa `esito', `misurazione', `osservatore' nel dominio quantistico?). + +La maggior parte delle interpretazioni tenta di risolvere il problema ontologico assumendo che il problema linguistico sia già risolto. Sospetto sia l'inverso. Le categorie che utilizziamo — particella, posizione, stato, misurazione — provengono dalla fisica classica e dal senso comune, calibrate su oggetti centimetrici a velocità classiche. Applicarle al dominio quantistico è applicare un gioco linguistico (nel senso del Wittgenstein delle \textit{Ricerche Filosofiche}) fuori dal suo contesto d'uso originario. + +Il Wittgenstein delle \textit{Ricerche} avrebbe detto: le difficoltà filosofiche emergono quando il linguaggio va in vacanza — quando applichiamo parole fuori dal contesto d'uso in cui hanno acquisito il loro senso. La domanda `cosa c'è davvero in assenza di qualsiasi interazione?' potrebbe non essere una domanda fisica mal risposta: potrebbe essere una domanda grammaticalmente corretta e semanticamente vuota nel dominio in questione. + +Questo non è una resa al misticismo o all'antirealismo. È un invito alla precisione. Le domande ben poste sulla meccanica quantistica — quelle che chiedono predizioni su risultati di esperimenti — hanno risposte precise e verificabili. Le domande che cercano di andare oltre, verso `cosa c'è davvero' indipendentemente da qualsiasi osservatore, potrebbero richiedere categorie concettuali che non abbiamo ancora sviluppato. + +La tesi ha un corollario importante: l'interpretazione corretta della meccanica quantistica aspetta forse non una nuova teoria fisica, ma una nuova \textit{grammatica concettuale}. Il progresso potrebbe venire dalla filosofia del linguaggio tanto quanto dalla fisica teorica. + +\sezione{Il futuro dell'interpretazione: oltre il paradigma attuale} + +La discussione sull'interpretazione della meccanica quantistica non è solo storica: è attiva e produttiva. Negli ultimi vent'anni si sono sviluppati nuovi approcci che meritano attenzione. + +Il \textit{quantum Darwinism} di Wojciech Zurek estende la decoerenza in una direzione interessante. La classicità non emerge semplicemente perché il sistema si entangla con l'ambiente: emerge perché l'ambiente diventa un \textit{registro} di informazione sul sistema. Le proprietà classiche di un oggetto sono quelle che l'ambiente ha `catturato' in modo ridondante --- quelle che molti osservatori possono conoscere senza disturbare il sistema. La classicità è il risultato di un processo di selezione darwiniana delle proprietà fisiche: sopravvivono le proprietà più `adatte' alla trasmissione ridondante attraverso l'ambiente. + +Il \textit{relational quantum mechanics} di Rovelli ha ricevuto sostegno crescente. Un paper di Adlam e Rovelli (2023) ha chiarito la struttura della teoria in risposta a obiezioni recenti, mostrando che la coerenza della meccanica relazionale è più robusta di quanto sembrava. La RQM è diventata una delle interpretazioni più discusse nella letteratura tecnica contemporanea. + +Il \textit{QBism} ha sviluppato una connessione con la filosofia pragmatista di William James che lo rende filosoficamente più ricco di quanto suggerisse la formulazione originale. Fuchs, in lavori recenti, ha proposto che QBism sia non solo una guida per l'agente ma una nuova forma di realismo --- un `realismo dell'azione' in cui la realtà è co-costruita dall'agente e dal mondo. + +Il dibattito interpretativo non è sterile: sta producendo nuove idee fisiche e nuovi esperimenti. La domanda `cosa significa la QM?' non è separabile dalla domanda `cosa dice la QM?'. L'interpretazione e il contenuto fisico si co-determinano. + +\puntini + +La meccanica quantistica è la teoria più accurata della storia della scienza. E non capiamo cosa significa. Questa non è una debolezza: è la frontiera più onesta che la fisica abbia mai avuto il coraggio di riconoscere. + +% ============================================================ +% CAPITOLO III +% ============================================================ +\chapter{Il Tempo che Aristotele Non Immaginava} + +\epigraph{``Time is what prevents everything from happening at once.''}{--- John Archibald Wheeler} + +\sezione{Tre definizioni di tempo} + +Aristotele definì il tempo come `il numero del movimento secondo il prima e il dopo' (\textit{Fisica}, IV, 11, 219b). È una definizione straordinariamente moderna nel suo nucleo: il tempo è legato al cambiamento, non è una sostanza indipendente. Isaac Newton fece il contrario: il tempo assoluto `fluisce uniformemente senza relazione ad alcuna cosa esterna' (\textit{Principia Mathematica}, Scholium). Il tempo newtoniano è un fiume universale, sfondo fisso e immobile su cui si svolge tutta la fisica. + +Albert Einstein dimostrò nel 1905 e nel 1915 che Newton aveva torto. Il tempo non è assoluto. Non scorre uniformemente per tutti gli osservatori. E nella gravità quantistica, potrebbe non essere fondamentale affatto. + +Abbiamo dunque tre immagini del tempo: il tempo come relazione al cambiamento (Aristotele), il tempo come sfondo assoluto (Newton), il tempo come struttura geometrica dinamica (Einstein). Nessuna delle tre è ovvia. La terza è la più accurata e la più strana. + +\sezione{La relatività speciale: la simultaneità come proprietà relazionale} + +Il punto di partenza di Einstein nel 1905 fu un principio: la velocità della luce nel vuoto, $c \approx 2.998 \times 10^8$ m/s, è la stessa per tutti gli osservatori inerziali, indipendentemente dal loro moto relativo. Combinato con il principio di relatività galileiana, questo implica le trasformazioni di Lorentz: +\[ +t' = \gamma\!\left(t - \frac{vx}{c^2}\right),\quad x' = \gamma(x - vt),\quad \gamma = \frac{1}{\sqrt{1 - v^2/c^2}} +\] +La conseguenza immediata: la simultaneità non è assoluta. Due eventi con $\Delta t = 0$ per un osservatore hanno $\Delta t' \neq 0$ per un osservatore in moto relativo. Questo non è un'illusione percettiva: è una struttura fisica della realtà. + +Hermann Minkowski comprese nel 1907 la struttura geometrica sottostante: le trasformazioni di Lorentz sono pseudo-rotazioni in uno spazio quadridimensionale con metrica: +\[ +ds^2 = -c^2\,dt^2 + dx^2 + dy^2 + dz^2 +\] +Il segno negativo di fronte al termine temporale è la differenza cruciale rispetto alla geometria euclidea. L'intervallo $ds^2$ è invariante: lo stesso per tutti gli osservatori inerziali. Quando $ds^2 < 0$ la separazione è di tipo temporale (causalmente connessa); quando $ds^2 > 0$ è di tipo spaziale (nessun segnale fisico può collegarla); quando $ds^2 = 0$ si è sulla traiettoria di un fotone. L'intera struttura causale dell'universo è codificata in questo segno. + +\sezione{La relatività generale: la gravità come curvatura} + +Il principio di equivalenza di Einstein — un osservatore in caduta libera non distingue localmente la propria situazione da quella di un osservatore nello spazio libero — suggerisce che la gravità non sia una forza nel senso ordinario, ma un effetto geometrico: la curvatura dello spazio-tempo causata dalla presenza di massa ed energia. Le equazioni di campo di Einstein (novembre 1915): +\[ +G_{\mu\nu} + \Lambda g_{\mu\nu} = \frac{8\pi G}{c^4}\,T_{\mu\nu} +\] +Il lato sinistro descrive la curvatura dello spazio-tempo. Il lato destro descrive la distribuzione di massa, energia, impulso e pressione della materia. Wheeler sintetizzò: ``Lo spazio-tempo dice alla materia come muoversi; la materia dice allo spazio-tempo come curvarsi.'' + +Le verifiche sperimentali sono tra le più precise della storia. La precessione del perielio di Mercurio: 43 arcosecondi per secolo, inspiegabili con la meccanica newtoniana, predetti da Einstein con esattezza. La deflessione della luce vicino al Sole: 1.75 arcosecondi, misurata da Eddington nell'eclisse del 29 maggio 1919. Il redshift gravitazionale: confermato con crescente precisione da orologi atomici --- senza correzione relativistica, il GPS accumulerebbe errori di $\sim$10 km al giorno. Le onde gravitazionali: predette da Einstein nel 1916, rilevate da LIGO il 14 settembre 2015. + +\sezione{I buchi neri come laboratori della fisica estrema} + +I buchi neri sono la predizione più drammatica della relatività generale: regioni dello spazio-tempo in cui la curvatura è così intensa che nulla --- neanche la luce --- può sfuggire oltre l'orizzonte degli eventi. Il raggio di Schwarzschild è $r_S = 2GM/c^2$. Per il Sole, $r_S \approx 3$ km. Per il buco nero supermassiccio Sagittarius A* al centro della Via Lattea ($\sim 4$ milioni di masse solari), $r_S \approx 12$ milioni di km. + +L'orizzonte degli eventi non è una superficie fisica: è una superficie causale. Un osservatore che cade attraverso l'orizzonte non sente nulla di speciale al momento dell'attraversamento. L'orizzonte è semplicemente il punto di non ritorno. + +La fotografia di Event Horizon Telescope del buco nero M87* (2019) e poi di Sagittarius A* (2022) ha confermato con immagini dirette la struttura dell'ombra del buco nero prevista dalla GR. Per M87*, la massa è $\sim 6.5 \times 10^9$ masse solari. + +Il calcolo di Hawking del 1974 mostrò che i buchi neri emettono radiazione termica. Questo solleva il \textit{black hole information paradox}: la radiazione di Hawking è termica e sembra cancellare l'informazione di ciò che è caduto nel buco nero. Ma la meccanica quantistica è unitaria: preserva l'informazione. Una evaporazione che distrugge informazione viola la QM. La risoluzione di questo paradosso è uno dei problemi più attivi della fisica teorica, e ci dirà qualcosa di profondo sulla struttura della realtà a scale fondamentali. + +\sezione{Il problema del tempo nella gravità quantistica} + +Quando si tenta di unificare meccanica quantistica e relatività generale, il tempo diventa il problema più duro della fisica teorica. In QM il tempo è un parametro esterno fisso: l'equazione di Schrödinger descrive l'evoluzione dello stato rispetto a $t$, ma $t$ non è un operatore. In GR il tempo è parte della geometria dinamica che risponde alla materia. Questi due ruoli sono fondamentalmente incompatibili. + +Quantizzando la relatività generale con le tecniche canoniche si ottiene l'equazione di Wheeler-DeWitt: +\[ +\hat{H}|\Psi\rangle = 0 +\] +L'universo quantistico descritto da questa equazione è \textit{atemporale}. Non c'è un parametro $t$ rispetto al quale il sistema evolve. + +Una delle risposte più affascinanti — proposta da Don Page e William Wootters nel 1983, sviluppata da Rovelli e altri — è che il tempo emerga come correlazione tra sottosistemi. Non c'è un tempo esterno all'universo: il tempo è la relazione tra le parti. Un orologio è un sistema fisico il cui stato è correlato con lo stato di altri sistemi. Il passare del tempo, la sua freccia, la sua direzionalità, sarebbero proprietà emergenti delle correlazioni interne a sistemi fisici, non proprietà fondamentali dell'universo nel suo complesso. + +Questa idea — il tempo come correlazione emergente — risuona con la meccanica quantistica relazionale di Rovelli. Il tempo non è assoluto per la stessa ragione per cui le proprietà fisiche non sono assolute: perché la struttura fondamentale della realtà è relazionale. Il filo conduttore del relazionalismo continua a tirarsi. + +\sezione{McTaggart, Husserl, e le due nature del tempo} + +John McTaggart pubblicò nel 1908 \textit{The Unreality of Time}, distinguendo la serie~A (eventi ordinati come passati, presenti, futuri) e la serie~B (relazioni temporali `prima di', `dopo di'). La fisica relativistica si allinea con la serie~B: non c'è un presente assoluto, lo spazio-tempo è una struttura statica quadridimensionale. La \textit{visione del blocco universo} sostiene che tutti gli eventi coesistono con uguale realtà ontologica, e il fluire del tempo è una caratteristica dell'esperienza soggettiva. + +Edmund Husserl, nelle \textit{Vorlesungen zur Phänomenologie des inneren Zeitbewusstseins} (1905--1910), analizzò la struttura dell'esperienza temporale con una precisione che anticipa alcune scoperte delle neuroscienze cognitive. Ogni momento della coscienza include la \textit{retention} (il passato appena vissuto che risuona nel presente), l'impressione originaria (il presente puntuale), e la \textit{protention} (l'anticipazione del futuro immediato). Il `presente vissuto' non è un istante puntuale: ha uno spessore temporale di circa 2--3 secondi, corrispondente alla `finestra di integrazione temporale' del cervello. + +Questa struttura fenomenologica è irriducibile al tempo fisico, non perché siano sostanze diverse, ma perché descrivono livelli diversi di organizzazione della stessa realtà. Il tempo fisico della relatività descrive la struttura causale degli eventi nello spazio-tempo. Il tempo vissuto di Husserl descrive la struttura dell'esperienza soggettiva in un sistema fisico che elabora informazione in modo altamente organizzato. + +C'è una tensione qui che non si risolve facilmente: il tempo fisico è atemporale (nel blocco universo non `scorre'), eppure il tempo vissuto è la forma più immediata e incontrovertibile della nostra esperienza. Non possiamo eliminare questa tensione. Possiamo però riconoscerla con precisione: è la tensione tra la descrizione del mondo dall'esterno e la descrizione del mondo dall'interno. Torneremo su questa distinzione nel capitolo sul problema difficile della coscienza, dove si presenta nella sua forma più acuta. + +\sezione{La freccia del tempo: Boltzmann e la specialità del passato} + +Le leggi fondamentali della fisica sono simmetriche nel tempo. Eppure il mondo macroscopico ha una freccia del tempo inequivocabile: il caffè si raffredda, mai si scalda spontaneamente; i vasi rotti non si ricompongono; ricordiamo il passato, non il futuro. + +Ludwig Boltzmann identificò nel 1877 la risposta: l'entropia statistica $S = k_B \ln\Omega$, dove $\Omega$ è il numero di microstati compatibili con il macrostato. Il secondo principio della termodinamica è statistico: gli stati ad alta entropia sono astronomicamente più numerosi degli stati a bassa entropia, quindi i sistemi evolvono quasi certamente verso di essi. La freccia del tempo non è nelle leggi: è nelle condizioni iniziali. L'universo ha cominciato in uno stato di bassissima entropia. + +Roger Penrose ha quantificato questa specialità. Usando l'entropia di Bekenstein-Hawking come misura della complessità geometrica dello spazio-tempo, stima che la probabilità dello stato iniziale del Big Bang sia dell'ordine di $1/10^{10^{123}}$. Questo numero è talmente piccolo da essere privo di qualsiasi parallelo nella fisica. Perché l'universo ha cominciato in uno stato così speciale? Non abbiamo risposta soddisfacente. Questa è la domanda aperta più profonda della cosmologia contemporanea. + +C'è un aspetto di questa domanda che viene raramente sottolineato: la bassissima entropia iniziale non è solo un dato che richiede spiegazione. È la \textit{precondizione} di tutta la struttura dell'universo --- di ogni struttura, di ogni organizzazione, di ogni evento che potremmo chiamare `significativo'. Senza quella condizione iniziale speciale, non ci sarebbero stelle, pianeti, vita, memoria, né la domanda stessa. Il passato speciale è la sorgente di tutto quello che chiamiamo presente. + +\sezione{Il tempo e la memoria: la freccia cognitiva} + +C'è un aspetto della freccia del tempo che la fisica termodinamica cattura solo parzialmente: il suo rapporto con la memoria. Ricordiamo il passato e non il futuro. Questo non è solo una constatazione banale: è un fatto profondo che richiede spiegazione. + +La risposta termodinamica è: la memoria è una registrazione a bassa entropia di un evento ad alta entropia. Quando un evento accade e lascia una traccia --- un ricordo neurale, una fotografia, un'impronta nella sabbia --- quella traccia è una struttura fisica a bassa entropia che correla con l'evento passato. Le tracce del futuro non esistono perché il futuro non è ancora accaduto, e gli stati del futuro non hanno ancora prodotto correlazioni con i sistemi presenti. + +Questa è una visione profonda: la distinzione tra passato e futuro, nella nostra esperienza soggettiva, è la stessa distinzione termodinamica tra regioni di spazio-tempo che hanno già prodotto correlazioni con i nostri sistemi cognitivi e regioni che non lo hanno ancora fatto. Il passato è `quello che è correlato con noi'. Il futuro è `quello che non lo è ancora'. La freccia del tempo soggettiva ha una radice fisica precisa nell'entropia e nella struttura causale. + +\sezione{Il blocco universo e il paradosso del divenire} + +La visione del blocco universo --- in cui tutti gli eventi passati, presenti e futuri coesistono con uguale realtà ontologica --- ha una conseguenza imbarazzante: il divenire è un'illusione. + +Questo è scomodo. La sensazione del divenire --- del presente che si muove, del futuro che diventa passato --- è forse l'aspetto più immediato e incontrovertibile della nostra esperienza. Eppure la struttura matematica della relatività speciale e generale non contiene nessun `presente che scorre'. Contiene solo la struttura quadridimensionale dello spazio-tempo, con tutti gli eventi ugualmente reali. + +Ci sono tre risposte filosofiche principali. Il \textit{presentismo} sostiene che solo il presente esiste: il passato non esiste più, il futuro non esiste ancora. Ha il vantaggio di preservare il divenire, ma è difficile da conciliare con la struttura della relatività, dove non c'è un presente assoluto. Il \textit{blocco statismo} (o blocco universo) sostiene che tutti gli eventi sono ugualmente reali, il divenire è un'illusione prodotta dalla struttura dell'esperienza soggettiva. Preserva la relatività ma nega il divenire. Il \textit{growing block universe} sostiene che passato e presente esistono, ma il futuro no: il blocco cresce man mano che nuovi eventi diventano presenti. È un compromesso, ma ha difficoltà tecniche nella relatività. + +Non c'è consenso. E questo disaccordo tra la struttura fisica del tempo e la struttura fenomenologica del tempo è la tensione più onesta che posso segnalare: la fisica e l'esperienza non concordano. Anziché scegliere una e sacrificare l'altra, preferisco mantenere entrambe con precisione, riconoscendo che descrivono aspetti diversi della realtà. + +\sezione{Il tempo nelle teorie di gravità quantistica: LQG e stringhe a confronto} + +È utile confrontare il modo in cui le due principali teorie di gravità quantistica --- LQG e teoria delle stringhe --- affrontano il problema del tempo. + +Nella LQG, il problema del tempo è affrontato di petto: l'equazione di Wheeler-DeWitt esprime l'atemporalità dell'universo al livello fondamentale, e il tempo emerge come correlazione tra sottosistemi (proposta di Page-Wootters). Non c'è un sfondo temporale preesistente. Il tempo è il che cosa i sistemi fisici usano per coordinarsi. + +Nella teoria delle stringhe, il tempo ha uno status più tradizionale: fa parte dello sfondo spaziotemporale su cui le stringhe si propagano. Nelle formulazioni di stringa perturbativa, il tempo è un parametro esterno. Nelle formulazioni non perturbative come M-theory o nella corrispondenza AdS/CFT, il tempo nella teoria di bordo (CFT) è una struttura fissa, e il tempo nella teoria di bulk (AdS) emerge dalla geometria. + +I due approcci hanno strutture temporali diverse, e non è chiaro come riconciliarle. Questo è uno dei segnali più chiari che non abbiamo ancora capito cosa sia il tempo a livello fondamentale. + +C'è una proposta radicale emergente: che il tempo sia un artefatto della termodinamica --- una proprietà che emerge quando si descrive un sistema macroscopico con un numero di gradi di libertà molto più grande di quelli che si tracciano esplicitamente. In questa prospettiva, il tempo `scorre' perché l'entropia aumenta, e l'entropia aumenta perché il sistema è in uno stato di bassa entropia iniziale. Fuori dall'approssimazione termodinamica --- per sistemi perfettamente isolati con tutti i gradi di libertà tracciati --- il tempo non ha un senso preciso. + +\puntini + +Il tempo è la nozione più fondamentale dell'esperienza umana. È anche quella che la fisica comprende peggio. La relatività lo ha reso relazionale. La termodinamica lo ha connesso all'entropia. La gravità quantistica lo ha quasi dissolto come entità fondamentale. Quello che rimane è una domanda aperta --- e questa apertura non è un fallimento. È il segno che stiamo prendendo la domanda sul serio. + +% ============================================================ +% CAPITOLO IV +% ============================================================ +\chapter{La Gravità Quantistica e la Fine dello Spazio} + +\epigraph{``A spin network is not in space: it is space.''}{--- Carlo Rovelli, \textit{Quantum Gravity} (2004)} + +\sezione{Il problema dell'unificazione} + +Il problema fondamentale della fisica teorica contemporanea è unificare la meccanica quantistica con la relatività generale. Le due teorie sono le più accurate mai costruite: la QM descrive i fenomeni subatomici con precisione senza pari, la GR descrive la gravità e i fenomeni cosmologici. Ma sono incompatibili a livello concettuale. La QM richiede uno sfondo spaziotemporale fisso rispetto al quale definire gli stati e la loro evoluzione temporale. La GR dice che lo spazio-tempo è dinamico — curva, si deforma, risponde alla materia — e non c'è sfondo fisso. Applicare le tecniche standard della QFT alla GR produce infiniti non-rinormalizzabili. + +Ci sono due strategie principali. La prima — la Loop Quantum Gravity — parte dalla struttura della GR e la quantizza direttamente. La seconda — la teoria delle stringhe — parte dalla QFT e cerca di includervi la gravità. Ogni strategia ha i suoi successi e i suoi problemi aperti. Entrambe, nel tentarlo, hanno prodotto idee concettuali di straordinaria fertilità che sopravvivranno probabilmente alla teoria specifica che le ha generate. + +\sezione{Loop Quantum Gravity: le variabili di Ashtekar} + +La Loop Quantum Gravity (LQG) è sviluppata da Abhay Ashtekar a partire dal 1986, con contributi fondamentali di Carlo Rovelli e Lee Smolin. Parte da una riformulazione della GR in variabili formalmente analoghe a quelle delle teorie di gauge del Modello Standard. + +Ashtekar introduce variabili di connessione $\mathrm{SU}(2)$: la connessione $A_a^i$ (analogo del campo gauge $A_\mu$ della QED) e la triade $E_i^a$ (analogo del campo elettrico). In queste variabili, i vincoli della GR hanno la stessa struttura algebrica della teoria di Yang-Mills. Il risultato più importante è la \textit{discretezza della geometria}: gli operatori che rappresentano l'area di una superficie e il volume di una regione hanno spettro discreto. Gli autovalori dell'area sono: +\[ +A = 8\pi\gamma l_P^2 \sum_i \sqrt{j_i(j_i+1)} +\] +dove $\gamma$ è il parametro di Barbero-Immirzi ($\approx 0.274$), $l_P \approx 1.616 \times 10^{-35}$ m è la lunghezza di Planck, e $j_i = 0, \tfrac{1}{2}, 1, \tfrac{3}{2}, \ldots$ sono numeri quantici semiinteri. Lo spazio non è continuo alla scala di Planck: ha una struttura granulare. L'area minima non nulla è dell'ordine di $l_P^2 \approx 2.6 \times 10^{-70}$ m$^2$. + +\sezione{Le reti di spin: lo spazio come grafo quantistico} + +La base degli stati della geometria quantistica in LQG è fornita dalle \textit{reti di spin}. Una rete di spin è un grafo orientato i cui link sono etichettati da rappresentazioni $j$ di $\mathrm{SU}(2)$ e i cui nodi sono etichettati da intertwiners — operatori che raccordano le rappresentazioni degli archi incidenti. + +La fisica è intuitiva. Ogni nodo corrisponde a un grano di volume dello spazio quantistico. Ogni link corrisponde a una superficie elementare che separa i volumi adiacenti. Lo spazio non è un continuo preesistente dentro cui le reti di spin si trovano. Come scrisse Rovelli: ``Una rete di spin non è nello spazio: è lo spazio.'' Le reti di spin sono la struttura fondamentale da cui lo spazio emerge come approssimazione continua a grandi scale. + +Questo è uno dei cambiamenti concettuali più radicali della fisica moderna. Siamo abituati a pensare allo spazio come al palcoscenico vuoto su cui gli eventi si svolgono. La LQG dice che lo spazio non è un palcoscenico: è un attore. Non è il contenitore della fisica: è parte della fisica stessa. E a scale di Planck, non è neanche continuo: è granulare, discreta, costituita da quanti di spazio. + +\sezione{Il relazionalismo spaziale: Leibniz realizzato} + +La LQG realizza in senso tecnico preciso il programma filosofico del relazionalismo spaziale che Leibniz aveva opposto a Newton nel celebre scambio epistolare con Samuel Clarke (1715--1716). Newton sosteneva lo spazio assoluto: una realtà preesistente, indipendente dalla materia. Leibniz sosteneva lo spazio relazionale: lo spazio è la struttura delle relazioni tra oggetti materiali, e senza oggetti non ha senso parlare di spazio. + +La GR fece un passo verso Leibniz: lo spazio-tempo è dinamico, partecipa alla fisica. La LQG radicalizza il relazionalismo: non c'è uno spazio fondamentale su cui si definisce la teoria. Lo spazio \textit{è} le reti di spin, che sono relazioni tra processi fisici localizzati. + +Il pattern si ripete: nel Capitolo~II, le proprietà quantistiche erano relazionali (Rovelli). In questo capitolo, lo spazio è relazionale (LQG). Nel Capitolo~III, il tempo era relazionale (Page-Wootters). In tutti e tre i casi, la struttura fondamentale della realtà non è oggetti con proprietà assolute: è relazioni. Non è un caso. È lo stesso principio che emerge, indipendentemente, in ogni angolo della fisica fondamentale. Nell'Intermezzo che segue la Parte Prima, lo renderemo esplicito. + +\sezione{La dinamica: spin foam e amplitudini di transizione} + +La dinamica delle reti di spin è descritta dalla \textit{spin foam theory}. Uno spin foam è un oggetto a due complessi — punti, linee e superfici etichettate — che descrive la `storia' di una rete di spin nel tempo: la transizione da una geometria spaziale a un'altra. Le amplitudini di transizione tra stati di geometria quantistica sono calcolate sommando su tutti gli spin foam interpolanti, in analogia con l'integrale sui cammini di Feynman. + +Il modello EPRL (Engle, Pereira, Rovelli, Livine, 2008) è il più studiato. La LQG ha ottenuto il risultato di derivare la formula di Bekenstein-Hawking per l'entropia dei buchi neri da primi principi: $S = A/(4l_P^2)$ con coefficiente esatto, identificando il parametro di Barbero-Immirzi. + +\sezione{Predizioni osservative} + +La LQG fa alcune predizioni osservative. Haggard e Rovelli proposero nel 2014 che i buchi neri, in LQG, evaporino tramite effetti quantistici gravitazionali e poi `rimbalzino' come buchi bianchi. La firma osservativa sarebbe un flash di raggi gamma da buchi neri primordiali che stanno completando la loro evaporazione. + +La seconda direzione riguarda la dispersione delle onde gravitazionali. Se la struttura granulare dello spazio-tempo alla scala di Planck introduce una dispersione dei segnali in funzione dell'energia, onde gravitazionali di diversa frequenza emesse simultaneamente da una sorgente lontana arriverebbero in tempi leggermente diversi. L'evento GW150914, con sorgente a 1.3 miliardi di anni luce, ha già posto limiti stringenti sulla dispersione, compatibili con le predizioni di LQG. + +\sezione{Cosa ci insegna la LQG sulla struttura della realtà} + +Voglio fermarmi a riflettere su ciò che la LQG ci insegna, al di là della sua correttezza empirica (ancora da verificare completamente). + +La LQG ci insegna che lo spazio non è un dato primario: è un'approssimazione emergente. A scale molto grandi rispetto alla lunghezza di Planck, le reti di spin si comportano come uno spazio continuo --- esattamente come un fluido si comporta come un continuo a scale molto grandi rispetto alla scala molecolare. Ma alla scala di Planck, la struttura granulare diventa rilevante, e i concetti di `posizione' e `distanza' perdono il loro senso ordinario. + +Questo ha una conseguenza epistemologica profonda: le intuizioni geometriche che usiamo per pensare allo spazio --- rette, distanze, angoli --- sono strumenti cognitivi calibrati su scale umane (da millimetri a chilometri). Non sono verità metafisiche fondamentali. La geometria euclidea sembra vera perché noi siamo oggetti di scala intermedia, in un universo in cui le curvature sono piccole a scale umane e le strutture granulari sono a scale 20 ordini di grandezza sotto i nostri strumenti di misura ordinari. + +Quando spingiamo la fisica verso i suoi limiti --- verso la scala di Planck, verso la curvatura estrema dei buchi neri, verso il primo istante del Big Bang --- le intuizioni geometriche si rompono, e dobbiamo sostituirle con strutture matematiche più astratte. Non è un fallimento: è l'inevitabile conseguenza del fatto che siamo oggetti di scala intermedia che cercano di capire una realtà che si estende su 60 ordini di grandezza in ogni direzione. + +\sezione{Il problema dell'osservatore in LQG e il legame con il Capitolo II} + +C'è una connessione profonda tra la LQG e l'interpretazione relazionale della meccanica quantistica che vale la pena rendere esplicita. + +In LQG, lo spazio è relazionale: non è un contenitore preesistente ma emerge dalle relazioni tra i nodi delle reti di spin. In RQM, le proprietà fisiche sono relazionali: non sono assolute ma emergono dalle interazioni tra sistemi. In entrambi i casi, la struttura fondamentale non è oggetti isolati con proprietà intrinseche: è relazioni da cui oggetti e proprietà emergono. + +Carlo Rovelli, che ha contribuito a entrambi (LQG e RQM), ha sottolineato questa connessione. Non è una coincidenza che la stessa persona abbia sviluppato entrambe le posizioni: è la stessa intuizione filosofica applicata a due domini diversi. Il relazionalismo come struttura della realtà --- proposto nel nostro Intermezzo~I --- ha radici in questa doppia coerenza. + +\sezione{La fenomenologia della scala: imparare a pensare in ordini di grandezza} + +Una delle competenze intellettuali più importanti --- e più rare --- che la fisica insegna è la capacità di pensare in ordini di grandezza. Non di calcolare con precisione, ma di stimare rapidamente e di sviluppare intuizioni sui comportamenti a diverse scale. + +Considerate la scala del tempo cosmico: dall'istante del Big Bang ($\sim 10^{-43}$ secondi, il tempo di Planck) all'età attuale dell'universo ($\sim 4 \times 10^{17}$ secondi). Questo è un range di $\sim 10^{60}$ ordini di grandezza in tempo. In confronto, l'intera storia della vita complessa sulla Terra ($\sim 500$ milioni di anni, $\sim 1.5 \times 10^{16}$ secondi) occupa meno di due ordini di grandezza nell'intervallo totale. + +Considerate la scala spaziale: dalla lunghezza di Planck ($1.6 \times 10^{-35}$ m) al diametro dell'universo osservabile ($\sim 8.8 \times 10^{26}$ m). Questo è un range di $\sim 10^{61}$ ordini di grandezza in spazio. Il corpo umano ($\sim 1$ m) è quasi esattamente nel mezzo di questo range, a metà strada tra la scala di Planck e quella cosmica (in ordini di grandezza). + +Considerate la scala energetica: dall'energia termica a temperatura ambiente ($k_B T \sim 0.025$ eV) all'energia di Planck ($\sim 10^{19}$ GeV). Questo è un range di $\sim 10^{31}$ ordini di grandezza. Il LHC esplora energie di $\sim 10^{4}$ GeV --- enormi per gli standard umani, ma 15 ordini di grandezza al di sotto dell'energia di Planck. + +Sviluppare la sensibilità agli ordini di grandezza --- capire a colpo d'occhio se un numero fisico è `grande' o `piccolo' in relazione alla scala rilevante --- è una forma di intuizione fisicamente calibrata che trasforma la comprensione del mondo. Un fisico che sente `energia cosmica' sa immediatamente che stiamo parlando di scale molto diverse dall'energia delle reazioni chimiche. Un fisico che sente `lunghezza di Planck' sa che stiamo al limite assoluto della struttura dello spazio. + +Questa intuizione delle scale non richiede di fare i calcoli: richiede di aver vissuto con i numeri abbastanza a lungo da sentirli. È una forma di sensibilità cognitiva che si sviluppa con la pratica e che trasforma il modo in cui si percepisce la realtà fisica. + +\puntini + +Lo spazio, nella LQG, non è il palcoscenico vuoto della fisica: è il tessuto dinamico della realtà, costituito da grani di Planck, relazionale nella sua struttura fondamentale. Le intuizioni spaziali calibrate su scale di centimetri e metri non si applicano a $10^{-35}$ metri. La fisica chiede continuamente di abbandonare le intuizioni quando la matematica le contraddice --- e la matematica della LQG dice che lo spazio ha una fine. + +% ============================================================ +% CAPITOLO V +% ============================================================ +\chapter{La Teoria delle Stringhe e il Paesaggio} + +\epigraph{``The theory has not made any contact with observation or experiment. It has produced beautiful mathematics, but I believe it has come at a cost.''}{--- Lee Smolin, \textit{The Trouble with Physics} (2006)} + +\sezione{L'idea} + +La teoria delle stringhe è l'approccio alla unificazione della fisica più studiato e più contestato degli ultimi quarant'anni. L'idea fondamentale: le particelle elementari non sono oggetti puntiformi ma \textit{stringhe} — oggetti unidimensionali estesi che vibrano in modi diversi. I diversi modi di vibrazione corrispondono a particelle diverse. Tra i modi di vibrazione c'è uno stato senza massa con spin 2: il gravitone. La teoria include automaticamente la gravità. La prima rivoluzione delle stringhe (1984--1985) mostrò che esistono teorie di stringhe consistenti in 10 dimensioni spaziotemporali senza anomalie di gauge. + +\sezione{Il paesaggio e il problema dell'infalsificabilità} + +La seconda rivoluzione delle stringhe degli anni Novanta rivelò il problema fondamentale: il \textit{paesaggio}. Esistono $\sim 10^{500}$ vacui distinti della teoria delle stringhe — configurazioni diverse dello spazio interno di Calabi-Yau con costanti fisiche diverse. Ogni vacuo è un universo potenziale. Nel nostro universo osserviamo le costanti che osserviamo perché ci troviamo nel vacuo compatibile con la nostra esistenza. + +Questo ha generato la controversia epistemologica più intensa della fisica teorica degli ultimi vent'anni. Peter Woit e Lee Smolin argomentano che il paesaggio rende la teoria infalsificabile: qualsiasi valore delle costanti fisiche è compatibile con la teoria. I sostenitori rispondono che la falsificabilità in senso popperiano stretto non è il criterio unico di scientificità, e che il programma di ricerca è giustificato da AdS/CFT. + +\sezione{La corrispondenza AdS/CFT: il risultato più solido} + +Il contributo più genuino e più influente della teoria delle stringhe è la corrispondenza AdS/CFT, formulata da Juan Maldacena nel 1997. L'articolo è il paper più citato della fisica delle alte energie. La corrispondenza afferma una \textit{dualità esatta} tra la supergravità di tipo IIB su $\mathrm{AdS}_5 \times S^5$ (spazio anti-de Sitter cinque-dimensionale) e la teoria conforme di Yang-Mills $\mathcal{N}=4$ sul bordo 4-dimensionale. + +La formula di Ryu e Takayanagi (2006) è una delle conseguenze più profonde: +\[ +S(A) = \frac{\mathrm{Area}(\gamma_A)}{4G_N\hbar} +\] +dove $S(A)$ è l'entropia di entanglement di una regione $A$ della teoria di bordo e $\gamma_A$ è la superficie geodetica minimale nell'interno AdS che si ancora al bordo di $A$. Mark Van Raamsdonk (2010) ha mostrato che rimuovendo l'entanglement tra due regioni della CFT di bordo, la geometria AdS corrispondente si disconnette. Lo spazio-tempo è connesso perché le regioni del bordo sono entangled. \textit{L'entanglement è il tessuto dello spazio.} + +Questa idea ha una risonanza profonda con la LQG: in entrambi i programmi, la geometria spaziale non è fondamentale ma emergente. In LQG emerge dalle reti di spin; in AdS/CFT emerge dall'entanglement quantistico. Non sappiamo ancora se queste siano due descrizioni della stessa struttura sottostante. Ma la convergenza concettuale è notevole. + +\sezione{La mia posizione epistemologica} + +Concordo con la critica metodologica di Smolin e Woit sul paesaggio e sull'infalsificabilità, ma non con la conclusione che le stringhe siano prive di valore. AdS/CFT è un risultato genuino con applicazioni verificabili in fisica della materia condensata (viscosità dei quark-gluon plasma), nella fisica dei buchi neri, e nella comprensione dell'entropia di entanglement. + +La posizione epistemicamente onesta è questa: le stringhe hanno prodotto matematica utile e strutture concettuali (holografia, dualità) di grande fertilità. Come teoria fondamentale dell'universo fisico, rimane non confermata dopo quarant'anni di sviluppo. Questo non la condanna: la storia della scienza è piena di programmi di ricerca che hanno attraversato lunghi periodi senza conferma sperimentale diretta. Ma ci obbliga a tenerla come ipotesi esplorata, non come fatto consolidato. + +\sezione{La dualità S e le dualità di rete: quando le teorie si specchiano} + +Uno degli aspetti più fertili della teoria delle stringhe è la rete di \textit{dualità} tra teorie apparentemente diverse. La dualità S connette la teoria perturbativa forte (grande costante di accoppiamento) di una teoria con la teoria perturbativa debole (piccola costante di accoppiamento) di un'altra. La dualità T connette teorie compattificate su raggi grandi con teorie su raggi piccoli. + +Queste dualità hanno rivelato qualcosa di profondo: non ci sono cinque teorie di stringhe distinte in 10 dimensioni (Type I, IIA, IIB, Heterotic SO(32), Heterotic $E_8 \times E_8$), ma una sola teoria --- M-theory in 11 dimensioni --- di cui le cinque teorie sono casi limite perturbativi. Questa `teoria madre' è ancora largamente sconosciuta nella sua struttura completa: la conosciamo attraverso le sue ombre. + +Il concetto filosoficamente interessante è questo: le dualità mostrano che la stessa struttura fisica può essere descritta da teorie matematicamente diverse. Non c'è una descrizione `vera': ci sono diverse descrizioni ugualmente valide che catturano aspetti diversi della stessa realtà. Questo è un esempio profondo di strutturalismo ontico (discusso in T.8): la struttura relazionale sottostante è più reale delle sue rappresentazioni specifiche. + +\sezione{La crisi della naturalness e le sue implicazioni} + +La \textit{naturalness} è il principio (informale) che i parametri fondamentali della fisica non dovrebbero richiedere fine-tuning estremo per spiegare i valori osservati. Il problema della gerarchia --- perché la massa del bosone di Higgs è 17 ordini di grandezza più piccola della massa di Planck, nonostante le correzioni radiative tendano ad alzarla? --- viola la naturalness a meno di nuova fisica (come SUSY) che cancelli le correzioni. + +Il LHC non ha trovato la nuova fisica prevista dalla naturalness. Questo ha generato una crisi nel campo: o la naturalness non è un buon principio guida, o la nuova fisica è a energie più alte del previsto, o il fine-tuning è accettabile per ragioni che non capiamo ancora. + +La crisi della naturalness è importante perché mostra che i criteri estetici dei fisici --- naturalness, eleganza, parsimonia --- non sono garantiti dalla natura. La natura può essere fine-tuned. Può essere `brutta' per i nostri standard. Questo è scomodo, ma è un fatto empirico che dobbiamo accettare e incorporare nella nostra epistemologia della fisica. + +\puntini + +La teoria delle stringhe ci ha dato una grande idea: la geometria spaziotemporale potrebbe emergere dall'entanglement quantistico. Che questa idea provenga da una teoria non ancora confermata non la rende meno fertile --- ma ci obbliga a tenerla come ipotesi, non come fatto. + +% ============================================================ +% CAPITOLO VI +% ============================================================ +\chapter{Informazione, Entropia, e la Fisica del Pensiero} + +\epigraph{``Information is physical.''}{--- Rolf Landauer, \textit{IBM Journal of Research and Development} (1961)} + +\sezione{Shannon e la nascita della teoria dell'informazione} + +Nel 1948 Claude Shannon pubblicò `A Mathematical Theory of Communication'. Il paper fondava la teoria dell'informazione come disciplina matematica precisa, separandola dalla semantica del messaggio. Shannon definì l'entropia dell'informazione: +\[ +H = -\sum_i p_i \log_2 p_i +\] +dove $p_i$ è la probabilità del simbolo $i$-esimo. $H$ misura l'incertezza media della sorgente — o equivalentemente la quantità minima di bit necessari per codificare i suoi messaggi. La formula è formalmente identica all'entropia di Gibbs della meccanica statistica $S = -k_B \sum_i p_i \ln p_i$. L'equivalenza formale è superficiale o profonda? La risposta, rivelata dall'analisi del demone di Maxwell, è: profonda. + +\sezione{Il demone di Maxwell e il principio di Landauer} + +James Clerk Maxwell immaginò nel 1867 un essere intelligente in controllo di una botola tra due compartimenti di gas a temperatura uguale. Il demone osserva le molecole e apre la botola selettivamente: lascia passare le molecole veloci da sinistra a destra, e quelle lente da destra a sinistra. Il gas di destra diventa più caldo, quello di sinistra più freddo, senza lavoro apparente. Il secondo principio sembrava violato. + +Rolf Landauer risolse il problema nel 1961 con una tesi che ha cambiato il modo in cui pensiamo alla relazione tra computazione e fisica: il costo termodinamico irriducibile non è la misurazione (che può essere reversibile) ma la \textit{cancellazione dell'informazione}. Quando il demone cancella il record di una misurazione per liberare memoria, compie un'operazione logicamente irreversibile che deve dissipare almeno: +\[ +Q \geq k_B T \ln 2 \quad \text{per ogni bit cancellato} +\] +Charles Bennett confermò nel 1973 che la computazione reversibile — che non cancella mai informazione — non richiede dissipazione di principio. Il principio di Landauer fu verificato sperimentalmente nel 2012 (Lutz et al., \textit{Nature}): il limite di Landauer è raggiunto asintoticamente nei processi quasi-statici. + +\sezione{It from Bit: Wheeler e il programma informazionale} + +John Archibald Wheeler propose verso la fine della sua carriera la tesi `It from Bit': ogni fatto fisico, ogni particella, ogni evento trae la propria esistenza da risposte a domande binarie sì/no. Il programma `It from Qubit', sviluppato nell'ambito di AdS/CFT, dà contenuto tecnico preciso a questa intuizione: lo spazio-tempo emerge dall'entanglement quantistico dei gradi di libertà del bordo. + +Voglio però segnalare una tensione non risolta. L'informazione nel senso di Shannon è una quantità epistemica: misura l'incertezza di un osservatore rispetto a una distribuzione di probabilità. Affermare che la realtà fisica `è fatta di informazione' mescola una categoria epistemica con una ontologica. Il principio di Landauer mostra che l'elaborazione dell'informazione è fisicamente vincolata — non che la fisica si riduca all'informazione. C'è una differenza tra `l'informazione obbedisce alle leggi della fisica' e `la fisica è informazione'. La prima è dimostrata. La seconda è una tesi metafisica affascinante ma ancora aperta. + +\sezione{L'entropia di von Neumann e la geometria} + +L'entropia di von Neumann di uno stato quantistico descritto dalla matrice densità $\rho$ è: +\[ +S(\rho) = -\mathrm{Tr}(\rho\log\rho) +\] +Per uno stato puro $\rho = |\psi\rangle\langle\psi|$, $S = 0$. Per la miscela massimamente mista $\rho = \mathbf{I}/d$, $S = \log d$. La formula di Ryu-Takayanagi connette questa quantità con la geometria in AdS/CFT: $S(A) = \mathrm{Area}(\gamma_A)/(4G_N\hbar)$. Questo è il ponte più preciso che conosciamo tra informazione e geometria. + +\sezione{Una connessione sottile: la mente e il secondo principio} + +Il principio di Landauer ha un corollario filosofico che raramente viene reso esplicito. Il pensiero ha conseguenze fisiche. Elaborare, memorizzare, cancellare informazione sono operazioni fisiche vincolate dal secondo principio della termodinamica. Ogni volta che la mente forma un ricordo e poi lo dimentica, ogni volta che un computer elabora un'istruzione e scarta il risultato intermedio, il secondo principio viene soddisfatto: l'entropia dell'universo aumenta. La mente non è esente dalla fisica. + +Questo è, nel migliore dei sensi, umiliante e meraviglioso insieme. Umiliante perché dissolve l'idea che il pensiero sia un dominio separato dalla materia. Meraviglioso perché rivela che la fisica dei processi fisici più fondamentali — la crescita dell'entropia, la freccia del tempo — è intimamente connessa con la struttura dell'esperienza mentale. + +\sezione{La computazione reversibile e i limiti termodinamici del pensiero} + +Il risultato di Bennett ha implicazioni profonde: in linea di principio, è possibile fare computazione senza dissipare energia, purché si facciano solo operazioni logicamente reversibili. Un computer reversibile mantiene tutta l'informazione: non cancella mai nessun bit intermedio. Invece di sovrascrivere i risultati intermedi, li accumula --- il che ha un costo in termini di memoria, non di energia. + +In pratica, i computer reali cancellano informazione continuamente e dissipano enormi quantità di calore. Un processore moderno dissipa nell'ordine di 100 watt, molto più del limite di Landauer per i calcoli che esegue. La distanza dal limite teorico è di molti ordini di grandezza: c'è ancora un enorme margine di miglioramento teorico, anche senza nuove fisica. + +Ma c'è un limite più fondamentale che la computazione reversibile non aggira: il costo di \textit{inizializzazione} del sistema. Per iniziare un calcolo, bisogna preparare il computer in uno stato di bassa entropia (un registro vuoto, pronto a ricevere input). Questa inizializzazione richiede di scartare l'informazione precedente --- e \textit{questo} dissipa energia. Non c'è modo di iniziare un calcolo da zero senza pagare un costo termodinamico. + +Questo ci dice qualcosa di profondo sul pensiero: ogni atto cognitivo genuinamente nuovo --- ogni momento in cui la mente `azzera' e inizia a elaborare un nuovo problema --- ha un costo fisico irriducibile. Il pensiero non può essere completamente gratuito dal punto di vista termodinamico, non per limitazioni tecnologiche ma per ragioni di principio. + +\sezione{Informazione, entropia e la freccia del tempo} + +C'è una connessione profonda tra informazione ed entropia che va al cuore della freccia del tempo. Ricordiamo il passato e non il futuro. Costruiamo tracce del passato (registrazioni, memorie, impronte) e non del futuro. Perché? + +La risposta termodinamica: una traccia del passato è una struttura a bassa entropia che correla con un evento ad alta entropia già accaduto. Il futuro non ha ancora prodotto queste correlazioni. Le tracce del passato sono possibili perché il mondo è partito da un'entropia iniziale bassa e l'ha aumentata progressivamente, lasciando lungo la via `impronte' nei sistemi con cui ha interagito. + +La memoria --- biologica, tecnologica, fisica --- è l'accumulo di queste impronte. La storia, la cultura, la scienza: sono sistemi di immagazzinamento e trasmissione di impronte del passato. L'intera impresa culturale umana può essere vista come un sistema di riduzione dell'entropia locale attraverso l'immagazzinamento organizzato di informazione. + +E qui c'è una cosa vertiginosa: questo libro è, in senso letterale, un sistema a bassa entropia che immagazzina correlazioni con eventi passati (idee, esperimenti, argomenti) e le trasmette a sistemi futuri (le menti che lo leggono). È un oggetto termodinamico. Ogni libro, ogni pensiero registrato, ogni conversazione: tutti oggetti termodinamici che resistono al disordine locale per il prezzo di aumentare il disordine globale. + +\sezione{Computazione, fisica e i limiti della mente artificiale} + +Il principio di Landauer ha un corollario che tocca direttamente il futuro dell'intelligenza artificiale: i limiti fisici della computazione sono limiti reali, non provvisori. + +Un processore moderno esegue $\sim 10^{12}$ operazioni al secondo e dissipa $\sim 100$ W. Il limite di Landauer a temperatura ambiente è $k_B T \ln 2 \approx 3 \times 10^{-21}$ J per operazione logicamente irreversibile. Un processore reale dissipa $\sim 10^{-10}$ J per operazione --- 11 ordini di grandezza sopra il limite teorico. C'è un enorme margine di miglioramento teorico. + +Ma anche un processore ideale che operasse al limite di Landauer, con la potenza di un reattore nucleare (1 GW), potrebbe eseguire al massimo $\sim 3 \times 10^{29}$ operazioni al secondo. Il cervello umano esegue $\sim 10^{15}$ operazioni al secondo con $\sim 20$ W --- già enormemente efficiente. La differenza tra le due cifre suggerisce che i processi cognitivi del cervello sono molto più efficienti delle operazioni elementari dei computer tradizionali: probabilmente perché usano massiccio parallelismo analogico, non computazione digitale seriale. + +Un sistema AI che cercasse di simulare completamente un cervello umano a livello neuronale richiederebbe risorse computazionali enormi. Questo non è un argomento contro l'AI: è una nota di cautela sul tipo di AI che è fisicamente fattibile. L'AI efficiente non assomiglierà al cervello: sfrutterà l'architettura del substrato fisico in modo diverso, non come la biologia ma con efficienza comparabile. + +\puntini + +La connessione tra informazione ed entropia termodinamica dice qualcosa di profondo: il pensiero ha conseguenze fisiche. La mente non è esente dalla fisica. Questa è, nel migliore dei sensi, una scoperta umiliante e meravigliosa. + +% ============================================================ +% CAPITOLO VII +% ============================================================ +\chapter{Il Vuoto Non È Niente} + +\epigraph{``The vacuum is not empty. It is the most important physical object in modern physics.''}{--- Steven Weinberg, \textit{Dreams of a Final Theory} (1992)} + +\sezione{Il vuoto quantistico} + +La parola `vuoto' evoca assenza. In fisica classica, il vuoto è esattamente questo: una regione di spazio senza materia, senza campi, senza energia. La meccanica quantistica ha reso questa intuizione radicalmente sbagliata. + +Il vuoto quantistico non è il nulla: è lo stato di minima energia di ogni campo quantistico. E questa energia minima non è zero. Il principio di indeterminazione di Heisenberg impone che un campo con energia esattamente nulla avrebbe posizione e momento entrambi definiti con precisione arbitraria — violando $\Delta E \cdot \Delta t \geq \hbar/2$. Il campo deve fluttuare anche nel suo stato di minima energia. Queste fluttuazioni del punto zero non sono artefatti matematici: hanno conseguenze fisiche misurabili. + +\sezione{L'effetto Casimir} + +Hendrik Casimir predisse nel 1948 che due piastre metalliche conduttrici parallele nel vuoto, separate da una distanza $d$, si attraggono per via delle fluttuazioni del campo elettromagnetico. Tra le piastre, le condizioni al contorno riducono i modi di fluttuazione permessi rispetto allo spazio aperto esterno. L'energia del vuoto tra le piastre è minore di quella esterna, generando una forza attrattiva. La pressione di Casimir è: +\[ +F/A = -\frac{\hbar c\pi^2}{240\,d^4} +\] +Per $d = 10$ nm la pressione è circa 1 atm. La prima misura di Lamoreaux (1997) confermò la predizione con accordo del 5\%. L'effetto Casimir è rilevante per la tribologia nanometrica e per i dispositivi MEMS. + +\sezione{L'effetto Unruh: il vuoto dipende dall'osservatore} + +William Unruh dimostrò nel 1976 un risultato sorprendente: un osservatore che accelera uniformemente nel vuoto quantistico non vede il vuoto. Percepisce un bagno termico di particelle a temperatura: +\[ +T_U = \frac{\hbar a}{2\pi c k_B} +\] +dove $a$ è l'accelerazione. Un osservatore inerziale, nel medesimo stato del campo, vede il vuoto. L'osservatore accelerato vede radiazione termica. Il vuoto non è una proprietà assoluta del campo: è relazionale, dipende dallo stato di moto dell'osservatore. + +Questo è il terzo esempio in questo libro di relazionalismo fisico: le proprietà quantistiche (Cap.~II), la geometria spazio-temporale (Cap.~III, IV), e ora il vuoto stesso sono osservatore-dipendenti. Il vuoto non è un oggetto assoluto: è una relazione tra lo stato del campo e lo stato dell'osservatore. La struttura fondamentale della realtà non è fatta di oggetti: è fatta di relazioni. + +\sezione{La radiazione di Hawking e la termodinamica dei buchi neri} + +Stephen Hawking combinò nel 1974 la meccanica quantistica con la geometria della relatività generale: i buchi neri emettono radiazione termica. Il meccanismo: vicino all'orizzonte degli eventi, le fluttuazioni del vuoto quantistico producono coppie di particelle virtuali. Una particella cade dentro il buco nero (con energia negativa, riducendone la massa) e l'altra sfugge come radiazione reale. La temperatura di questa radiazione è: +\[ +T_H = \frac{\hbar c^3}{8\pi G M k_B} +\] +Per un buco nero di massa solare, $T_H \approx 6 \times 10^{-8}$ K. Jacob Bekenstein aveva proposto che i buchi neri abbiano entropia proporzionale all'area dell'orizzonte. Con la radiazione di Hawking, la termodinamica dei buchi neri diventa completa: $S_{BH} = A/(4G_N\hbar)$ — dove ogni area di Planck contribuisce circa un bit. + +\sezione{Il problema della costante cosmologica} + +Sommando l'energia di punto zero di tutti i campi del Modello Standard fino alla scala di Planck, si ottiene una densità di energia del vuoto dell'ordine di $10^{94}$ g/cm$^3$. La densità di energia osservata della costante cosmologica è circa $10^{-29}$ g/cm$^3$. Il disaccordo è di 123 ordini di grandezza. + +Questo è il `problema della costante cosmologica', considerato il peggior disaccordo quantitativo tra teoria e osservazione della storia della fisica. Le risposte proposte includono cancellazione quasi esatta tra contributi positivi e negativi (che richiederebbe un fine-tuning di 123 cifre decimali), supersimmetria esatta, e il principio antropico nel paesaggio stringa. Nessuna risposta è soddisfacente. Il problema rimane aperto ed è uno dei segnali più chiari che la fisica fondamentale ha bisogno di qualcosa di profondamente nuovo. + +\sezione{Fluttuazioni inflazionarie: dal vuoto alla struttura cosmica} + +Le fluttuazioni del vuoto quantistico hanno un'importanza cosmologica diretta. Durante l'inflazione cosmica, le fluttuazioni quantistiche del campo inflatone vengono amplificate dall'espansione esponenziale dell'universo fino a scale cosmologiche. Queste fluttuazioni primordiali diventano le anisotropie del CMB e i semi delle strutture cosmiche. + +Le galassie, gli ammassi, i filamenti cosmici, le stelle, i pianeti, la vita, noi — siamo tutti l'amplificazione cosmica di fluttuazioni quantistiche del campo inflatone che esistevano frazioni infinitesimali di secondo dopo il Big Bang. La struttura dell'universo su scale di miliardi di anni luce ha le sue radici nelle fluttuazioni del vuoto quantistico a scala di Planck. Non è una metafora: è la descrizione fisica più accurata dell'origine della struttura cosmica che abbiamo. + +\sezione{Il vuoto come sorgente della struttura} + +C'è un'idea che emerge da tutti questi risultati sul vuoto quantistico, e che merita di essere articolata esplicitamente: il vuoto non è il punto di partenza passivo della fisica. È la sorgente attiva della struttura. + +Le particelle elementari del Modello Standard non sono oggetti che `abitano' lo spazio-tempo preesistente. Sono eccitazioni dei campi quantistici che permeano lo spazio-tempo. I campi nel loro stato di minima energia --- il vuoto --- non sono fermi. Pulsano di fluttuazioni. E queste fluttuazioni hanno struttura: la struttura data dalle simmetrie di gauge del Modello Standard. + +Quando l'universo era molto caldo, nelle frazioni di secondo dopo il Big Bang, tutte le simmetrie erano intatte. I campi pulsavano nel vuoto simmetrico. Con il raffreddamento, le simmetrie si sono rotte spontaneamente: il campo di Higgs ha scelto una direzione nel suo potenziale messicano, rompendo la simmetria $\mathrm{U}(1)$ elettrodebole. Da quel momento, il vuoto ha un valore di aspettazione non zero per il campo di Higgs: $\langle\phi\rangle = v \approx 246$ GeV. Ogni particella che attraversa questo vuoto `sente' questo valore di aspettazione e acquista massa proporzionale alla propria costante di accoppiamento con il campo di Higgs. + +Il vuoto è quindi la struttura di sfondo che permea tutto lo spazio, dà massa alle particelle, e determina la struttura delle forze. Non è il niente: è il fondamento su cui si costruisce tutto il resto. + +\sezione{Il vuoto e l'energia oscura} + +Il problema della costante cosmologica è, in fondo, il problema del vuoto. L'energia del vuoto quantistico --- la densità di energia del campo nel suo stato di minima energia --- dovrebbe contribuire alla costante cosmologica. E lo fa: ma con un valore $\sim 10^{123}$ volte più grande del valore osservato. + +Questo non è un problema di calcolo: è un problema concettuale. Non sappiamo come il vuoto quantistico contribuisce all'energia del vuoto gravitazionale. Il meccanismo di cancellazione che riduce il valore di $10^{94}$ g/cm$^3$ a $10^{-29}$ g/cm$^3$ è completamente sconosciuto. È il problema più imbarazzante della fisica teorica contemporanea. + +Le soluzioni proposte sono radicali. La supersimmetria avrebbe cancellato esattamente i contributi bosonici con quelli fermionici --- ma la SUSY è rotta (se esiste), e non sappiamo come la rottura lasci un residuo così piccolo. Il principio antropico nel paesaggio stringa dice che abitiamo un vacuo con $\Lambda$ piccola perché in vacui con $\Lambda$ grande la vita non è possibile. È una spiegazione coerente ma non verificabile. + +Il problema della costante cosmologica potrebbe richiedere una rivoluzione concettuale nell'idea stessa di vuoto. Forse il vuoto non ha un'energia assoluta: solo le differenze di energia sono fisicamente significative. Forse la costante cosmologica non è una proprietà del vuoto ma della geometria dello spazio-tempo su scale cosmologiche. Forse l'energia oscura non è costante ma evolve nel tempo, e i modelli $w \neq -1$ sono corretti. + +Non sappiamo. Ma la precisione con cui conosciamo il problema --- 123 ordini di grandezza --- è già un risultato straordinario. + +\sezione{Il vuoto e la radiazione di fondo} + +Il fondo cosmico di microonde (CMB) a 2.725 K è il residuo di radiazione dal momento della ricombinazione, $\sim$380.000 anni dopo il Big Bang. Ma c'è anche un fondo cosmico di neutrini (Cosmic Neutrino Background, CNB) a $\sim$1.95 K, ancora non rilevato direttamente ma la cui esistenza è prevista con alta confidenza dalla cosmologia standard. E c'è un fondo stocastico di onde gravitazionali primordiali (se l'inflazione ha avuto luogo con i parametri previsti dai modelli standard), che potrebbe essere rilevato da LISA. + +Questi fondi cosmologici sono, in un certo senso, le impronte del vuoto nelle epoche cosmiche passate. Il CMB porta informazione sullo stato dell'universo a 380.000 anni; il CNB porta informazione sull'universo a pochi secondi; le onde gravitazionali primordiali porterebbero informazione sull'universo a $10^{-36}$ secondi, durante l'inflazione. + +Il vuoto quantistico dell'inflazione ha generato le fluttuazioni primordiali che sono diventate le strutture dell'universo. Il vuoto elettrodebole ha generato le masse delle particelle. Il vuoto della QCD ha generato la massa dei nucleoni. Tre vacui distinti, tre epoche cosmiche, tre livelli di struttura. Il vuoto non è uno solo: è una gerarchia di stati di minima energia, ognuno caratterizzato da un diverso set di simmetrie rotte. + +\sezione{Il vuoto come sfondo dei processi cosmologici primordiali} + +Negli istanti immediatamente successivi al Big Bang, l'universo era in uno stato di densità e temperatura straordinariamente elevate. A queste scale di energia, le distinzioni tra le forze che osserviamo oggi erano unificate. Il vuoto era diverso: la simmetria elettrodebole era integra, e i bosoni $W$ e $Z$ erano senza massa come il fotone. + +Quando l'universo si è raffreddato a $\sim$100 GeV (circa $10^{-12}$ secondi dopo il Big Bang), la transizione di fase elettrodebole ha rotto la simmetria: il campo di Higgs ha acquistato un valore di aspettazione nel vuoto $\langle\phi\rangle = 246$ GeV. In questo momento, il vuoto cambiò struttura. I bosoni $W$ e $Z$ acquistarono massa. L'universo divenne diverso da quello che era. + +Ancora più tardi --- a $\sim$200 MeV, circa $10^{-5}$ secondi dopo il Big Bang --- la transizione QCD trasformò il quark-gluon plasma in protoni, neutroni e pioni. Il vuoto della QCD ha condensato chirale $\langle\bar{q}q\rangle \neq 0$, rompendo la simmetria chirale. In questo momento, i nucleoni acquisirono il 99\% della loro massa dall'energia delle interazioni forti, non dalle masse dei quark. + +La nostra massa corporea --- il peso che sentite sotto i piedi, il peso di questa pagina --- è quasi interamente energia di interazione dei quark nel vuoto QCD. Non siamo fatti di materia nel senso classico: siamo fatti di energia congelata in strutture da transizioni di fase del vuoto cosmologico. + +\sezione{L'energia del vuoto come problema filosofico} + +L'energia del vuoto --- che produce l'effetto Casimir, la radiazione di Hawking, l'effetto Unruh, e che dovrebbe contribuire alla costante cosmologica --- è forse la quantità fisica più filosoficamente problematica che conosciamo. + +Il problema non è solo tecnico (il disaccordo di 123 ordini di grandezza). È concettuale. L'energia del vuoto è `reale' nel senso che produce effetti fisici misurabili. Ma è `reale' nel senso di contribuire alla curvatura dello spazio-tempo come dovrebbe, in base alle equazioni di Einstein, fare? I dati dicono di no: la costante cosmologica osservata è enormemente più piccola di qualsiasi stima ragionevole dell'energia del vuoto. + +C'è qualcosa di profondamente sbagliato nella nostra comprensione del rapporto tra l'energia del vuoto quantistico e la geometria gravitazionale. Non è un errore di calcolo: è un disaccordo di struttura. Il modo in cui la meccanica quantistica dei campi e la relatività generale si connettono attraverso l'energia del vuoto non è capito. Questo è, forse, il segnale più chiaro che la futura teoria della gravità quantistica dovrà rivoluzionare la nostra comprensione di cosa sia il vuoto. + +\puntini + +Il nulla non esiste. Anche dove sembra non esserci niente, c'è il vuoto quantistico: pulsante di fluttuazioni, dipendente dall'osservatore, responsabile delle forze tra piastre a nanometri e della struttura dell'universo a miliardi di anni luce. Aristotele aveva ragione --- la natura ha orrore del vuoto --- ma per le ragioni sbagliate. + +% ============================================================ +% CAPITOLO VIII +% ============================================================ +\chapter{Entanglement, Non-Località, e la Struttura della Realtà} + +\epigraph{``God does not play dice.'' \quad ``Einstein, don't tell God what to do.''}{--- A. Einstein e N. Bohr} + +\sezione{Il dibattito Einstein-Bohr} + +Il dibattito Einstein-Bohr sulla completezza della meccanica quantistica è il confronto intellettuale più intenso e più produttivo della storia della fisica moderna. Einstein non rifiutava il nuovo per conservatorismo: aveva inventato la relatività speciale e generale, aveva contribuito alla nascita della teoria quantistica, e aveva compreso più chiaramente di quasi chiunque altro le implicazioni filosofiche di ciò che la QM stava dicendo. Le trovava inaccettabili. + +Quello che Einstein non poteva accettare non era la probabilità: era la non-separabilità. L'idea che due sistemi, una volta interagiti, non potessero più essere descritti indipendentemente anche a distanza arbitraria — che il mondo non fosse composto di oggetti locali con proprietà definite — era, per Einstein, una violazione del realismo. E Einstein era, prima di tutto, un realista. + +\sezione{L'argomento EPR (1935)} + +Nel 1935 Einstein, Podolsky e Rosen pubblicarono `Can Quantum-Mechanical Description of Physical Reality Be Considered Complete?'. L'argomento si basa su due premesse filosofiche. + +\textbf{Prima premessa} (criterio di realtà fisica): se, senza disturbare fisicamente un sistema, possiamo prevedere con certezza il valore di una quantità fisica, allora esiste un elemento della realtà fisica corrispondente a quella quantità. + +\textbf{Seconda premessa} (separabilità locale): se due sistemi non interagiscono più e sono separati nello spazio, una misurazione su uno di essi non può disturbare fisicamente l'altro. + +Con queste premesse, EPR costruisce l'argomento: per una coppia di particelle in uno stato entangled, la misurazione di una particella permette di prevedere con certezza il risultato della misurazione dell'altra, senza disturbarla. Quindi l'altra ha un elemento di realtà corrispondente. Ma la QM non assegna un valore definito a questa quantità prima della misura. Conclusione: la descrizione quantistica è incompleta. + +\sezione{Il teorema di Bell (1964): dalla metafisica all'algebra} + +John Stewart Bell dimostrò nel 1964 che qualsiasi teoria a variabili nascoste locali deve soddisfare una disuguaglianza matematica verificabile sperimentalmente. La forma CHSH: +\[ +|E(a,b) - E(a,b') + E(a',b) + E(a',b')| \leq 2 +\] +La meccanica quantistica prevede, per lo stato di singoletto $|\psi^-\rangle = (|\!\uparrow\downarrow\rangle - |\!\downarrow\uparrow\rangle)/\sqrt{2}$ e per le orientazioni ottimali, un valore $S = 2\sqrt{2} \approx 2.83$ — in violazione del limite classico di 2. Bell aveva trasformato un disaccordo metafisico in una predizione algebrica verificabile. È difficile sopravvalutare l'importanza di questo gesto: aveva portato la filosofia in laboratorio. + +\sezione{Gli esperimenti: da Aspect (1982) alla chiusura di tutti i loophole (2015)} + +Alain Aspect e colleghi eseguirono nel 1982 gli esperimenti decisivi. Usando fotoni entangled emessi da atomi di calcio in cascade atomica, misurarono $S = 2.697 \pm 0.015$ — chiaramente sopra il limite classico di 2. + +L'esperimento loophole-free di Hensen et al. (\textit{Nature}, 2015) fu il primo a chiudere tutti i loophole simultaneamente: usò spin di elettroni in centri NV nel diamante separati da 1.3 km, con scelta delle impostazioni randomizzata da generatori quantistici di numeri casuali durante il volo dei fotoni di lettura. La violazione della disuguaglianza CHSH fu osservata con valore di $p \approx 0.04$. + +Il risultato è definitivo: il realismo locale — la tesi che la natura è composta di oggetti con proprietà definite localizzati nello spazio — è escluso dai dati sperimentali. Non è esotismo: è il risultato empirico più solidamente stabilito della fisica sperimentale del secondo Novecento. + +\sezione{Cosa significa: le interpretazioni della non-località} + +La violazione delle disuguaglianze di Bell dimostra che una o entrambe le premesse EPR sono false. Ma quale? + +In Copenaghen: il criterio di realtà EPR è falso. Le proprietà non esistono prima della misura. Non c'è `elemento di realtà' da localizzare. + +Nella meccanica bohmiana: la separabilità locale è falsa. La funzione d'onda pilota è un oggetto globale non-locale. + +Nella meccanica relazionale di Rovelli: non c'è uno stato assoluto del sistema a cui si applica la non-località. Ci sono solo fatti relazionali locali — gli eventi che si verificano nelle interazioni tra sistemi. Le correlazioni tra fatti relazionali diversi non richiedono alcuna trasmissione istantanea: sono correlazioni tra eventi che hanno radici nell'interazione passata delle particelle. + +Tim Maudlin ha argomentato che l'entanglement richiede un'ontologia olistica: lo stato di un sistema bipartito entangled non si fattorizza in stati delle sue parti. Le proprietà fondamentali appartengono alle relazioni, non agli oggetti. Questo è il cambiamento concettuale più radicale prodotto dalla QM nella nostra immagine del mondo. + +\sezione{L'entanglement come struttura fondamentale della realtà} + +Il realismo locale è falsificato. Ma cosa lo sostituisce? Questo è il punto dove la fisica lascia spazio alla filosofia, e dove diverse risposte sono ancora disponibili. + +Una risposta potente è quella di Tim Maudlin: l'entanglement non è una strana proprietà di alcune coppie di particelle esotiche. È la struttura fondamentale della realtà. Gli oggetti fisici elementari non sono le particelle: sono le relazioni. Quando due particelle si entanglano, non è che `acquistano una strana connessione': è che smettono di essere due oggetti separati e diventano un oggetto unico --- un sistema bipartito --- le cui proprietà appartengono all'insieme, non alle parti. + +L'olismo quantistico implica che la realtà non è un insieme di oggetti separati che entrano in relazione: è, originariamente, un sistema globale le cui proprietà locali emergono solo nelle interazioni. La separazione è derivata, non fondamentale. L'interconnessione è fondamentale. Questo cambia radicalmente la base ontologica della scienza: non partiamo da oggetti isolati che poi si relazionano; partiamo da relazioni da cui gli oggetti emergono come approssimazioni utili a scale macroscopiche. + +L'universo è, in questo senso, un sistema profondamente non-locale. Le particelle che si sono entanglate nel passato --- e nel Big Bang, quando la densità era estrema, tutto era in contatto con tutto --- mantengono correlazioni che non dipendono dalla distanza. Lo spazio può separarle; le correlazioni rimangono. + +\sezione{Entanglement e struttura dello spazio-tempo} + +La connessione più profonda e più recente è quella tra entanglement e geometria. La formula di Ryu-Takayanagi (vista nel Capitolo V) mostra che l'entropia di entanglement di regioni sul bordo di un sistema AdS codifica la geometria del bulk. Van Raamsdonk ha mostrato che rimuovere l'entanglement tra due regioni disconnette la geometria. Mark Van Raamsdonk ha sintetizzato: ``lo spazio-tempo è tessuto dall'entanglement''. + +Questo è un cambiamento concettuale radicale: la geometria dello spazio-tempo --- che pensiamo come lo sfondo della fisica --- potrebbe emergere dall'entanglement quantistico dei gradi di libertà fondamentali. Non è lo spazio-tempo che contiene l'entanglement: è l'entanglement che produce lo spazio-tempo. + +Se questa idea è corretta, allora la non-località dell'entanglement non è una stranezza da spiegare all'interno di uno spazio-tempo preesistente. È la struttura di base da cui lo spazio-tempo stesso emerge. La non-località è più fondamentale della località. Siamo noi, con i nostri macroscopici sistemi nervosi calibrati su oggetti centimetrici, a percepire il mondo come composto di oggetti separati nello spazio. La realtà fondamentale è più interconnessa di quanto la nostra intuizione spaziale possa facilmente contenere. + +\sezione{Conseguenze filosofiche: verso un'ontologia dell'interconnessione} + +La falsificazione del realismo locale non è solo un risultato tecnico. Richiede che rivediamo alcune delle assunzioni più profonde che la fisica classica aveva consolidato come intuizioni. + +L'assunzione classica è la \textit{separabilità}: un sistema fisico complesso è completamente descritto dalla descrizione delle sue parti e delle loro relazioni locali. Questa assunzione permea la nostra intuizione sul mondo: le cose sono dove sono, hanno le proprietà che hanno, indipendentemente da quello che succede altrove. La QM la nega: lo stato di un sistema bipartito entangled non è derivabile dagli stati delle sue parti. Ci sono correlazioni che appartengono al sistema complessivo e non alle parti singole. + +Erwin Schrödinger, che aveva inventato la funzione d'onda, scrisse nel 1935 che l'entanglement --- una parola che inventò lui --- era `la caratteristica fondamentale della meccanica quantistica, quella che la forza ad allontanarsi radicalmente dalle linee della pensiero classico'. Non era un entusiasta dell'interpretazione: era profondamente preoccupato. Ma aveva identificato con precisione l'elemento centrale. + +L'implicazione filosofica è che l'universo non è una collezione di cose separate che occasionalmente interagiscono. È un sistema globalmente interconnesso, in cui le separazioni che percepiamo sono approssimazioni emergenti a scale macroscopiche, non strutture fondamentali. L'interconnessione è più profonda della separazione. L'entanglement non è l'eccezione: è la regola, e ciò che chiamiamo `oggetti separati' è l'approssimazione. + +Questo risuona con tradizioni filosofiche molto diverse dalla fisica occidentale moderna --- dal buddismo (inter-essere, dipendenza originata) alla filosofia processuale di Whitehead. Non sto suggerendo che la fisica validi queste tradizioni: le strutture sono diverse. Ma la convergenza concettuale verso l'interconnessione come struttura fondamentale è interessante, e non dovremmo ignorarla solo perché viene da direzioni insolite. + +\puntini + +I teoremi di Bell e gli esperimenti che li verificano sono tra i risultati più profondi della storia della scienza. Non solo confermano la QM: cambiano la nostra immagine di cosa la realtà fisica possa essere. Il realismo locale è falsificato sperimentalmente. Viviamo in un universo non-locale nel senso preciso in cui Bell lo intendeva. + +% ============================================================ +% CAPITOLO VIII-bis +% ============================================================ +\chapter{Le Onde Gravitazionali e la Nuova Astronomia} + +\epigraph{``We have opened a new window on the universe.''}{--- David Reitze, LIGO Executive Director, 2016} + +\sezione{Il 14 settembre 2015} + +Il 14 settembre 2015 alle 09:50:45 UTC, i rivelatori LIGO registrarono un segnale di durata 0.2 secondi. La forma del segnale — un `chirp' che cresceva in frequenza e ampiezza — era la firma inequivocabile di due masse che si avvicinavano spiralizzando. La sorgente: due buchi neri di circa 36 e 29 masse solari che si fondevano, liberando energia equivalente a $\sim$3 masse solari ($5 \times 10^{47}$ J) in onde gravitazionali nell'arco di frazioni di secondo. La sorgente si trovava a $\sim$1.3 miliardi di anni luce. + +GW150914 valse a Weiss, Barish e Thorne il Nobel 2017. Ma va molto al di là del Nobel: segnò l'apertura di una nuova finestra sull'universo, la finestra gravitazionale, che si aggiunge alla finestra elettromagnetica e neutrinica. Ogni nuova finestra ha rivoluzionato l'astronomia. Le onde gravitazionali stanno rivelando la fisica delle regioni più dense e più dinamiche del cosmo. + +\sezione{Come funziona LIGO} + +LIGO è un interferometro di Michelson gigante con bracci di 4 km. Un'onda gravitazionale distorce la metrica dello spazio-tempo in modo differenziale: allunga un braccio e accorcia l'altro. La variazione di lunghezza è $\Delta L = h \times L/2$, dove $h$ è la strain dell'onda gravitazionale. Per GW150914, $h_{max} \approx 10^{-21}$: una variazione di $4 \times 10^{-18}$ m sui 4 km del braccio — circa $10^{-3}$ del diametro di un protone. È la misura più precisa mai eseguita nella storia della scienza strumentale. + +LIGO opera vicino ai limiti fondamentali della misura quantistica, usando stati compressi della luce (squeezed light) per ridurre il quantum noise al di sotto del limite quantistico standard. + +\sezione{GW170817: la prima astronomia multi-messaggera} + +Il 17 agosto 2017, LIGO e Virgo rilevarono GW170817: la fusione di due stelle di neutroni a $\sim$130 milioni di anni luce. 1.74 secondi dopo il segnale gravitazionale, Fermi rilevò un breve gamma-ray burst. Nelle ore successive, una kilonova rivelò la nucleosintesi di elementi pesanti nel materiale espulso. Lo spettro mostrava chiaramente stronzio e lantanidi — confermando che le fusioni di stelle di neutroni sono una delle principali sorgenti degli elementi pesanti. + +Dove è l'oro dei nostri anelli? È stato forgiato nella fusione di stelle di neutroni miliardi di anni fa, disperso nello spazio, e incorporato nel disco protoplanetario che ha formato il sistema solare. + +\sezione{Il futuro: LISA e i segnali primordiali} + +LISA, con bracci di 2.5 milioni di km, osserverà fusioni di buchi neri supermassicci a qualsiasi redshift e potenzialmente il fondo stocastico di onde gravitazionali primordiali dal Big Bang — permettendo di `vedere' l'universo a un'epoca precedente alla ricombinazione, a cui il CMB pone il limite della finestra elettromagnetica. + +\puntini + +Ogni nuova finestra sull'universo ha mostrato che l'universo è più ricco e più complesso di quanto la finestra precedente permettesse di immaginare. Le onde gravitazionali sono la nostra quinta finestra. Quello che mostrerà nei decenni a venire, non possiamo ancora nemmeno formularlo come domanda. + +% ============================================================ +% CAPITOLO V-bis: ROTTURA SPONTANEA DI SIMMETRIA +% ============================================================ +\chapter{La Rottura Spontanea di Simmetria} + +\epigraph{``The universe is not required to be in perfect harmony with human ambition.''}{--- Carl Sagan} + +\sezione{Il meccanismo più universale della fisica} + +Uno dei concetti più potenti e più belli della fisica moderna è la rottura spontanea di simmetria (SSB). L'idea essenziale: le equazioni fondamentali di una teoria possono avere una certa simmetria, mentre le soluzioni di quelle equazioni — gli stati fisici — non la rispettano. La simmetria è rotta non dalle leggi, ma dallo stato in cui il sistema si trova. + +Il ferromagnete è l'esempio classico. Al di sopra della temperatura di Curie ($\sim$1043 K per il ferro), i momenti magnetici puntano in direzioni casuali: il materiale non è magnetizzato, e le equazioni sono invarianti per rotazione. Al di sotto della temperatura di Curie, i momenti si allineano spontaneamente in una direzione: la simmetria rotazionale è rotta. Il materiale ha `scelto' una direzione, anche se le leggi della fisica non ne privilegiavano nessuna. + +\sezione{Il campo di Higgs e il potenziale messicano} + +Il meccanismo di Higgs è l'applicazione più fondamentale della SSB nella fisica delle particelle. Il campo di Higgs $\phi$ ha un potenziale con la forma di un cappello messicano: +\[ +V(\phi) = -\mu^2|\phi|^2 + \lambda|\phi|^4,\quad \mu^2 > 0,\;\lambda > 0 +\] +Il punto $\phi = 0$ è un massimo locale (instabile). Il minimo si trova su un cerchio di raggio $v = \sqrt{\mu^2/2\lambda} \approx 246$ GeV. L'universo si `assesta' in uno dei punti del cerchio di minimi, rompendo la simmetria $\mathrm{U}(1)$ elettrodebole. Il valore di aspettazione nel vuoto $\langle\phi\rangle = v \neq 0$ è la sorgente della massa delle particelle. + +Il bosone di Higgs — rilevato al CERN il 4 luglio 2012 con massa $\approx 125.09$ GeV/$c^2$ — è il quanto delle oscillazioni radiali attorno al minimo del potenziale. + +\sezione{La storia dell'universo come sequenza di rotture di simmetria} + +La storia cosmica dell'universo può essere narrata come una sequenza di rotture di simmetria spontanee, ognuna delle quali differenzia le forze e genera nuove strutture. A temperature altissime ($E \gg 10^{16}$ GeV), le quattro forze fondamentali erano probabilmente unificate. Al raffreddamento, si separarono progressivamente: la forza forte dalle forze elettrodeboli (rottura GUT), poi la forza elettromagnetica dalla forza debole (meccanismo di Higgs, $\sim$100 GeV), poi la transizione del confinamento QCD ($\sim$200 MeV) che trasformò il quark-gluon plasma in protoni, neutroni e pioni. + +Le strutture del mondo che abitiamo — atomi, molecole, cristalli, stelle, galassie — sono il risultato di questa cascata di scelte spontanee. Un universo con tutte le simmetrie intatte sarebbe un universo senza struttura: un gas di particelle senza massa che si propagano alla velocità della luce, senza interazioni distinte, senza chimica, senza vita. La ricchezza del mondo nasce dalla rottura delle simmetrie. + +\sezione{Implicazione filosofica: la simmetria come potenzialità} + +C'è un'analogia profonda tra la rottura spontanea di simmetria e la distinzione aristotelica tra potenza (\textit{dynamis}) e atto (\textit{energeia}). Prima della rottura, il sistema ha la simmetria come potenzialità: tutte le direzioni nel potenziale messicano sono ugualmente possibili. Dopo la rottura, una direzione specifica è realizzata. La scelta è spontanea: emerge dalle fluttuazioni quantistiche o termiche interne al sistema stesso. Non è causata da nessun fattore esterno. + +Siamo figli della rottura della simmetria. Ogni struttura nell'universo --- ogni atomo, ogni molecola, ogni essere vivente --- è il prodotto di una scelta spontanea, non imposta dall'esterno, che ha differenziato il possibile dal reale. + +\sezione{La simmetria come principio ontologico} + +Il teorema di Noether e la struttura di gauge del Modello Standard suggeriscono qualcosa di profondo: le leggi fisiche sono leggi di simmetria. Non descrivono cosa accade: descrivono cosa rimane invariante quando qualcosa cambia. + +Newton formulava leggi comportamentali: il pianeta si muove su questa orbita. La fisica moderna formula leggi di simmetria: la rotazione dello spazio lascia invariante la quantità di moto angolare. La transizione da leggi comportamentali a leggi di simmetria è profondamente connessa al cambiamento dal realismo di oggetti al realismo di strutture. + +Le simmetrie sono strutture invarianti, e le strutture invarianti sono relazionali. Il relazionalismo e il strutturalismo convergono qui: le leggi fisiche sono leggi di simmetria, le simmetrie sono strutture invarianti, e le strutture invarianti sono relazionali. La struttura della realtà è la struttura delle sue invarianze. + +La topologia porta questo principio al livello più profondo: le invarianti topologiche sono invarianti sotto tutte le deformazioni continue. Sono la matematica della struttura irriducibile. Le fasi topologiche della materia usano queste strutture per costruire proprietà fisiche robuste per principio, non per approssimazione. Il computer quantistico topologico usa la topologia come baluardo contro la decoerenza. + +Dalla struttura di gauge alla topologia: la progressione è verso invarianze sempre più profonde, verso strutture che resistono a perturbazioni sempre più generali. La fisica è la ricerca delle strutture più invarianti della realtà. E le strutture più invarianti sono le strutture relazionali. + +\sezione{Le fasi topologiche della materia: simmetrie invisibili} + +La fisica della materia condensata moderna ha rivelato una nuova categoria di strutture simmetriche: le \textit{fasi topologiche}. Queste fasi non sono caratterizzate da una rottura spontanea di simmetria nel senso ordinario (Landau), ma dalla topologia della struttura delle bande elettroniche nello spazio dei momenti. + +Un \textit{isolante topologico} ha, come il nome suggerisce, un gap di energia nel bulk (si comporta come un isolante all'interno). Ma ha stati di conduzione \textit{obbligatori} sulla superficie --- stati che non possono essere eliminati senza chiudere il gap di bulk o rompere certe simmetrie. Questi stati di superficie sono protetti topologicamente: sono robusti al disordine, alle impurezze, alle deformazioni del campione. Non possono essere rimossi, solo spostati. + +L'ingrediente matematico chiave è il \textit{numero di Chern}: un intero topologico che caratterizza la struttura delle bande. È l'analogo fisico del numero di Eulero in geometria differenziale. E come il numero di Eulero non può cambiare sotto deformazioni continue di una superficie (non si può passare da una sfera a un toro senza un cambiamento discontinuo), il numero di Chern non può cambiare senza un cambiamento di fase --- senza chiudere il gap. + +Questo è straordinariamente bello e utile: la topologia garantisce la robustezza di certe proprietà fisiche contro perturbazioni arbitrarie. I computer quantistici topologici userebbero stati di Majorana --- stati di superficie di superconduttori topologici --- per codificare informazione quantistica protetta dall'errore dalla topologia del sistema. + +\sezione{L'ordine dal disordine: la rottura di simmetria come biforcazione} + +La rottura spontanea di simmetria ha un aspetto dinamico che vale la pena esplorare: è una \textit{biforcazione} nel senso della teoria dei sistemi dinamici. Prima della transizione (T > T$_c$ per il ferromagnete), il sistema ha un unico punto fisso stabile: lo stato non magnetizzato. Dopo la transizione (T < T$_c$), il punto fisso diventa instabile e si biforca in due punti fissi stabili: magnetizzazione positiva e magnetizzazione negativa. + +Il sistema deve `scegliere' tra i due punti fissi stabili. La scelta è determinata dalle fluttuazioni --- essenzialmente casuali --- che si trovano nel sistema al momento della transizione. In un campione perfettamente isolato, le fluttuazioni termiche o quantistiche rompono la simmetria in modo imprevedibile. In un campione reale, le impurezze e le condizioni al contorno influenzano la scelta. + +Questa dinamica di biforcazione è comune in sistemi molto diversi: la transizione di fase del laser (sopra la soglia: emissione coerente; sotto: emissione incoerente), l'instabilità di Bénard (celle di convezione vs flusso uniforme), le transizioni evolutive (l'emergenza di nuovi \textit{body plans} durante l'esplosione cambriana). In tutti i casi, un sistema che opera in prossimità di un punto critico è estremamente sensibile a piccole perturbazioni, che possono determinare quale dei possibili stati post-transizione viene selezionato. + +Questo suggerisce che molte delle strutture del mondo che ci sembrano necessarie --- la magnetizzazione di un magnete in una direzione particolare, la struttura di un cristallo, forse anche l'esito di alcune transizioni evolutive --- sono contingenti: avrebbero potuto essere diverse se la storia delle fluttuazioni fosse stata diversa. + +\puntini + +La rottura spontanea di simmetria è il meccanismo con cui il possibile diventa reale nell'universo fisico. Un universo con simmetrie intatte è un universo di possibilità pura, senza struttura. L'universo che abitiamo è il risultato di una cascata di scelte spontanee che hanno reso possibile tutto il resto. + +% ============================================================ +% CAPITOLO VIII-ter: LA FISICA COME STORIA (spostato) +% ============================================================ +\chapter{Il Modello Standard: il Catalogo del Mondo} + +\epigraph{``The most incomprehensible thing about the universe is that it is comprehensible.''}{--- Albert Einstein} + +\sezione{Il catalogo più preciso mai costruito} + +Il Modello Standard della fisica delle particelle è il prodotto intellettuale più verificato nella storia della scienza. Descrive le particelle elementari e le loro interazioni con una precisione che non ha precedenti. Non è un'approssimazione buona: è una teoria che fa predizioni a undici cifre decimali e le vede confermate sperimentalmente. + +Il Modello Standard descrive: sei \textit{quark} (up, down, charm, strange, top, bottom) con le loro cariche di colore e interazioni forti; sei \textit{leptoni} (elettrone, muone, tau e i loro neutrini); i \textit{bosoni di gauge} che mediano le forze (fotone per l'elettromagnetismo, gluoni per la forza forte, $W^\pm$ e $Z^0$ per la forza debole); e il \textit{bosone di Higgs} che genera la massa. Tutto è costruito sulla struttura di gauge $\mathrm{SU}(3) \times \mathrm{SU}(2) \times \mathrm{U}(1)$. + +Eppure, paradossalmente, il Modello Standard è chiaramente incompleto. Non include la gravità. Non spiega la materia oscura. Non spiega la costante cosmologica. Non spiega l'asimmetria tra materia e antimateria nell'universo primordiale. Ha 19 parametri liberi (le masse delle particelle, le costanti di accoppiamento, gli angoli di mescolamento) che devono essere misurati sperimentalmente, non derivati dalla teoria. Un'elegante struttura con radici ad hoc. + +\sezione{Perché esistono proprio queste particelle?} + +Una domanda che il Modello Standard non risponde è: perché questi? Perché tre generazioni di quark e leptoni? Perché $\mathrm{SU}(3) \times \mathrm{SU}(2) \times \mathrm{U}(1)$ e non un altro gruppo di gauge? Perché la costante di struttura fine vale $1/137$ e non $1/100$ o $1/200$? + +Questi numeri sono stati misurati, non derivati. Sono i parametri liberi della teoria: variabili che dobbiamo inserire dalla mano per far funzionare la teoria. Una teoria più profonda dovrebbe derivarli. + +Ci sono due approcci a questa domanda. Il primo è trovare una teoria più fondamentale da cui il Modello Standard emerge come caso speciale: la Grande Unificazione (GUT), la teoria delle stringhe, la supersimmetria. Nessuna di queste teorie è stata confermata sperimentalmente. Il secondo approccio è il principio antropico: viviamo in un universo con questi parametri perché sono compatibili con la nostra esistenza. In un multiverso di universi con parametri diversi, ci troviamo necessariamente in uno compatibile con la vita. + +Il principio antropico ha una logica inattaccabile: ovviamente ci troviamo in un universo compatibile con la nostra esistenza. Ma come spiegazione è insoddisfacente: dice dove ci troviamo, non perché l'universo abbia questi parametri. La domanda rimane aperta. + +\sezione{La materia ordinaria e la vita} + +Un fatto straordinario del Modello Standard: la chimica --- tutta la chimica, tutta la biologia, tutta la vita come la conosciamo --- dipende da un solo settore del Modello Standard. Dipende dall'elettromagnetismo ($\mathrm{U}(1)$) e dalla meccanica quantistica degli elettroni. La forza forte confina i quark nei nucleoni, ma non è direttamente rilevante per la chimica: i nucleoni sono trattati come oggetti puntiformi nella maggior parte dei calcoli chimici. La forza debole è rilevante per il decadimento radioattivo e per la fusione nucleare nelle stelle, ma non per la chimica delle molecole biologiche. + +Questo significa che la vita --- come la conosciamo --- occupa un piccolo angolo del Modello Standard. Le nostre molecole, le nostre cellule, i nostri cervelli: tutti costruiti sulle forze elettromagnetiche tra elettroni e nuclei. Il resto del Modello Standard --- la forza forte, i gluoni, i tre colori dei quark, i bosoni $W$ e $Z$ --- esiste e governa la struttura dei nuclei atomici, ma non è direttamente rilevante per la macromolecola del DNA o per il potenziale d'azione del neurone. + +Eppure senza la forza forte non ci sarebbero nuclei atomici stabili, quindi nessun atomo, quindi nessuna chimica, quindi nessuna vita. Il Modello Standard nella sua interezza è necessario per la vita, anche se solo una piccola parte di esso è \textit{direttamente} attiva nella biologia. + +\sezione{Oltre il Modello Standard: i segnali di nuova fisica} + +Ci sono segnali sperimentali che suggeriscono fisica al di là del Modello Standard (BSM). Il più preciso è l'anomalia nel momento magnetico del muone ($g-2$ del muone): la misura sperimentale di Fermilab (2023) mostra una deviazione di $4.2\sigma$ dal valore teorico del Modello Standard. Se confermata, è nuova fisica. + +Le oscillazioni dei neutrini --- il fatto che i neutrini cambino `sapore' mentre si propagano, passando da elettronico a muonico a tau --- richiedono che i neutrini abbiano massa. Il Modello Standard originale li prevede senza massa: le oscillazioni dimostrano che questa previsione è sbagliata. La massa dei neutrini è misura di nuova fisica, anche se piccola. + +La natura della materia oscura è la lacuna più drammatica. Il 27\% dell'universo è fatto di qualcosa che interagisce gravitazionalmente ma non elettromagneticamente. Non è nel Modello Standard. Decenni di ricerche dirette non hanno trovato candidati. Questo potrebbe significare che la materia oscura è qualcosa di molto diverso da quello che immaginiamo: non una particella massiva ma qualcosa di più esotico. + +\sezione{Il problema della generazione: perché tre?} + +Il Modello Standard ha tre generazioni di fermioni. Prima generazione: elettrone, neutrino elettronico, quark up, quark down. Seconda generazione: muone, neutrino muonico, quark charm, quark strange. Terza generazione: tau, neutrino tauonico, quark top, quark bottom. Ogni generazione è identica alla precedente tranne per le masse. Non capiamo perché esistano esattamente tre generazioni, né perché abbiano le masse che hanno. + +Le misure della larghezza di decadimento del bosone $Z^0$ mostrano che esistono esattamente tre generazioni di neutrini leggeri. Tre, e non più. Questo è uno dei risultati più precisi della fisica delle particelle. Perché tre? La risposta non è nel Modello Standard. È uno dei suoi parametri liberi: un fatto che inserisce senza spiegazione. + +\sezione{Il problema della materia: perché più materia che antimateria?} + +Ogni processo fisico fondamentale dovrebbe produrre materia e antimateria in quantità uguali. Il Big Bang avrebbe dovuto produrre quantità uguali di quark e antiquark. Se così fosse, tutta la materia e l'antimateria si sarebbero annichilate. Siamo qui. Quindi c'è più materia che antimateria nell'universo. + +Questa asimmetria richiede, secondo le condizioni di Sakharov (1967): violazione del numero barionico, violazione di CP (asimmetria tra materia e antimateria nelle leggi fisiche), e una situazione di non-equilibrio nell'universo precoce. Il Modello Standard viola CP, ma troppo poco per spiegare l'asimmetria osservata. + +Siamo qui perché nell'universo primordiale c'era circa $10^9 + 1$ quark per ogni $10^9$ antiquark. Quella parte in più di un miliardo è tutto il mondo visibile. Siamo i superstiti di una cancellazione quasi perfetta. + +\puntini + +Il Modello Standard è il catalogo più preciso del mondo che la scienza ha mai prodotto. È anche chiaramente incompleto. Questa combinazione --- alta precisione, limiti noti, segnali di struttura più profonda --- è esattamente il tipo di situazione che ha preceduto le grandi rivoluzioni fisiche. La domanda non è se ci sarà una rivoluzione, ma quando e che forma avrà. + +% ============================================================ +% INTERMEZZO I +% ============================================================ +\chapter*{Intermezzo I — L'Invariante Relazionale} +\addcontentsline{toc}{chapter}{Intermezzo I — L'Invariante Relazionale} +\markboth{Intermezzo I}{Intermezzo I} + +\begin{center} +\itshape +Una pausa per guardare indietro e vedere il filo. +\end{center} + +\bigskip + +Nei capitoli precedenti è apparso ripetutamente, in contesti molto diversi, lo stesso schema concettuale. Vale la pena fermarcisi e renderlo esplicito prima di procedere. Chiamiamolo il \textit{principio dell'invariante relazionale}. + +Lo schema è questo: in ogni dominio della fisica fondamentale in cui la conoscenza è avanzata di più nel Novecento, le proprietà che pensavamo fossero assolute si sono rivelate relazionali. Non nel senso banale che `dipende dal punto di vista', ma nel senso tecnico preciso che non hanno valore definito indipendentemente da un sistema di riferimento, da un sistema osservante, o da un contesto di interazione. + +\textbf{Nel Capitolo III:} la simultaneità di due eventi non è assoluta — dipende dal sistema di riferimento inerziale dell'osservatore. Il tempo scorre a velocità diverse in luoghi con diversa curvatura gravitazionale. Non c'è un `tempo assoluto' newtoniano. E nella gravità quantistica, il tempo emerge come correlazione tra sottosistemi, non come struttura fondamentale esterna. + +\textbf{Nel Capitolo II:} le proprietà dei sistemi quantistici — posizione, impulso, spin — non hanno valore definito prima di un'interazione con un sistema osservante. Nella meccanica quantistica relazionale di Rovelli, queste proprietà non sono mai assolute: sono sempre relative a un sistema con cui il sistema è interagito. + +\textbf{Nel Capitolo IV:} lo spazio nella LQG non è il contenitore preesistente della fisica. È le reti di spin — strutture di relazioni tra grani di volume. Non esiste uno spazio fondamentale in cui le cose `si trovano': esistono relazioni da cui lo spazio emerge come approssimazione continua. + +\textbf{Nel Capitolo VII:} il vuoto quantistico non è assoluto. Un osservatore inerziale vede il vuoto; un osservatore accelerato vede radiazione termica nello stesso stato del campo. Il vuoto è una proprietà relazionale, non una proprietà assoluta del campo. + +\textbf{Nell'intero libro:} il significato nel linguaggio (Capitolo~XIX) è relazionale — il significato non è una proprietà intrinseca delle parole, ma emerge dall'uso in un contesto condiviso. Le proprietà dei sistemi entangled (Capitolo~VIII) appartengono alla relazione, non alle parti. + +Il pattern è troppo consistente per essere casuale. Propongo che il relazionalismo sia la struttura profonda che la fisica del Novecento ha scoperto, strato dopo strato, senza averlo cercato esplicitamente. Non è una posizione filosofica che si sovrappone alla fisica: è quello che la fisica dice quando viene ascoltata con attenzione. + +Questo ha implicazioni per come leggiamo i capitoli che seguono. Quando passiamo dalla fisica alla mente, dalla termodinamica alla coscienza, dall'epistemologia all'etica, il relazionalismo riappare in forme nuove: la mente come sistema che costruisce relazioni con il mondo, l'identità personale come struttura di relazioni psicologiche, le norme sociali come strutture di aspettative reciproche. Non sono analogie: sono istanze dello stesso principio che opera a livelli diversi di organizzazione. + +Il mondo non è fatto di cose. È fatto di relazioni tra cose — e a livello abbastanza fondamentale, anche le `cose' sono relazioni. + +\sezione{Il relazionalismo e la filosofia orientale: convergenze inaspettate} + +Vale la pena notare che il relazionalismo emerso dalla fisica moderna ha risonanze sorprendenti con tradizioni filosofiche molto diverse dalla filosofia analitica occidentale. + +Il buddismo Madhyamaka, sviluppato da Nagarjuna nel II secolo d.C., sostiene la \textit{sunyata} (vacuità): nessun fenomeno ha un'esistenza intrinseca e indipendente. Ogni fenomeno esiste solo in dipendenza da altri fenomeni --- pratityasamutpada, la co-originazione dipendente. Non c'è una sostanza ultima con proprietà intrinseche: ci sono relazioni di dipendenza da cui i fenomeni emergono. + +La resonanza con la meccanica quantistica relazionale e con la LQG è notevole. Non sto suggerendo che i fisici abbiano `redatto' filosofia buddista, né che la filosofia buddista abbia `anticipato' la fisica quantistica. Sto notando una convergenza concettuale significativa: due tradizioni di pensiero molto diverse, partendo da punti di partenza completamente diversi, sono arrivate a strutture concettuali analoghe. + +Questa convergenza è epistemicamente interessante. Se il relazionalismo è la struttura fondamentale della realtà, ci aspettiamo che qualsiasi tradizione intellettuale che abbia analizzato la realtà con sufficiente cura finisca per avvicinarsi a questa struttura, indipendentemente dal metodo. La fisica e la filosofia buddista sono metodi molto diversi. La convergenza suggerisce che stanno descrivendo qualcosa di reale. + +\sezione{Il relazionalismo e la struttura del sociale} + +Il relazionalismo fisico ha un analogo preciso in sociologia. La \textit{sociologia relazionale} (Harrison White, Charles Tilly, Mustafa Emirbayer) sostiene che le unità fondamentali del sociale non sono gli individui (atomismo sociale) né le strutture (olismo strutturale), ma le relazioni tra individui. L'identità sociale non è una proprietà intrinseca degli individui: è costituita dalle relazioni in cui si trovano. + +Questo risuona con le strutture di Bicchieri sulle norme sociali (discusse nel Capitolo~XX): le norme non sono proprietà degli individui né proprietà delle strutture sociali astratte. Sono strutture di relazioni reciproche --- aspettative condizionate che esistono nell'interazione tra individui. + +Non è solo un'analogia: è la stessa struttura che opera in domini diversi. Il relazionalismo come principio unificante --- dall'ontologia della fisica alla struttura del sociale --- potrebbe essere la tesi filosofica più ambiziosa e più coerente che emerga dalla scienza del Novecento. + +\puntini + +Prima di procedere: notate che il relazionalismo non è relativismo nel senso che `tutto dipende dal punto di vista e quindi niente è vero in senso assoluto'. Al contrario: le strutture relazionali sono le strutture più stabili che conosciamo. $ds^2$ è invariante: dipende dalla relazione tra eventi, non dall'osservatore, ma lo fa in modo preciso e universale. L'entropia di entanglement è un invariante relazionale. La disuguaglianza di Bell è una struttura relazionale che vale in tutti i sistemi di riferimento. Il relazionalismo non dissolve la realtà: ne scopre la struttura più profonda. + +\clearpage + +% ============================================================ +% PARTE SECONDA +% ============================================================ +\part{La Mente che Osserva} +\begin{center} +\itshape +In cui il soggetto che osserva diventa l'oggetto dell'osservazione,\\ +con conseguenze imbarazzanti per il soggetto. +\end{center} +\clearpage + +% ============================================================ +% CAPITOLO IX +% ============================================================ +\chapter{La Matematica è Reale?} + +\epigraph{``The miracle of the appropriateness of the language of mathematics for the formulation of the laws of physics is a wonderful gift which we neither understand nor deserve.''}{--- Eugene Wigner, 1960} + +\sezione{L'efficacia irragionevole} + +Nel 1960 Eugene Wigner pubblicò uno degli articoli più citati in filosofia della fisica: `The Unreasonable Effectiveness of Mathematics in the Natural Sciences'. Il punto era semplice nella sua formula, profondo nelle implicazioni: la matematica viene sviluppata da matematici seguendo criteri di coerenza interna, eleganza astratta e interesse tecnico, spesso senza alcun riferimento a fenomeni fisici. Eppure si rivela, ripetutamente e sorprendentemente, la struttura esatta con cui descrivere la realtà. + +Gli esempi sono spettacolari. Le geometrie non-euclidee di Riemann (1854) — sviluppate come esplorazione puramente astratta — si rivelarono sessant'anni dopo il linguaggio naturale della relatività generale. I gruppi di Lie — sviluppati da Sophus Lie nel tardo Ottocento come teoria astratta delle simmetrie continue — divennero la struttura delle simmetrie fondamentali del Modello Standard. I numeri complessi — inventati per risolvere equazioni algebriche prive di soluzione reale — si rivelarono indispensabili nella meccanica quantistica, dove la funzione d'onda è essenzialmente complessa nel senso che i numeri complessi non sono sostituibili da coppie di numeri reali nella struttura della teoria. I quaternioni di Hamilton trovarono applicazione nella rappresentazione degli spinori e delle rotazioni in meccanica quantistica relativistica. + +La domanda di Wigner non è retorica: perché la matematica, sviluppata per ragioni interne e spesso senza riferimento al mondo fisico, cattura così precisamente la struttura di quel mondo? Ci sono tre famiglie di risposte. + +\sezione{Tre risposte al problema di Wigner} + +\textbf{Il platonismo.} Le strutture matematiche esistono indipendentemente dalla mente umana, in un dominio astratto. Il fisico le scopre, non le inventa. L'efficacia irragionevole non è sorprendente: la fisica scopre strutture reali, e quelle strutture sono strutture matematiche. Gödel era un platonista convinto e riteneva di avere una forma di percezione matematica diretta — \textit{intuizione matematica} — analoga alla percezione sensoriale. + +\textbf{Il costruttivismo/formalismo.} La matematica è una costruzione umana — un insieme di giochi formali con regole specificate. La sua efficacia fisica non è un miracolo: selezioniamo la matematica che funziona e dimentichiamo quella che non funziona. Le geometrie non-euclidee che \textit{non} descrivono il nostro spazio-tempo esistono altrettanto: non le citiamo come esempio di efficacia. + +\textbf{La Mathematical Universe Hypothesis di Tegmark.} Max Tegmark ha proposto la tesi più radicale: l'universo fisico non è soltanto ben descritto dalla matematica, ma \textit{è} letteralmente una struttura matematica. Non c'è una realtà fisica `oltre' la struttura matematica. La domanda `perché la matematica è così efficace?' si dissolve: non c'è una realtà separata che la matematica descrive, c'è solo la matematica. + +MUH implica il Level IV Multiverse: tutte le strutture matematicamente consistenti esistono con pari realtà fisica. Le obiezioni sostanziali: (1) l'insieme di tutte le strutture matematicamente consistenti non ha una misura naturale, quindi non è chiaro come attribuire probabilità; (2) i teoremi di Gödel mostrano che ogni struttura abbastanza potente contiene verità indecidibili — che tipo di oggetto è un universo fisico rispetto alla completezza gödeliana? + +La mia posizione: la MUH è una tesi metafisica affascinante e non falsificabile. Non la rifiuto come priva di senso — è una risposta coerente al problema di Wigner. Ma non la accetto come risposta verificabile: è un'ipotesi che muove il mistero piuttosto che risolverlo. + +\sezione{I teoremi di incompletezza di Gödel} + +Nel 1931 Kurt Gödel dimostrò due teoremi che cambiarono per sempre la fondazione della matematica. Il contesto: David Hilbert aveva proposto il programma formalista — ridurre tutta la matematica a un sistema formale completo e consistente. + +\textbf{Primo teorema:} sia $S$ un sistema formale consistente che include l'aritmetica elementare. Allora esistono proposizioni aritmetiche che non sono né dimostrabili né confutabili in $S$. La costruzione usa la `godelizzazione': ogni formula e ogni prova di $S$ viene codificata come un numero naturale, e le relazioni formali tra formule si traducono in relazioni aritmetiche. Questo permette a $S$ di parlare di se stesso, costruendo la proposizione $G$: ``$G$ non è dimostrabile in $S$.'' Sotto l'ipotesi di consistenza, $G$ è indecidibile in $S$ ed è vera. + +\textbf{Secondo teorema:} $S$ non può dimostrare la propria consistenza con i mezzi formali di $S$. Questo demolisce il programma di Hilbert: non si può dimostrare la consistenza della matematica con la matematica stessa, senza circolarità. + +Le implicazioni filosofiche sono multiple. Per il logicismo: la matematica non è completamente catturabile dalla logica. Per il formalismo: le basi sicure senza presupposti sono impossibili. Per il platonismo (Gödel stesso): ci sono verità matematiche che trascendono ogni sistema formale, il che suggerisce che la matematica non è una costruzione ma una scoperta. + +C'è un'assonanza profonda con la meccanica quantistica: così come non esiste un sistema fisico che possa essere completamente descritto dall'interno (il collasso della funzione d'onda richiede sempre un sistema esterno), non esiste un sistema formale abbastanza potente da dimostrarsi consistente dall'interno. L'incompletezza non è un difetto: è la struttura della realtà formale, e forse della realtà tout court. + +\sezione{La matematica come linguaggio dell'invarianza} + +C'è un aspetto dell'efficacia della matematica che Wigner non sottolineò sufficientemente: la matematica è particolarmente efficace nel descrivere le \textit{strutture invarianti} della realtà. Non le proprietà contingenti e mutevoli, ma le relazioni che rimangono stabili sotto trasformazioni. + +Le leggi di conservazione --- energia, quantità di moto, momento angolare, carica --- sono le strutture più invarianti che conosciamo. Sono invarianti perché corrispondono a simmetrie dello spazio-tempo (teorema di Noether). La matematica è lo strumento più potente per esprimere l'invarianza: i gruppi di simmetria, i tensori, gli invarianti topologici sono tutti strumenti per catturare `ciò che rimane uguale quando qualcosa cambia'. + +Da questa prospettiva, l'efficacia della matematica non è un miracolo ingiustificato: è la conseguenza del fatto che la realtà ha strutture invarianti, e la matematica è il linguaggio dell'invarianza. La domanda di Wigner si trasforma: non `perché la matematica è efficace?' ma `perché la realtà ha strutture invarianti?' + +E questa domanda è profonda. Le leggi della fisica sono invarianti per traslazione temporale (le leggi sono le stesse ieri e oggi), per traslazione spaziale (le leggi sono le stesse qui e là), per rotazione. Queste invarianze non sono ovvie a priori: sono fatti empirici profondi sulla struttura della realtà. Se l'universo fosse completamente caotico, senza invarianze, la matematica sarebbe inutile. Il fatto che la matematica funzioni è il fatto che l'universo ha strutture invarianti. + +\sezione{Il realismo matematico e i suoi paradossi} + +Il realismo matematico --- la tesi che le strutture matematiche esistano indipendentemente dalla mente --- si scontra con un paradosso interessante: gli oggetti matematici non sembrano essere oggetti fisici (non occupano spazio, non hanno massa, non interagiscono causalmente con il mondo fisico), eppure sembrano essere accessibili alla conoscenza (i matematici `scoprono' teoremi, non li inventano arbitrariamente). + +Gödel sosteneva che l'intuizione matematica --- la capacità della mente di `percepire' le strutture matematiche --- è analoga alla percezione sensoriale, ma con un oggetto non fisico. Questa è una posizione metafisica impegnativa: richiede un dominio di oggetti astratti e una facoltà cognitiva che accede a quel dominio in modo non causale. + +L'alternativa più parsimoniosa è il \textit{strutturalismo matematico}: la matematica non è la teoria di oggetti astratti specifici (il `numero 3' come entità platonica), ma la teoria delle strutture che certe relazioni definiscono. Un sistema di oggetti che soddisfa gli assiomi di Peano \textit{è} i numeri naturali, indipendentemente da cosa siano quelli oggetti. Non ci sono numeri platonici: ci sono sistemi strutturali, e la matematica è la teoria di queste strutture. + +Il strutturalismo matematico ha una risonanza con il strutturalismo ontico della fisica (discusso in T.8): così come la fisica descrive strutture relazionali piuttosto che oggetti con proprietà intrinseche, la matematica descrive strutture relazionali piuttosto che oggetti astratti. Il relazionalismo riappare ancora una volta. + +\sezione{La matematica come evoluzione cognitiva} + +C'è una terza prospettiva, meno discussa ma interessante: la matematica come prodotto dell'evoluzione cognitiva. Il matematico e filosofo Imre Lakatos, in `Proofs and Refutations' (1976), mostrò che lo sviluppo della matematica è un processo dialettico: le prove generano controesempi, i controesempi generano nuove definizioni, le nuove definizioni generano nuove prove. La matematica non è un insieme di verità eterne che vengono scoperte: è un processo storico di costruzione e raffinamento di concetti. + +In questa prospettiva, la matematica è la forma più raffinata di cognizione umana: la forma che si è maggiormente liberata dai vincoli della percezione immediata e dell'utilità pratica immediata, che ha sviluppato i meccanismi più potenti di astrazione e generalizzazione, e che ha prodotto strutture cognitive capaci di `catturare' strutture della realtà che erano invisibili a qualsiasi intuizione ordinaria. + +Il fatto che questa forma di cognizione catturi strutture della realtà non è un miracolo: è la conseguenza del fatto che la cognizione umana si è evoluta in un universo fisico con certe strutture, e la matematica è la distillazione dei pattern cognitivi più potenti per navigare quel universo. La matematica funziona perché siamo prodotti dello stesso universo che descrive. + +\sezione{La matematica dei infiniti: Cantor e le gerarchie dell'infinito} + +Georg Cantor dimostrò tra il 1874 e il 1884 uno dei risultati più sorprendenti della storia della matematica: non tutti gli infiniti sono uguali. Esistono gerarchie di infiniti, ognuno dei quali è strettamente più grande del precedente. + +L'insieme dei numeri naturali $\mathbb{N}$ e l'insieme dei numeri razionali $\mathbb{Q}$ sono equipotenti: esiste una biiezione tra di loro (contabilizzazione di Cantor). Pur sembrando intuitivamente diversi (i razionali sono `più densi'), hanno lo stesso `numero' di elementi nel senso di Cantor. Ma l'insieme dei numeri reali $\mathbb{R}$ ha una cardinalità strettamente maggiore: non esiste nessuna biiezione tra $\mathbb{N}$ e $\mathbb{R}$. Cantor lo dimostrò con il famoso argomento diagonale: assume tale biiezione, costruisce un numero reale che non è nell'immagine, contraddizione. + +L'argomento diagonale è uno dei più potenti e più generalizzabili della matematica. Gödel lo usò (in forma più sofisticata) per dimostrare l'incompletezza. Turing lo usò per dimostrare l'indecidibilità del problema della fermata. Il pattern è sempre lo stesso: un sistema che cerca di descrivere completamente se stesso incontra un'autoreferenzialità che genera un elemento fuori dalla descrizione. + +Le implicazioni per la fisica sono sottili ma reali. Se la matematica che usiamo per descrivere la fisica ha strutture infinitarie (spazi di Hilbert di dimensione infinita, integrali funzionali su tutti i percorsi), dobbiamo essere precisi su quale tipo di infinito usiamo. La distinzione tra infiniti contabili e non-contabili è fisicamente rilevante: gli autostati di certi operatori formano famiglie non-contabili, e le somme su questi stati richiedono misure di integrazione appropriate. + +Cantor, tormentato dai suoi contemporanei (Kronecker lo chiamò `corruttore della gioventù matematica'), morì in un istituto psichiatrico. La sua matematica sopravvisse. Le realtà che aveva scoperto --- la gerarchia degli infiniti, l'irriducibilità del continuo ai naturali --- sono tra i risultati più solidi della matematica moderna. + +\puntini + +L'equazione di Euler, $e^{i\pi} + 1 = 0$, collega i cinque numeri più importanti della matematica in una relazione di purezza quasi insopportabile. Guardandola, mi chiedo se stia guardando una struttura della realtà o una struttura della mente. La risposta più onesta è: entrambe --- e la distinzione potrebbe essere meno netta di quanto l'intuizione suggerisca. + +% ============================================================ +% CAPITOLO X +% ============================================================ +\chapter{Il Cervello che Non È Un Computer} + +\epigraph{``The brain is not a computer that executes a program. It is a biological system with its own dynamics, history, and internal logic.''}{--- Varela, Thompson, Rosch, \textit{The Embodied Mind} (1991)} + +\sezione{La metafora sbagliata nel posto giusto} + +La metafora computazionale per il cervello ha prodotto modelli utili e progressi reali nelle neuroscienze cognitive. È anche sbagliata in modi che importano. Un computer digitale standard ha stati discreti, separazione netta tra unità di elaborazione e memoria, sincronizzazione globale tramite un clock, operazioni deterministiche e sequenziali. Il cervello è radicalmente diverso su ogni punto. + +I neuroni non sono transistor binari. Ogni neurone è un sistema dinamico complesso con un potenziale di membrana continuo (tipicamente tra $-70$ mV a riposo e $+40$ mV al picco), e la sua risposta a input presinaptici dipende dalla storia recente degli input, dalla posizione dei segnali lungo l'albero dendritico, dalla disponibilità di neurotrasmettitori. Non c'è un clock globale: i ritmi oscillatori locali (delta, theta, alfa, beta, gamma) si sincronizzano e desincronizzano dinamicamente. La separazione tra elaborazione e memoria è quasi assente: la plasticità sinaptica è il meccanismo della memoria stessa, distribuita nell'intera struttura delle connessioni. + +\sezione{Il modello di Hodgkin-Huxley} + +Alan Hodgkin e Andrew Huxley svilupparono nel 1952 il modello quantitativo del potenziale d'azione. Il loro modello: +\[ +C_m \frac{dV}{dt} = I_{ext} - g_{Na} m^3 h(V - E_{Na}) - g_K n^4(V - E_K) - g_L(V - E_L) +\] +dove $C_m \approx 1\,\mu\mathrm{F/cm}^2$ è la capacitanza di membrana, $g_{Na}$, $g_K$, $g_L$ sono le conduttanze massime dei canali ionici, $E_{Na} \approx +50$ mV, $E_K \approx -77$ mV sono i potenziali di equilibrio di Nernst, e $m$, $h$, $n$ (tra 0 e 1) sono variabili di gating. Il modello riproduce con precisione la forma, l'ampiezza, la durata del potenziale d'azione, la refrattarietà, e la frequenza di firing come funzione della corrente iniettata. Hodgkin e Huxley ricevettero il Nobel nel 1963. + +\sezione{Plasticità sinaptica: la regola di Hebb e la STDP} + +Donald Hebb formulò nel 1949 il principio: `neurons that fire together, wire together.' La formalizzazione biologica moderna è la potenzazione a lungo termine (LTP), scoperta nel 1973 nell'ippocampo. Il meccanismo molecolare centrale è il recettore NMDA: un `rilevatore di coincidenza' che si apre solo quando sia il glutammato presinap tico sia la depolarizzazione postsinaptica avvengono contemporaneamente. Quando si apre, l'ingresso di ioni Ca$^{2+}$ rafforza la sinapsi. + +La Spike-Timing Dependent Plasticity (STDP): se lo spike presinap tico precede quello postsinaptico di 10--20 ms, la sinapsi si potenzia (LTP). Se è il postsinap tico a precedere, la sinapsi si indebolisce (LTD). Il cervello rappresenta la causalità nel tempo con risoluzione al millisecondo. + +\sezione{Predictive processing: il cervello come sistema di inferenza bayesiana} + +Il framework del predictive processing (PP), sviluppato da Karl Friston, è probabilmente il contributo teorico più influente alle neuroscienze degli ultimi vent'anni. L'idea centrale: il cervello non è un sistema che elabora passivamente input sensoriali. È un sistema generativo gerarchico che costruisce continuamente un modello probabilistico del mondo e genera predizioni top-down su cosa i sensori dovrebbero rilevare. Solo l'errore di predizione — la discrepanza tra predizione e input — viene propagato verso l'alto nella gerarchia corticale. + +Friston ha formalizzato questo nel principio di energia libera variazionale: +\[ +\mathcal{F} = D_{KL}[q(z) \,\|\, p(z|y)] - \log p(y) +\] +dove $q(z)$ è la distribuzione approssimata del cervello sugli stati nascosti del mondo. Minimizzare $\mathcal{F}$ rispetto a $q$ equivale a rendere il modello interno il migliore spiegatore possibile degli input sensoriali — inferenza bayesiana approssimata. L'attenzione corrisponde alla modulazione della precisione delle predizioni. Le allucinazioni corrispondono a predizioni che sopraffanno l'evidenza sensoriale. Come scrisse Anil Seth: la percezione è allucinazione controllata. + +Il PP ha applicazioni in psichiatria computazionale: molte condizioni psichiatriche (schizofrenia, autismo, depressione, PTSD) possono essere reinterpretate come disfunzioni nei parametri del PP — nel bilanciamento tra predizioni a priori ed errori di predizione. + +\sezione{Il problema difficile della coscienza} + +David Chalmers distinse nel 1995 due classi di problemi sulla coscienza. I \textit{problemi facili} riguardano le funzioni cognitive: come il cervello integra le informazioni, come discrimina gli stimoli, come controlla il comportamento. Sono chiamati `facili' non perché siano semplici, ma perché hanno la forma corretta di problemi scientifici: si risolvono in principio identificando i meccanismi fisici che realizzano le funzioni. + +Il \textit{problema difficile} è diverso in natura: perché c'è esperienza soggettiva? Perché a certi processi di elaborazione dell'informazione è associato qualcosa che si prova? Perché c'è un `come è essere' un sistema — la redness del rosso, il dolore del dolore, la gioia della gioia — che sembra irriducibile a qualsiasi descrizione funzionale? + +Il problema difficile non si risolve identificando meccanismi, perché la domanda non è `come viene realizzata la funzione' ma `perché la funzione è accompagnata dall'esperienza'. Si può concepire uno `zombie filosofico' — un sistema che realizzi tutte le funzioni cognitive senza alcuna esperienza soggettiva — e questo sembra concepibile senza contraddizione. Il predictive processing risolve molti problemi facili brillantemente. Non risolve il problema difficile. + +La mia posizione: il problema difficile è reale e non dissolto dal funzionalismo. Tra le teorie disponibili, la Integrated Information Theory di Giulio Tononi (con il suo invariante $\Phi$ che misura la quantità di informazione integrata) è la più formalmente precisa e fa predizioni falsificabili — ma ha implicazioni panpsichiste che richiedono cautela. La Global Workspace Theory di Stanislas Dehaene (con il suo meccanismo di `ignition' corticale per l'accesso cosciente) è più aderente ai dati neurali e clinici. Il dibattito tra IIT e GWT è oggi il confronto più tecnico e più produttivo nel campo. + +\puntini + +Le neuroscienze hanno reso il problema della coscienza più preciso, non più facile. Questa è, nel migliore dei sensi, la posizione in cui si deve trovare una disciplina scientifica matura: sa abbastanza da sapere con precisione cosa non sa. + +% ============================================================ +% CAPITOLO X-bis: IL RITMO DEL PENSIERO +% ============================================================ +\chapter{Il Ritmo del Pensiero} + +\epigraph{``The brain does not simply passively receive information and then process it. It actively generates hypotheses about what is out there.''}{--- Karl Friston, \textit{Nature Reviews Neuroscience} (2010)} + +\sezione{Il cervello come sistema ritmico} + +Il cervello non elabora l'informazione in modo continuo e uniforme. Opera in ritmi — oscillazioni dell'attività elettrica neurale che si sincronizzano e desincronizzano dinamicamente tra regioni diverse. Questi ritmi non sono epifenomeni dell'attività neurale: sono il meccanismo con cui il cervello coordina l'elaborazione distribuita su regioni anatomicamente distanti. + +Le oscillazioni neurali si classificano per frequenza. Le \textbf{onde delta} (0.5--4 Hz) dominano durante il sonno profondo e sono associate all'elaborazione consolidante della memoria. Le \textbf{onde theta} (4--8 Hz) sono il ritmo caratteristico dell'ippocampo durante l'esplorazione attiva, la formazione di nuovi ricordi, e la navigazione spaziale. Le \textbf{onde alfa} (8--13 Hz) compaiono durante la veglia rilassata a occhi chiusi e riflettono stati di inibizione corticale attiva. Le \textbf{onde beta} (13--30 Hz) caratterizzano l'elaborazione motoria e cognitiva attiva. Le \textbf{onde gamma} (30--100 Hz) — le più veloci — sono associate all'attenzione, alla coscienza, e all'integrazione di informazioni tra aree corticali. + +La scoperta che queste oscillazioni non sono rumore di fondo, ma segnali di coordinazione, ha rivoluzionato la nostra comprensione di come il cervello integra l'informazione distribuita in tempo reale. + +\sezione{Il ritmo theta ippocampale e la codifica della memoria} + +John O'Keefe e Lynn Nadel identificarono nel 1978 i \textit{place cells} — neuroni dell'ippocampo che si attivano selettivamente quando l'animale si trova in una posizione specifica nell'ambiente (Premio Nobel 2014). Queste cellule formano una mappa cognitiva dello spazio. May-Britt Moser, Edvard Moser e collaboratori scoprirono nel 2005 le \textit{grid cells} nella corteccia entorinale: cellule che si attivano in una griglia esagonale regolare che copre tutto l'ambiente — una struttura matematica che fornisce le coordinate metriche della mappa cognitiva. + +Il theta ippocampale ($\sim$7 Hz, periodo $\sim$140 ms) struttura temporalmente la codifica spaziale. I place cells non si attivano in modo indipendente: si attivano in sequenza, con ciascuna cellula che spara in una fase preferita del ciclo theta. Quando un animale si muove attraverso il campo del place cell, i suoi spike cadono in fasi progressivamente più precoci del ciclo theta (\textit{theta phase precession}). Questo significa che la sequenza di spike nei 140 ms di un ciclo theta comprime la sequenza spaziale dell'esperienza: il cervello `riproduce' l'esperienza passata e futura durante ogni ciclo theta, permettendo l'apprendimento delle transizioni spaziali. + +Durante il sonno, il cervello `riproietta' le esperienze della veglia in modalità compressa. Gli \textit{sharp wave ripples} dell'ippocampo durante il sonno NREM sono sequenze compresse dei pattern di attivazione dei place cell esperiti durante la veglia — la firma neurale della ririproduzione delle esperienze. La memoria episodica non è un archivio statico: è un sistema dinamico di ricostruzione che opera su ritmi temporali precisi. + +La struttura theta-place cell è, in essenza, un sistema di compressione dell'esperienza temporale. Il cervello non immagazzina gli eventi come fotogrammi di un film; li immagazzina come sequenze compresse, ordinate temporalmente, che possono essere riproiettate rapidamente durante il sonno per consolidare le connessioni sinaptiche rilevanti. È un algoritmo biologico di ottimizzazione della memoria, implementato in onde. + +\sezione{Il gamma e il binding problem} + +Le oscillazioni gamma ($\sim$40 Hz) sono al centro di uno dei problemi più affascinanti delle neuroscienze: il \textit{binding problem}. Come il cervello integra le informazioni provenienti da diverse aree sensoriali (colore, forma, movimento, suono) in un'unica esperienza coerente? Le diverse caratteristiche di un oggetto sono elaborate in regioni corticali diverse: V4 per il colore, MT/V5 per il movimento, aree parietali per la posizione. Eppure nell'esperienza soggettiva appaiono come un tutto unitario. + +Francis Crick e Christof Koch proposero nel 1990 che la sincronizzazione delle oscillazioni gamma tra aree corticali potesse essere il meccanismo del binding: le cellule che elaborano caratteristiche dello stesso oggetto si sincronizzano nella loro frequenza di oscillazione, creando una `firma temporale' condivisa. L'ipotesi è supportata da evidenza sperimentale in animali e nell'EEG umano, ma rimane dibattuta: la sincronizzazione gamma potrebbe essere un correlato dell'elaborazione integrata piuttosto che il suo meccanismo causale. + +Il binding problem è interessante anche per un'altra ragione: è il problema difficile della coscienza in forma locale. Non chiede perché ci sia esperienza soggettiva in generale, ma chiede come una molteplicità di processi neurali distribuiti diventi un percetto unitario. La soluzione gamma — se corretta — suggerirebbe che l'unità dell'esperienza non è un fatto metafisico fondamentale ma un'architettura temporale: diversi processi fisici che oscillano in sincronia producono l'illusione di un evento unico. + +\sezione{Il coupling theta-gamma e la struttura gerarchica della memoria} + +Il cervello non usa una sola frequenza alla volta. Le oscillazioni di diverse frequenze si accoppiano in modo gerarchico: le oscillazioni lente modulano le oscillazioni rapide. Il coupling theta-gamma è l'esempio più studiato: ogni ciclo theta ($\sim$125 ms) contiene circa 5--8 cicli gamma ($\sim$25 ms ciascuno). Ogni gamma cycle può potenzialmente codificare un `item' separato nella memoria di lavoro. + +György Buzsáki ha proposto che questa struttura gerarchica permetta al cervello di immagazzinare sequenze temporali ordinate nella memoria di lavoro: la posizione dell'item nella sequenza è codificata dalla sua fase nel ciclo theta (quale subciclo theta), mentre la sua identità è codificata dall'attività durante il subciclo gamma corrispondente. Questa è una forma di codifica a doppio indice, analoga agli indirizzi di memoria di un computer — ma implementata in onde biologiche anziché in indirizzi binari. + +\sezione{Ritmi cerebrali e stati alterati di coscienza} + +Gli stati di coscienza hanno firme oscillatorie caratteristiche. L'anestesia con propofol sopprime le oscillazioni gamma e altera il coupling theta-gamma. Il sonno REM (sognante) ha oscillazioni gamma simili alla veglia, ma in assenza di input sensoriali e con paralisi muscolare — il cervello `alucina' in modo strutturato, generando percetti interni senza stimoli esterni. + +Gli psichedelici (psilocibina, LSD, DMT) producono uno stato caratterizzato da elevata entropia dell'attività cerebrale: aumento della complessità e della connettività funzionale tra regioni che normalmente non comunicano, riduzione della `default mode network' (la rete coinvolta nel pensiero autoreferenziale e nell'ego), e aumento delle oscillazioni gamma. Robin Carhart-Harris (Imperial College London) ha proposto che la `mystical experience' prodotta dagli psichedelici sia la firma soggettiva di questo stato di elevata entropia cerebrale — un'espansione del repertorio degli stati cerebrali accessibili. + +La meditazione profonda produce alterazioni specifiche nell'oscillazioni alfa frontale e gamma frontale, nella direzione opposta agli psichedelici: maggiore organizzazione, maggiore coerenza, riduzione del rumore di fondo. La convergenza di neuroscienze e pratiche contemplative è uno dei campi più attivi della ricerca contemporanea sulla coscienza. + +\sezione{Il ritmo come struttura della mente} + +C'è un'implicazione filosofica di tutto questo che voglio rendere esplicita. Il pensiero non è un flusso uniforme: è strutturato temporalmente in unità discrete. Le oscillazioni theta dividono l'esperienza in finestre di $\sim$125 ms. Le oscillazioni gamma suddividono ulteriormente. La `finestra del presente' di Husserl — i 2--3 secondi di integration temporale che costituiscono il presente vissuto — corrispondono a cicli multipli di oscillazioni theta. + +Questo suggerisce che la struttura fenomenologica del tempo — il fatto che il presente vissuto abbia uno spessore, che il passato risuoni nel presente come retention, che il futuro immediato sia anticipato come protention — non è un fatto della coscienza pura, irriducibile alla fisica. È implementata in ritmi neurali concreti, misurabili in microvolt e hertz. L'architettura temporale dell'esperienza soggettiva ha un substrato fisico preciso. + +Non risolve il problema difficile — sapere che la retention è implementata in theta non spiega perché si \textit{senta} come una nota che risuona ancora. Ma riduce lo spazio del mistero, localizzandolo con più precisione. + +\sezione{Sonno e consolidamento: la notturna elaborazione} + +Un terzo della nostra vita trascorre nel sonno. Non è un tempo morto: è forse il periodo di elaborazione cognitiva più intensa. + +Il sonno si divide in cicli di $\sim$90 minuti, ognuno contenente fasi NREM (Non-Rapid Eye Movement) e REM (Rapid Eye Movement). Il sonno NREM profondo (stadi N2 e N3) è caratterizzato da slow oscillations corticali ($<$1 Hz), sleep spindles (12--15 Hz), e sharp wave ripples ippocampali ($>$100 Hz). Le slow oscillations coordinano il trasferimento di ricordi dall'ippocampo (archiviazione temporanea) alla corteccia (archiviazione a lungo termine): un processo di consolidazione che riorganizza i ricordi episodici in conoscenza semantica. + +Il sonno REM ha oscillazioni gamma simili alla veglia e theta ippocampale. È associato alla riproduzione di sequenze apprese durante la veglia, all'integrazione di nuove esperienze con memorie esistenti, e alla processazione emotiva. Le persone private del sonno REM mostrano deficit nell'apprendimento procedurale e nell'elaborazione emotiva. + +La riattivazione mirata della memoria (Targeted Memory Reactivation, TMR) durante il sonno --- presentare ai dormenti suoni o odori associati a esperienze della veglia durante il sonno NREM --- accelera il consolidamento di quelle esperienze. Questo dimostra che il cervello durante il sonno non è passivo: seleziona attivamente quali ricordi consolidare, e questa selezione è influenzabile. + +Dormire dopo un apprendimento non è ozio: è continuazione dell'apprendimento con metodi diversi. Il cervello che dorme elabora, riorganizza, consolida. Il pensiero notturno è silenzioso per noi, ma non è inattivo. + +\sezione{La coscienza del sogno: un esperimento naturale} + +Il sogno REM è uno stato in cui il cervello genera percetti complessi, narrativi e emotivamente intensi, in assenza di input sensoriali. È un'allucinazione controllata nel senso letterale: il cervello produce un modello interno così convincente da essere scambiato per realtà. + +Questo è uno degli argomenti più forti a supporto del modello del predictive processing: se la percezione normale è già un'inferenza attiva piuttosto che una ricezione passiva, allora il sogno è ciò che rimane quando si rimuovono i dati sensoriali ma si mantiene il processo generativo. Il sogno è la percezione a bassa costrizione esterna. + +Il sogno lucido --- la capacità di essere consapevoli di sognare pur mantenendo il sogno --- è un esperimento naturale affascinante sul rapporto tra coscienza e meta-cognizione. Durante il sogno lucido, la corteccia prefrontale si riattiva parzialmente. La differenza tra il sogno ordinario e il sogno lucido è la presenza di meta-cognizione: la capacità di monitorare il proprio stato cognitivo. Questo suggerisce che la coscienza in senso pieno richiede non solo elaborazione, ma meta-elaborazione --- un sistema che monitora se stesso. + +\puntini + +Il cervello è un sistema ritmico. Il pensiero non scorre uniformemente: pulsa. I ritmi cerebrali non sono ornamenti dell'attività neurale: sono la struttura temporale che organizza la computazione distribuita del cervello nello spazio e nel tempo. Comprendere il ritmo del pensiero è capire una dimensione fondamentale di cosa significa avere una mente. + +% ============================================================ +% CAPITOLO XI +% ============================================================ +\chapter{Libero Arbitrio, Causalità e Responsabilità} + +\epigraph{``The question is not whether we are determined, but whether the determining factors are the right kind — reasons, values, deliberation.''}{--- Daniel Dennett, \textit{Freedom Evolves} (2003)} + +\sezione{Il dibattito mal posto} + +Il dibattito tra determinismo e libero arbitrio, nella sua forma più comune, è mal posto. Non perché non ci siano questioni genuine in gioco — ci sono, e alcune sono profonde — ma perché il dibattito mescola domande ontologiche (la struttura causale della realtà), epistemologiche (cosa possiamo prevedere), e normative (chi è responsabile di cosa) come se fossero la stessa domanda. Non lo sono. Tenerle separate è il prerequisito per fare qualsiasi progresso. + +\sezione{Il determinismo fisico e le sue versioni} + +Il determinismo laplaciano sostiene che, dato lo stato completo dell'universo in un momento $t_0$, lo stato in qualsiasi momento futuro è univocamente determinato dalle leggi della fisica. La meccanica classica è deterministica in questo senso (con l'eccezione del caos, dove la sensitività alle condizioni iniziali rende la previsione praticamente impossibile anche in linea di principio). + +La meccanica quantistica introduce indeterminismo genuino: i risultati delle misurazioni sono fondamentalmente probabilistici. Ma questo non salva il libero arbitrio nel senso ordinario. Un'azione che dipende da un evento quantistico casuale non è libera: è casuale. La libertà richiede non solo assenza di predeterminazione, ma la presenza di un agente che origina l'azione attraverso ragionamento, deliberazione, valori. + +\sezione{I dati di Libet e la loro corretta interpretazione} + +Benjamin Libet condusse nel 1983 l'esperimento più discusso nella neuroscienze della volontà. Soggetti dovevano muovere il polso liberamente quando sentivano il desiderio. Un EEG registrava il readiness potential (RP): un'attività elettrica lenta nelle aree motorie supplementari che precede i movimenti volontari auto-generati. + +Il risultato: il RP iniziava circa 550 ms prima del movimento, ma la consapevolezza soggettiva del desiderio emergeva circa 200 ms prima del movimento. L'attività cerebrale precede la consapevolezza cosciente di circa 350 ms. La conclusione che molti trassero: il cervello `decide' prima che la coscienza ne sia consapevole. La volontà cosciente è un epifenomeno. + +Questa conclusione è sbagliata per due ragioni precise. Prima: Schurger et al. (2012) hanno mostrato che il RP riflette fluttuazioni stocastiche nell'attività pre-motoria continua, non una `decisione' discreta. Il movimento avviene quando queste fluttuazioni superano una soglia. Non c'è un momento discreto di `decisione'. Seconda ragione: Libet stesso propose che la coscienza mantenga un `potere di veto' — può bloccare l'azione nei $\sim$200 ms tra consapevolezza e movimento. Il veto cosciente potrebbe essere la forma di controllo che davvero importa. + +\sezione{Il compatibilismo} + +Il compatibilismo sostiene che il libero arbitrio moralmente e legalmente rilevante — la capacità di rispondere a ragioni, di deliberare, di agire in accordo con i propri valori — è compatibile con il determinismo fisico. Daniel Dennett lo argomenta sistematicamente in \textit{Freedom Evolves}. Harry Frankfurt aggiunse la struttura dei desideri di secondo ordine: un agente libero è uno che non solo ha desideri (di primo ordine), ma ha anche desideri su cosa desiderare (di secondo ordine), e agisce in accordo con i propri desideri di secondo ordine. + +La critica incompatibilista: questa libertà non è `vera' libertà, perché il determinismo significa che non potevate fare altrimenti in senso assoluto. La risposta compatibilista: `potevo fare altrimenti' nel senso moralmente rilevante significa che avrei agito diversamente se le mie ragioni fossero state diverse — un'affermazione controfattuale, non una violazione delle leggi fisiche. + +La mia posizione è che il compatibilismo sia corretto e sufficiente. Il libero arbitrio che conta — per la moralità, per il diritto, per il rispetto reciproco — è la capacità di rispondere a ragioni. Questa capacità è compatibile con qualsiasi descrizione fisica della realtà che vogliamo adottare. + +\sezione{Implicazioni per il diritto penale} + +Le implicazioni più urgenti del dibattito riguardano il sistema penale. Se le azioni umane sono causalmente determinate da stati neurali, quanto senso ha la punizione retributiva? David Eagleman ha argomentato per un sistema penale basato sulla protezione sociale e la riabilitazione. + +La giurisprudenza americana ha già incorporato considerazioni neuroscientifiche. Nel caso \textit{Roper v. Simmons} (2005), la Corte Suprema USA ha vietato la pena di morte per i minori di 18 anni, citando la maturità incompleta della corteccia prefrontale negli adolescenti. Queste decisioni non eliminano la responsabilità: calibrano il grado di responsabilità in funzione delle capacità effettive dell'agente. + +Il rischio opposto è altrettanto reale: se si elimina completamente la responsabilità, si elimina anche il rispetto per l'agente. Trattare le persone esclusivamente come oggetti da `riparare' piuttosto che come soggetti morali capaci di risposta alle ragioni nega qualcosa di essenziale nella natura umana. + +\sezione{Il problema del regresso causale} + +C'è un'obiezione al compatibilismo che merita considerazione seria. Il compatibilista dice: la libertà è la capacità di rispondere a ragioni. Ma le ragioni a cui rispondiamo sono state formate da esperienze precedenti, da disposizioni neurali ereditate e acquisite, da valori inculcati dall'educazione e dalla cultura. Non abbiamo scelto le nostre ragioni iniziali: le abbiamo ricevute. + +Questo è vero. E il compatibilista deve rispondere: sì, le ragioni a cui rispondiamo hanno una storia causale che precede la nostra deliberazione. Ma questo non elimina la libertà che conta --- la libertà di riflettere sulle ragioni, di modificarle alla luce di nuove informazioni, di costruire nel tempo ragioni migliori attraverso l'esperienza e la riflessione. + +Harry Frankfurt ha mostrato che la struttura dei desideri di secondo ordine --- i desideri su cosa desiderare --- è precisamente il meccanismo con cui gli agenti si auto-costruiscono nel tempo. Un agente che riflette sui propri valori, li mette in discussione, e li modifica alla luce della riflessione esercita una forma di auto-determinazione che è più che sufficiente per il tipo di responsabilità che abbiamo interesse ad attribuire. + +La libertà non è essere causa prima di se stessi (questo è incoerente anche concettualmente: richiederebbe esistere prima di esistere per causare la propria esistenza). La libertà è essere un certo tipo di sistema causale --- uno che può riflettere sulle proprie cause e modificarle nel tempo. + +\sezione{Neuroscienze della deliberazione} + +Le neuroscienze dell'ultimo decennio hanno rivelato strutture interessanti del processo decisionale che illuminano la discussione filosofica. + +La corteccia prefrontale --- particolarmente la corteccia prefrontale laterale (LPFC) --- è la regione più associata alla deliberazione esplicita, alla pianificazione a lungo termine, e alla regolazione dei comportamenti impulsivi. I danni alla LPFC producono comportamenti che sembrano deliberatamente scelti ma che sono guidati da impulsi immediati senza considerazione delle conseguenze a lungo termine. + +Il sistema limbico --- particolarmente l'amigdala --- è associato alle risposte emotive rapide e alle preferenze immediate. L'interazione tra LPFC e sistemi limbici è la neurobiologia del processo deliberativo: la corteccia prefrontale `frena' le risposte immediate dell'amigdala per permettere la considerazione di alternative. + +Questo suggerisce che la deliberazione ha una struttura neurale specifica, non è un'entità misteriosa. E supporta la posizione compatibilista: la libertà non richiede qualcosa al di là dei neuroni. I neuroni della LPFC sono il substrato fisico della deliberazione. La deliberazione è reale perché la LPFC è reale. + +\sezione{Il compatibilismo e la responsabilità pratica} + +Il compatibilismo non è solo una posizione filosofica: ha conseguenze pratiche immediate. + +Se la responsabilità è calibrata sulla capacità effettiva di rispondere a ragioni, allora la nostra comprensione della responsabilità morale dovrebbe evolvere con la nostra comprensione delle capacità cognitive. Un bambino di cinque anni non ha la stessa capacità di deliberare di un adulto. Un adulto con danni alla LPFC non ha la stessa capacità di un adulto sano. Una persona sotto l'influenza di sostanze che alterano la capacità deliberativa non ha la stessa capacità di una persona sobria. + +Questo non implica che la responsabilità sparisca: implica che la responsabilità è graduata, contestuale, sensibile alle circostanze. Il sistema penale dovrebbe riflettere questa gradualità, non imporre una distinzione binaria tra `colpevole' e `non colpevole'. Le neuroscienze non eliminano la responsabilità: la calibrano. + +Ci sono rischi in questa direzione: la `scusa neurologica' potrebbe essere usata per evitare la responsabilità in casi in cui le capacità deliberative sono pienamente presenti. Il sistema deve essere robusto contro questo tipo di manipolazione. Ma il rischio inverso --- ignorare le reali limitazioni cognitive per mantenere un sistema retributivo semplice --- sembra più grave, perché produce ingiustizie reali e misurabili. + +\puntini + +La libertà non è assenza di cause. La libertà è il tipo giusto di cause: quelle che passano attraverso la deliberazione, la considerazione di alternative, la risposta a ragioni. Questa è l'unica libertà che abbia mai avuto senso volere --- e la fisica, qualunque sia la sua struttura deterministica o probabilistica, non la intacca. + +% ============================================================ +% CAPITOLO XI-bis: COMPLESSITÀ E AUTO-ORGANIZZAZIONE +% ============================================================ +\chapter{Complessità, Auto-organizzazione, e i Limiti del Riduzionismo} + +\epigraph{``More is different.''}{--- Philip W. Anderson, \textit{Science} (1972)} + +\sezione{L'articolo più influente mai scritto in fisica della materia condensata} + +Philip Anderson, Premio Nobel per la Fisica 1977, pubblicò nel 1972 uno dei saggi scientifici più influenti del Novecento: `More is Different'. Il titolo esprime il punto essenziale: quando molti elementi interagiscono, emergono proprietà e leggi che non possono essere derivate dalla conoscenza delle leggi che governano i singoli elementi. Il riduzionismo metodologico — studiare le parti per capire il tutto — è una strategia di ricerca indispensabile e produttiva. Il riduzionismo ontologico — la tesi che le proprietà del tutto siano `solo' le proprietà delle parti in relazione — è falso o almeno profondamente insufficiente. + +Anderson non stava attaccando la fisica delle particelle. Stava difendendo la legittimità e l'irriducibilità delle scienze che studiano sistemi complessi: la fisica della materia condensata, la biologia, la chimica, la psicologia, le scienze sociali. Ognuna di queste discipline studia un livello di organizzazione con le proprie leggi, i propri oggetti, i propri criteri di spiegazione — che non si riducono banalmente al livello inferiore. + +L'argomento di Anderson è più tecnico di quanto sembri. Non è solo filosofia: è fisica. Considerate la superconduttività. Un superconduttore è un sistema di elettroni in un reticolo cristallino. La fisica degli elettroni singoli è ben nota. Ma la superconduttività — la resistenza elettrica esattamente zero, l'effetto Meissner, la quantizzazione del flusso magnetico — non emerge da nessuna proprietà degli elettroni singoli. Emerge dalla \textit{correlazione} tra gli elettroni, dalla formazione delle coppie di Cooper, dal condensato macroscopico. È una proprietà del collettivo che non ha analogo nel singolo componente. Non è semplicemente che non l'avremmo calcolata per mancanza di potenza computazionale: è che la superconduttività è un oggetto concettuale che non esiste nel vocabolario della fisica degli elettroni singoli. + +\sezione{Emergenza debole e emergenza forte} + +Il concetto di emergenza ha una storia lunga in filosofia. John Stuart Mill nel 1843 distingueva tra effetti meccanici (la somma segue la regola delle parti) ed effetti eteropathic (la combinazione produce qualità nuove non prevedibili dalla somma). Il filosofo contemporaneo David Chalmers ha formalizzato la distinzione tra \textbf{emergenza debole} ed \textbf{emergenza forte}. + +\textbf{L'emergenza debole} è ontologicamente innocua: le proprietà emergenti sono in principio derivabili dalla fisica del livello inferiore, anche se richiedono enorme potenza computazionale e conoscenza delle condizioni iniziali. La temperatura di un gas, la superconduttività, il ferromagnetismo: sono tutte proprietà emergenti nel senso debole. Nessun atomo di acqua è bagnato; il collettivo di miliardi di molecole ha questa proprietà che non appartiene ai componenti individuali. Ma in principio, con un computer abbastanza potente, si potrebbe derivare la bagnabilità dalla meccanica quantistica delle molecole d'acqua. + +\textbf{L'emergenza forte} è diversa: proprietà che non sono derivabili nemmeno in principio dalla fisica del livello inferiore, anche con conoscenza e potenza computazionale illimitate. Chalmers sostiene che le proprietà fenomenologiche della coscienza sono emergenza forte: non seguono logicamente dalla struttura neurale, per quanto dettagliata. Questa posizione è dibattuta, ma ha un nucleo argomentativo solido che si connette al Capitolo~XI sul problema dell'interno. + +\sezione{La criticalità auto-organizzata: valanghe, terremoti e il cervello} + +Per Bak, Tang e Wiesenfeld (\textit{Physical Review Letters}, 1987), molti sistemi complessi si organizzano spontaneamente in uno stato critico senza che nessun fattore esterno li spinga esplicitamente. Questo fenomeno — la Self-Organized Criticality (SOC) — è illustrato dal modello del mucchio di sabbia. + +Si aggiungono granelli di sabbia uno alla volta. Il mucchio cresce fino a raggiungere un angolo di riposo critico. A quel punto, ogni granello aggiunto può non causare nulla, oppure può causare una valanga piccola, media o gigantesca. La distribuzione delle dimensioni delle valanghe segue una \textit{legge di potenza} $P(s) \propto s^{-\tau}$: non c'è una dimensione caratteristica, le valanghe di tutte le dimensioni sono possibili. Il sistema si trova naturalmente al punto critico, senza che nessuno lo vi abbia spinto. + +I sistemi che mostrano comportamento analogo includono: i terremoti (legge di Gutenberg-Richter per la distribuzione delle magnitudo), le estinzioni di massa nella storia della vita, i mercati finanziari (distribuzione dei rendimenti con code pesanti), e il cervello. L'ipotesi della criticalità neurale (Beggs e Plenz, 2003) sostiene che il cervello sano opera vicino a un punto critico tra silenzio (sottocritico) e iperattività (sovracritico). A questo punto, la sensibilità agli input è massima, la trasmissione di informazione è ottimale, e la gamma dinamica è la più ampia possibile. + +L'implicazione è notevole: se il cervello opera alla criticalità, allora la sua posizione operativa ottimale non è uno stato stabile e prevedibile, ma uno stato al bordo del caos — massimamente sensibile, massimamente adattabile, massimamente imprevedibile nel dettaglio pur essendo statisticamente ordinato. È la posizione in cui un sistema complesso è più vivo nel senso funzionale del termine. + +\sezione{Reti scale-free e l'universalità dell'organizzazione} + +Albert-László Barabási e Réka Albert (1999) scoprirono che molte reti reali — Internet, le reti metaboliche delle cellule, le reti di citazioni accademiche, le reti sociali, il cervello — condividono una struttura comune: la distribuzione del numero di connessioni per nodo segue una legge di potenza, $P(k) \propto k^{-\gamma}$. Queste sono le \textit{reti scale-free}. + +Il meccanismo di formazione è semplice: crescita preferenziale (i nuovi nodi si connettono preferenzialmente ai nodi già molto connessi). Questo meccanismo, indipendentemente dalla natura specifica del sistema, produce sempre la stessa struttura di rete. È l'universalità della complessità: principi organizzativi che operano in modo identico in domini radicalmente diversi — biologia, tecnologia, cultura, fisica. + +Alexander Bogdanov aveva intuito questa universalità già nel 1912, nella sua tectologia. La sua intuizione — che i principi organizzativi trascendano i singoli domini — era corretta, ma non aveva gli strumenti matematici per formalizzarla. Bak, Barabási, e la scienza della complessità degli anni Novanta hanno fornito quei strumenti. + +\sezione{I limiti della predizione: il caos deterministico} + +I sistemi complessi hanno una caratteristica che li distingue fondamentalmente dai sistemi semplici: la sensibilità alle condizioni iniziali, o \textit{caos deterministico}. Henri Poincaré identificò per primo questo fenomeno nel 1889, lavorando al problema dei tre corpi. Edward Lorenz lo riscoprì nel 1963 studiando modelli meteorologici: variazioni minuscole nelle condizioni iniziali producono traiettorie divergenti esponenzialmente. L'`effetto farfalla' — una farfalla che sbatte le ali in Brasile può causare un uragano in Texas — non è una metafora suggestiva: è la descrizione matematica precisa dell'amplificazione esponenziale delle perturbazioni iniziali. + +Il caos è deterministico: le equazioni sono completamente determinate. Ma è praticamente imprevedibile oltre un orizzonte temporale caratteristico (il tempo di Lyapunov), perché la precisione richiesta nella specificazione delle condizioni iniziali cresce esponenzialmente con l'orizzonte di previsione. Per la troposfera, questo orizzonte è di circa due settimane: la previsione meteorologica affidabile è praticamente impossibile oltre questo limite, non per mancanza di dati o di potenza computazionale, ma per ragioni matematiche fondamentali. + +I sistemi viventi sono sistemi complessi caotici, soggetti a questa imprevedibilità fondamentale. Il comportamento umano — individuale e collettivo — è ancora più imprevedibile, perché aggiunge alla complessità fisica la complessità delle rappresentazioni simboliche, della cultura, del linguaggio, dell'intenzione. Questo non significa che l'azione umana sia incomprensibile: significa che la comprensione richiede strumenti diversi dalla predizione deterministica. + +\sezione{Il renormalization group: come i livelli si connettono} + +La fisica teorica ha sviluppato uno strumento matematico per capire come i livelli di descrizione si connettono: il \textit{renormalization group} (RG). Originariamente sviluppato in fisica delle alte energie (Wilson, Kadanoff, Fisher, negli anni Sessanta-Settanta), il RG fornisce un formalismo preciso per capire come la fisica cambia con la scala. + +L'idea essenziale: non tutte le proprietà microscopiche sono rilevanti per il comportamento macroscopico. Molti dettagli si `mediano' quando si guarda a scale più grandi. Quello che rimane rilevante a scale grandi --- le variabili e le interazioni che sopravvivono all'averaging --- dipende dalla struttura del sistema, non dai dettagli specifici. + +Il risultato più sorprendente è l'\textit{universalità}: sistemi fisicamente molto diversi (magneti, liquidi, polimeri, transizioni di fase in sistemi biologici) mostrano lo stesso comportamento critico, descritto dagli stessi esponenti critici. Questo perché appartengono alla stessa \textit{classe di universalità}: hanno la stessa struttura di RG, anche se i dettagli microscopici sono completissimamente diversi. + +L'universalità è la rigorizzazione matematica dell'intuizione di Anderson: l'organizzazione emergente è determinata dalla struttura delle correlazioni a lunga distanza, non dai dettagli microscopici. Un campo ordinato di spin e la turbolenza di un fluido possono avere la stessa fisica critica perché hanno la stessa struttura di correlazione a lunga distanza. + +Questo ha un'implicazione profonda per il riduzionismo: anche in linea di principio, con conoscenza completa dei dettagli microscopici, non si potrebbero derivare le proprietà critiche macroscopiche senza passare attraverso la struttura del RG --- che è una struttura genuinamente diversa dalla fisica microscopica. Il livello macroscopico ha una propria autonomia concettuale reale. + +\sezione{La vita come rete: la biologia dei sistemi} + +La biologia molecolare classica era riduzionista per necessità storica: prima di capire i componenti (DNA, proteine, enzimi), non si poteva capire il sistema. Ma una volta che i componenti sono stati identificati --- nel corso del Novecento --- è emersa la necessità di capire come si organizzano in reti. + +La biologia dei sistemi (Systems Biology), sviluppata negli anni 2000 da Lee Hood e altri, studia il comportamento di reti di interazione molecolare. Una cellula non è una collezione di molecole: è una rete di interazioni tra molecole, con proprietà dinamiche che dipendono dalla struttura della rete, non dalla natura delle singole molecole. + +Le reti metaboliche, le reti di segnalazione cellulare, le reti di regolazione genica: tutte mostrano proprietà che sono irriducibili ai componenti individuali. La robustezza al rumore (la cellula mantiene il comportamento stabile anche con fluttuazioni nelle concentrazioni molecolari), la modularity (reti di geni che si co-esprimono in risposta a stimoli specifici), l'emergenza di oscillatori (ciclo circadiano, ciclo cellulare): tutte proprietà della rete, non delle singole molecole. + +La biologia dei sistemi è l'applicazione della scienza della complessità alla biologia molecolare. Mostra che la vita non è solo chimica: è informatica biologica --- elaborazione di informazione attraverso reti di interazione con proprietà computazionali specifiche. + +\puntini + +La complessità non è il fallimento della fisica: è la sua estensione naturale verso i livelli di organizzazione superiori. Ogni livello ha le proprie leggi, i propri oggetti, i propri criteri di spiegazione. La fisica delle particelle non spiega la biologia; la biologia non spiega la psicologia; la psicologia non spiega la sociologia. Ogni disciplina è irriducibile, legittima, e necessaria. Il progetto della conoscenza umana non è la grande riduzione, ma la grande connessione. + +% ============================================================ +% CAPITOLO XII +% ============================================================ +\chapter{La Percezione come Costruzione} + +L'intuizione ordinaria sulla percezione è quella dello specchio: gli occhi registrano la realtà visiva, il cervello la elabora e la riproduce fedelmente. Questa intuizione è sbagliata in ogni sua parte. + +\sezione{La neuroanatomia della visione: un sistema prevalentemente discendente} + +La retina ha circa 125 milioni di fotorecettori. La fovea — la regione di massima acuità al centro del campo visivo — copre solo circa 2 gradi dell'angolo visivo e contiene il 50\% dei coni. La visione periferica è molto meno acuta di quanto percepiamo soggettivamente: il cervello `completa' i dettagli periferici usando l'aspettativa e la memoria. + +Il fatto più rivelatore è la densità delle connessioni nella direzione opposta: le connessioni dalla corteccia visiva V1 verso il nucleo genicolato laterale del talamo superano di circa \textit{dieci a uno} le connessioni ascendenti. Il cervello manda più informazione verso il basso (predizioni) di quanta ne riceva dal basso (dati). Questo non è un dettaglio anatomico: è la prova strutturale che il sistema visivo opera come sistema generativo-predittivo, non come sistema passivo di ricezione. + +\sezione{Le illusioni come strumenti epistemologici} + +Le illusioni ottiche sono strumenti epistemologici fondamentali: mostrano il meccanismo costruttivo della percezione nei casi in cui produce costruzioni errate, rivelando le assunzioni che il sistema visivo applica normalmente in modo invisibile. + +L'illusione di Müller-Lyer è resistente alla conoscenza cosciente: anche sapendo perfettamente che i segmenti sono uguali, continuiamo a vederli diversi. Questo mostra che il meccanismo visivo opera in modo incapsulato, indipendente dalla cognizione esplicita. Il cervello applica automaticamente una regola (`le frecce verso l'esterno indicano un bordo lontano') senza permettere alla conoscenza cosciente di correggere l'output. + +L'effetto McGurk dimostra che la percezione uditiva del parlato è influenzata da quella visiva: il cervello integra informazioni da modalità sensoriali diverse, e quando si contraddicono, costruisce un compromesso. Questa integrazione multisensoriale non è un errore: è il meccanismo che normalmente genera percetti stabili e accurati in ambienti rumorosi e ambigui. + +\sezione{La memoria come ricostruzione: Loftus e i falsi ricordi} + +Elizabeth Loftus ha dimostrato sistematicamente in decenni di ricerca che i ricordi non sono registrazioni immutabili: sono ricostruiti ogni volta che vengono recuperati, e questa ricostruzione è influenzabile da informazioni successive all'evento originale. + +In esperimenti classici, testimoni oculari di un video di un incidente stradale venivano interrogati con domande che contenevano presupposti diversi: `a che velocità andavano le macchine quando si sono scontrate?' versus `quando si sono toccate?'. Le stime di velocità differivano significativamente, e i soggetti interrogati con `scontrate' ricordavano più frequentemente — e falsamente — di aver visto vetri rotti. + +La neurobiologia della reconsolidation spiega il meccanismo: quando un ricordo viene recuperato, le sinapsi che lo codificano vengono temporaneamente labilizzate, permettendo la modifica prima del riconsolidamento. Il recupero è anche potenzialmente una riscrittura. Il passato che ricordiamo non è il passato come era: è il passato come lo abbiamo continuamente ricostruito, colorato dalle emozioni del presente. + +\sezione{La percezione come inferenza bayesiana} + +Il framework del predictive processing dà una cornice teorica unificata a tutti questi fenomeni. La percezione non è ricezione passiva: è inferenza attiva. Il cervello ha un modello interno del mondo, genera predizioni basate su quel modello, confronta le predizioni con i dati sensoriali, e aggiorna il modello sulla base degli errori di predizione. + +Le illusioni sono casi in cui il modello interno vince sull'evidenza sensoriale: le aspettative generate dal modello sono così forti da sopraffarne le smentite. Questo normalmente è utile --- il modello interno è più efficiente dei dati grezzi. Diventa problematico quando le aspettative sono calibrate in modo errato rispetto all'ambiente. + +\sezione{La costruzione dell'altro: empatia e mentalizzazione} + +La stessa logica costruttiva che si applica alla percezione del mondo fisico si applica alla percezione delle menti altrui. Non percepiamo direttamente le intenzioni, le credenze, e le emozioni degli altri. Le inferiamo da indizi comportamentali, combinando questi indizi con modelli interni di come funzionano le menti. + +Questo è il sistema di mentalizzazione o \textit{Theory of Mind} (ToM): la capacità di attribuire stati mentali ad altri agenti. I neuroni specchio, scoperti da Rizzolatti e colleghi nel 1996, si attivano sia quando si esegue un'azione sia quando si osserva un altro eseguire la stessa azione. Sono stati interpretati come substrato neurale dell'empatia e della comprensione motoria. + +Il framework di predictive processing estende questa intuizione: capire un'azione altrui significa simulare internamente quella stessa azione, costruire una predizione di cosa si sentirebbe nell'eseguirla. La comprensione empatica è una forma di simulazione interna, non di accesso diretto alla mente altrui. L'altro che conosciamo è sempre, in parte, una costruzione nostra. Non è nichilismo: le costruzioni migliori sono quelle calibrate con più cura e revisate con più onestà. Ma la distinzione tra l'altro come è e l'altro come lo conosciamo non scompare mai completamente. + +\sezione{Percezione e attenzione: cosa entra nella coscienza} + +Migliaia di input sensoriali raggiungono il cervello ogni secondo. Solo una piccola frazione diventa cosciente. Il resto viene elaborato senza accesso alla coscienza. L'attenzione è il meccanismo di selezione che determina cosa entra nella coscienza. + +Nel framework del predictive processing, l'attenzione corrisponde alla modulazione della precisione (varianza inversa) dei segnali di predizione e degli errori di predizione. Aumentare l'attenzione verso un canale sensoriale significa aumentare il peso degli errori di predizione provenienti da quel canale --- trattarli come segnali più informativi e quindi aggiornare più aggressivamente il modello sulla base di essi. + +Il fenomeno del \textit{change blindness} --- la difficoltà di notare cambiamenti drammatici in una scena visiva quando si verifica una piccola interruzione --- dimostra che la percezione non è una registrazione completa del campo visivo. Il cervello costruisce una rappresentazione \textit{selettiva} del mondo, basata su ciò che è attualmente rilevante per i propri obiettivi e aspettative. Enormi cambiamenti nell'ambiente passano inosservati quando non corrispondono alle predizioni del modello. + +Questo ha implicazioni epistemologiche importanti: non solo la nostra conoscenza è incompleta, ma le \textit{lacune} nella nostra conoscenza non sono casuali. Sono sistematicamente correlate con ciò che il nostro modello del mondo non ha bisogno di aggiornare. Invisibilità selettiva, non casuale. + +\puntini + +Non percepiamo la realtà: costruiamo un modello del mondo che viene calibrato dalla realtà ma non determinato da essa. Il modello è quasi sempre molto buono — altrimenti non saremmo sopravvissuti come specie. Ma è un processo attivo, creativo, soggetto agli stessi bias di qualsiasi processo di modellizzazione. + +% ============================================================ +% CAPITOLO XII-bis: LA FISICA DEL COLORE +% ============================================================ +\chapter{La Fisica del Colore} + +\epigraph{``Colors are the smiles of nature.''}{--- Leigh Hunt (attrib.)} + +\sezione{Luce e colore: due descrizioni incompatibili} + +Il colore è forse la proprietà percettiva in cui la distanza tra la realtà fisica e l'esperienza soggettiva è più evidente e più istruttiva. Fisicamente, il `colore' di un oggetto è la distribuzione spettrale della luce che emette o riflette --- una funzione della lunghezza d'onda, continua, che si estende su tutto lo spettro visibile (circa 380--780 nm) e oltre. Soggettivamente, il colore è una categoria discreta e ricca di associazioni: il rosso, il verde, il blu, il giallo, il viola --- categorie che la fisica non contiene. + +La retina umana ha tre tipi di coni: i coni S (short-wavelength, picco $\sim$420 nm), i coni M (medium-wavelength, picco $\sim$530 nm), e i coni L (long-wavelength, picco $\sim$560 nm). La visione del colore è \textit{tricromatica}: il cervello determina il colore percepito dalle tre attivazioni relative dei coni, non dalla distribuzione spettrale completa. Questo significa che una quantità infinita di distribuzioni spettrali fisicamente diverse produce la stessa percezione cromatica (\textit{metamerismo}): l'esperienza del colore è una proiezione da uno spazio infinito-dimensionale (spettri) a uno spazio tridimensionale (tre tipi di coni). + +\sezione{I colori impossibili} + +I \textit{colori impossibili} sono stati descritti da Crane e Piantanida nel 1983: usando tecniche di stabilizzazione della retina, i soggetti sperimentano `rosso-verde' o `giallo-blu' --- colori che normalmente non possono coesistere nella stessa posizione del campo visivo. I meccanismi di competizione cromatica normalmente impediscono questi colori, ma quando vengono bypassed, emergono percetti che non hanno nome perché non sono normalmente accessibili. + +Le persone con visione tetracromatica --- una piccola percentuale di donne con quattro tipi di coni invece di tre --- hanno accesso a distinzioni cromatiche invisibili ai tricromati. La tetracromazia dimostra che la ricchezza percettiva del colore dipende dall'architettura sensoriale, non dalla fisica della luce. + +\sezione{La costanza del colore e il vestito virale} + +Nel 2015, una fotografia di un vestito che alcune persone vedevano blu e nero, altre bianco e oro, divenne virale. Non era una disputa su opinioni: le persone vedevano genuinamente colori diversi nella stessa immagine. Il fenomeno illustra la \textit{costanza del colore}: il cervello corregge automaticamente il colore percepito in funzione della luce ambiente stimata. + +Persone con diversi prior su che tipo di luce illumini la scena correggono in direzioni opposte, ottenendo percetti diversi dalla stessa fotografia. Non è soggettivismo: è la struttura del sistema percettivo che funziona correttamente in entrambi i casi, ma producendo output diversi perché le assunzioni di partenza sono diverse. + +\sezione{Relativismo linguistico e percezione} + +Il russo distingue \textit{goluboy} (azzurro chiaro) e \textit{siniy} (blu scuro) come categorie separate. I risultati di Boroditsky mostrano che questa distinzione linguistica accelera la discriminazione percettiva al confine tra le due categorie. La fisica dello spettro elettromagnetico è la stessa per tutte le culture. Le categorie cromatiche che le culture impongono allo spettro sono variabili. + +Il colore è un caso studio ideale della tesi che attraversa questo libro: la realtà che abitiamo non è la realtà fisica nuda, ma la realtà fisica filtrata attraverso l'architettura dei sistemi percettivi, cognitivi e linguistici. Non c'è `rosso' nel mondo fisico --- c'è radiazione elettromagnetica a 700 nm. Il rosso è una costruzione relazionale che emerge dall'interazione tra quella radiazione, i coni L della retina, i circuiti di elaborazione cromatica, e il concetto `rosso' codificato dalla nostra lingua. Rimuovete uno qualsiasi di questi elementi e il rosso scompare. + +\puntini + +Il rosso che vedete non è nella luce. È nella relazione tra la distribuzione spettrale della luce, i vostri coni, il sistema di elaborazione del colore, e il vocabolario cromatico che la vostra lingua vi ha fornito. Il colore è un esempio straordinariamente vivido di come la mente costruisce il mondo. + +% ============================================================ +% CAPITOLO XIII +% ============================================================ +\chapter{L'Emozione come Informazione} + +\epigraph{``Emotions are not additions to reason. They are the precondition of rationality.''}{--- Antonio Damasio, \textit{Descartes' Error} (1994)} + +\sezione{Il dualismo da demolire} + +La separazione tra ragione ed emozione è uno dei dualismi più radicati e più dannosi della cultura occidentale. Platone immaginava l'anima divisa in razionale e irrazionale. Cartesio separò la \textit{res cogitans} dalla \textit{res extensa}. L'Illuminismo celebrò la ragione come liberazione dall'emozione. Kant distinse nettamente la ragione pratica dalla sensibilità. + +Le neuroscienze del tardo Novecento hanno sistematicamente smontato questo dualismo. Non per abolire la distinzione tra razionale e emotivo — ha un nucleo valido — ma per mostrare che la relazione tra i due è profondamente diversa da quella che il dualismo proponeva. Le emozioni non sono ostacoli alla razionalità: ne sono la precondizione. + +\sezione{Antonio Damasio e l'ipotesi del marcatore somatico} + +Damasio descrisse in \textit{Descartes' Error} (1994) pazienti con danni al cortex prefrontale ventromediale (vmPFC) che presentavano un quadro paradossale. Cognitivamente brillanti, ma incapaci di prendere buone decisioni nella vita quotidiana. Il caso `Elliot', ex uomo d'affari di successo, passava ore a valutare due possibili appuntamenti, enumerando pro e contro senza mai giungere a una decisione. + +Damasio propose l'ipotesi del marcatore somatico: le emozioni servono come segnali euristici pre-riflessivi nel processo decisionale. Quando valutiamo un'opzione, il cervello genera automaticamente una risposta emotiva corporea che `marca' l'opzione come positiva o negativa. Questa marcatura riduce lo spazio delle opzioni da considerare analiticamente. Senza questa marcatura, il processo decisionale diventa intrattabile: ci sono potenzialmente infinite considerazioni rilevanti per qualsiasi decisione non banale. + +\sezione{Lisa Feldman Barrett: le emozioni come costruzioni culturali} + +Lisa Feldman Barrett, in \textit{How Emotions Are Made} (2017), ha sviluppato la teoria costruzionista delle emozioni, che sfida la visione standard associata a Paul Ekman: quella di emozioni di base universali con espressioni facciali fisse e pattern fisiologici caratteristici. + +Barrett argomenta che le emozioni non sono stati biologici fissi. Sono costruzioni attive: il cervello categorizza stati corporei interni (il core affect: valenza semplice piacevole/sgradevole e arousal alto/basso) in concetti emotivi dipendenti dalla cultura, dalla lingua, dal contesto. `Vergogna', `Schadenfreude', `amae' (la dipendenza accettata della cultura giapponese), `saudade' (la nostalgia portoghese): non sono emozioni universali con esatto equivalente in ogni cultura. Sono costruzioni culturali specifiche. + +Le implicazioni: le emozioni sono modificabili attraverso la cultura, il linguaggio, l'apprendimento. La granularità emotiva — la capacità di distinguere sfumature di emozioni simili — è correlata con il benessere psicologico e con la capacità di regolazione emotiva. Imparare a chiamare precisamente le proprie emozioni è letteralmente imparare a sentirle diversamente. + +\sezione{Baruch Spinoza: un precursore sorprendente} + +Baruch Spinoza, nell'\textit{Etica} (1677), aveva anticipato con notevole precisione concettuale alcune delle idee di Damasio. Spinoza sostenne che le emozioni (\textit{affectus}) non sono perturbazioni della ragione da sopprimere: sono espressioni della potenza del corpo e della mente. Il \textit{conatus} — la tendenza intrinseca di ogni cosa a perseverare nella propria esistenza — si manifesta emotivamente come la registrazione continua dei cambiamenti della propria capacità di agire nel mondo. La gioia (\textit{laetitia}) è il passaggio a una maggiore potenza d'agire; la tristezza (\textit{tristitia}) è il passaggio a una minore potenza. Le emozioni sono informazione sul rapporto tra l'organismo e il suo ambiente. + +La razionalità in Spinoza non è la soppressione delle emozioni ma la loro comprensione: conoscere le cause delle proprie emozioni permette di agire liberamente. Tre secoli prima della neuroimmagine funzionale, Spinoza aveva la struttura concettuale giusta per quello che Damasio avrebbe poi trovato nei laboratori. + +\sezione{La regolazione emotiva come competenza} + +Se le emozioni sono costruzioni attive (Barrett) e informazione sul rapporto tra organismo e ambiente (Spinoza/Damasio), allora la regolazione emotiva non è la soppressione delle emozioni: è l'affinamento della costruzione. + +James Gross, il principale ricercatore sulla regolazione emotiva, ha identificato diverse strategie di regolazione. La \textit{rivalutazione cognitiva} (\textit{cognitive reappraisal}) --- cambiare il modo in cui si inquadra una situazione emotigena --- è la strategia più efficace a lungo termine. Riduce l'intensità dell'emozione agendo sul processo generativo, non sull'output. La \textit{soppressione espressiva} --- inibire l'espressione esterna dell'emozione senza modificarne il processo generativo --- è meno efficace e ha costi cognitivi elevati. + +La rivalutazione cognitiva funziona perché modifica il modello interno che genera la costruzione emotiva. Se percepisco un insuccesso come `fallimento definitivo', il modello genera tristezza e rinuncia. Se lo reincornicio come `informazione utile sul percorso', il modello genera curiosità e determinazione. Non è auto-inganno: è la scelta deliberata di quale aspetto di una situazione complessa focalizzare, quale interpretazione privilegiare. + +La neurobiologia della rivalutazione cognitiva coinvolge la corteccia prefrontale laterale, che esercita controllo top-down sui circuiti dell'amigdala. La rivalutazione è letteralmente la LPFC che modifica l'elaborazione dell'amigdala --- confermando che emozione e cognizione non sono sistemi separati ma livelli di elaborazione dello stesso sistema. + +\sezione{L'intelligenza emotiva come competenza acquisibile} + +Peter Salovey e John Mayer formularono nel 1990 il concetto di intelligenza emotiva come la capacità di percepire, usare, comprendere e gestire le emozioni in modo adattivo. Daniel Goleman ne fece un concetto popolare in `Emotional Intelligence' (1995), con alcune semplificazioni che hanno generato critiche metodologiche giuste --- ma il nucleo empirico del concetto è solido. + +Le componenti dell'intelligenza emotiva sono: la \textit{percezione emotiva} (riconoscere le emozioni proprie e altrui), il \textit{uso delle emozioni} (usare gli stati emotivi per facilitare il pensiero), la \textit{comprensione delle emozioni} (capire le cause, le transizioni, le conseguenze delle emozioni), e la \textit{gestione delle emozioni} (regolare le emozioni proprie e facilitare quelle altrui). + +La granularità emotiva di Barrett --- la finezza del vocabolario emotivo --- è un prerequisito per la comprensione delle emozioni. Non si può gestire efficacemente ciò che non si riesce a nominare con precisione. Persone con vocabolario emotivo più ricco mostrano regolazione emotiva migliore nei dati sperimentali: non perché le parole causino le emozioni, ma perché le parole strutturano le categorie in cui il cervello costruisce gli stati emotivi. + +\sezione{Le emozioni come bussola morale} + +C'è una dimensione delle emozioni che la psicologia cognitiva tende a trascurare: il loro ruolo nella guida morale. Jonathan Haidt, in `The Righteous Mind' (2012), ha argomentato che i giudizi morali sono fondamentalmente emotivi --- originano da intuizioni emotive rapide e automatiche, e le argomentazioni razionali vengono dopo, per giustificare post-hoc il giudizio già preso. + +Haidt chiama questo `social intuitionism': il modello morale standard che vede la ragione come guida e l'emozione come perturbazione è sbagliato. La ragione è il giornalista che cerca le motivazioni per il decisore; il decisore è l'intuizione emotiva. + +Questo non è relativismo morale: Haidt non dice che i giudizi morali siano arbitrari. Dice che la loro origine è emotiva, non razionale. La ragione può poi raffinare, criticare, e correggere i giudizi emotivi --- ma non può fare il lavoro da sola. L'etica richiede entrambe: la sensibilità emotiva che identifica il problema morale, e la riflessione razionale che lo elabora con coerenza. + +Spinoza aveva visto questo con anticipo di tre secoli: la libertà morale non è liberarsi dalle emozioni, ma comprenderle e usarle consapevolmente. Le emozioni sono la bussola; la ragione è la mappa. Senza bussola, la mappa non sa dove orientarsi. + +\sezione{Emozioni sociali e la struttura morale della mente} + +Le emozioni morali --- colpa, vergogna, indignazione, ammirazione, gratitudine, compassione --- hanno una struttura specifica che le distingue dalle emozioni di base. Sono intrinsecamente relazionali: riguardano la relazione tra l'individuo e gli altri, tra l'individuo e le norme sociali. + +La colpa (guilt) emerge quando si percepisce di aver violato i propri valori o causato danno ad altri. La vergogna (shame) emerge quando si percepisce che il proprio valore come persona è in questione. Jonathan Tangney ha mostrato che le persone ad alta tendenza alla colpa (ma bassa vergogna) hanno migliori outcomes nelle relazioni interpersonali e tendono a comportamenti più prosociali. La vergogna, al contrario, tende a produrre difesa, attacco agli altri, o isolamento. + +L'indignazione morale --- la risposta emotiva a violazioni norme sociali percepite --- è uno dei meccanismi più potenti della cooperazione umana. La punizione altruistica (punire i violatori delle norme anche a costo personale) è facilitata dall'indignazione morale ed è stata identificata sperimentalmente in studi di economia comportamentale. Le persone puniscono i free-rider nei giochi di beni pubblici anche quando è costoso per loro. Non è razionale in senso stretto; è efficiente per la cooperazione del gruppo. + +La compassione --- la risposta all'osservazione della sofferenza altrui con motivazione all'aiuto --- ha basi neurali distinte dall'empatia. Mentre l'empatia produce risonanza affettiva (sentire quello che l'altro sente), la compassione produce motivazione all'azione pro-sociale. Esperimenti di neuroimmagine mostrano che l'allenamento alla compassione (meditazione Metta, loving-kindness meditation) aumenta l'attivazione di reti neurali associate alla motivazione affiliativa piuttosto che a quelle associate al distress empatico. Questo suggerisce che la compassione può essere coltivata, e che è diversa dall'empatia nel suo substrato neurale e nei suoi effetti comportamentali. + +La struttura delle emozioni morali riflette la struttura della vita sociale: siamo esseri costitutivamente relazionali, la cui vita emotiva è organizzata intorno alle relazioni con gli altri. Anche le emozioni più `private' --- la colpa, la vergogna --- sono emozioni sociali nel senso che regolano il comportamento nelle relazioni. + +\puntini + +Le emozioni non sono difetti umani né ostacoli alla razionalità: sono componenti funzionali di un sistema di elaborazione dell'informazione evolutivamente plasmato. Comprenderle come informazione --- non come comandi da seguire ciecamente né come disturbi da reprimere --- cambia il modo in cui si abita la propria vita interiore. + +% ============================================================ +% CAPITOLO IX-bis: FISICA COME STORIA +% ============================================================ +\chapter{La Fisica come Storia} + +\epigraph{``The history of physics is not simply the accumulation of knowledge. It is the history of how human beings have learned to ask better and better questions.''}{--- Carlo Rovelli} + +\sezione{Come nascono le rivoluzioni} + +C'è un'idea sbagliata comune sulla scienza: che proceda in modo lineare, accumulando fatti su fatti, con la teoria che emerge naturalmente dall'evidenza. La storia reale della fisica è molto più caotica, più umana, più interessante. Le grandi rivoluzioni non sono state scoperte: sono state invenzioni concettuali che hanno richiesto coraggio intellettuale e la capacità di abbandonare intuizioni profondamente radicate. + +\sezione{L'isola di Helgoland, luglio 1925} + +Werner Heisenberg, ventitré anni, stava soffrendo di un grave attacco di febbre da fieno. Per sfuggire alle allergie di Gottinga, si rifugiò sull'isola di Helgoland nel Mare del Nord. In una notte di giugno 1925, costruì le basi della meccanica delle matrici: una descrizione dell'atomo in cui le quantità fisiche non sono numeri ma `tavole di numeri'. Scrisse nelle sue memorie: ``Circa le tre di mattina, i calcoli erano davanti a me nella loro forma finale\ldots Ero talmente eccitato che non riuscii a dormire. Andai a camminare fino all'alba sulla punta meridionale dell'isola.'' La meccanica quantistica era nata. + +\sezione{Il conflitto delle interpretazioni} + +I Congressi Solvay del 1927 e 1930 furono i teatri dello scontro tra Einstein e Bohr. Einstein proponeva esperimenti mentali per mostrare che la teoria era incompleta. Bohr rispondeva ogni volta, trovando la falla. Nel 1930, Einstein propose il celebre `esperimento della scatola di luce': pesare una scatola che emette un fotone per misurare l'energia del fotone con precisione arbitraria. Bohr rispose la notte stessa usando la relatività generale di Einstein stessa: il peso della scatola cambia la sua posizione nel campo gravitazionale, e questo introduce un'incertezza nel rate dell'orologio, ripristinando la relazione di indeterminazione. + +Lo scontro Einstein-Bohr non fu solo una disputa tecnica: fu uno scontro tra due visioni del mondo. Einstein credeva che la realtà fisica esistesse indipendentemente dall'osservazione. Bohr sosteneva che la distinzione tra osservatore e osservato non potesse essere eliminata. Questo scontro non è mai stato risolto: si è trasformato nella domanda dell'interpretazione della meccanica quantistica, ancora aperta. + +\sezione{Kuhn e la struttura delle rivoluzioni} + +Thomas Kuhn, in \textit{The Structure of Scientific Revolutions} (1962), propose che la scienza non procede per accumulazione lineare ma attraverso periodi alternati di `scienza normale' e `rivoluzioni'. Durante la `scienza normale', i ricercatori lavorano all'interno di un paradigma condiviso. Man mano che le anomalie si accumulano, si avvicina una `crisi'. Infine, un nuovo paradigma emerge e, in un processo non puramente razionale ma anche sociologico, sostituisce il vecchio. + +Kuhn identificò che le rivoluzioni scientifiche non sono puramente razionali: includono elementi di persuasione, di adesione a una comunità, di cambiamento generazionale. Planck scrisse amaramente che `una nuova verità scientifica non trionfa convincendo i suoi oppositori, ma perché i suoi oppositori alla fine muoiono.' Questo è empiricamente corretto per molte rivoluzioni, inclusa la meccanica quantistica: Einstein non cambiò mai veramente idea. + +Riconoscere questi elementi sociologici non è un attacco alla validità della scienza. È il riconoscimento che la scienza è un'impresa umana. Ma la scienza ha una caratteristica che la distingue: i meccanismi di autocorrezione. La replicabilità, la revisione dei pari, la verifica sperimentale indipendente: questi meccanismi, imperfetti e lenti come sono, tendono nel lungo periodo a correggere gli errori e a convergere verso descrizioni più accurate della realtà. + +\sezione{Il problema della comunicazione interparadigmatica} + +Kuhn identificò anche qualcosa di più sottile e controverso: l'incommensurabilità dei paradigmi. Quando due scienziati lavorano all'interno di paradigmi diversi, usano le stesse parole con significati diversi. `Massa' nella meccanica newtoniana e nella meccanica relativistica ha significati diversi (scalare fisso vs componente del quadrivettore). `Elemento' nella chimica del flogisto e nella chimica post-Lavoisier ha significati diversi. Non è solo disaccordo: è incomprensione strutturale. + +Questo non significa che il dialogo tra paradigmi sia impossibile, ma che richiede sforzo deliberato. I grandi comunicatori scientifici --- i Bohr, i Feynman, i Hawking, i Rovelli --- non sono semplicemente persone che spiegano bene. Sono persone che riescono a tradurre tra paradigmi, a trovare le analogie che permettono a qualcuno formata in un paradigma di vedere, anche se imperfettamente, la struttura di un altro. + +La comunicazione interparadigmatica è una competenza rara e preziosa. È diversa dalla competenza tecnica nel singolo paradigma: richiede la capacità di stare al confine tra due strutture concettuali e di percepire la distanza tra loro, invece di assumere che condividano più di quanto condividano. + +\sezione{La scienza come forma di vita} + +Wittgenstein, nelle Ricerche Filosofiche, usò l'espressione \textit{Lebensform} --- forma di vita --- per indicare il contesto pratico e sociale in cui le pratiche linguistiche e cognitive hanno il loro significato. La scienza è una forma di vita in questo senso preciso: non è solo un metodo, ma un insieme di pratiche, valori, norme, istituzioni, e tradizioni che definiscono cosa significa fare scienza. + +Questa forma di vita include: la pubblicazione aperta e la revisione dei pari (la conoscenza deve essere accessibile e verificabile), la priorità all'evidenza sulle autorità (nessuna argomentazione per autorità, solo per dati e ragionamenti), la replicabilità (i risultati devono essere riproducibili da altri), l'onestà nella presentazione dei dati (inclusi i risultati negativi), e la comunità critica (la critica è benvenuta, non subita). + +Queste non sono norme arbitrarie: sono strutture istituzionali che producono, nel lungo periodo, avvicinamento alla verità. Non sono né rispettate sempre né rispettate perfettamente. Ma sono il meccanismo attraverso cui la scienza si auto-corregge. + +Partecipare a questa forma di vita --- anche da non-scienziati --- significa adottare queste norme come proprie: tenere le proprie credenze con la giusta confidenza, aggiornarle sull'evidenza, rispettare l'expertise altrui senza rinunciare al giudizio critico proprio. Non è facile. Non è naturale. È un'acquisizione culturale che richiede educazione, tempo, e pratica. + +\sezione{La scienza in una democrazia} + +Uno degli aspetti più importanti e meno discussi della scienza come forma di vita è il suo rapporto con la democrazia. Le democrazie moderne richiedono che i cittadini prendano decisioni collettive su questioni tecnicamente complesse: cambiamento climatico, vaccinazioni, sicurezza nucleare, biotecnologie, intelligenza artificiale. Queste decisioni richiedono una comprensione, anche di base, della natura dell'evidenza scientifica e dei suoi limiti. + +Una democrazia in cui la maggioranza non capisce la differenza tra una correlazione e una causazione, non sa cosa significhi un valore di p, non distingue tra l'incertezza scientifica (inevitabile) e il dubbio come tattica (deliberato), è una democrazia vulnerabile alle manipolazioni. La scienza non può essere delegata a un'élite tecnica: richiede una cultura scientifica diffusa. + +Questo non significa che tutti debbano diventare scienziati. Significa che la \textit{epistemologia scientifica} --- l'insieme di pratiche di tenuta e aggiornamento delle credenze --- dovrebbe essere parte dell'educazione di base, tanto quanto la lettura e l'aritmetica. + +\sezione{Dalla storia della fisica alla storia del pensiero} + +La storia della fisica è parte di una storia più ampia: la storia di come il pensiero umano si è strutturato nel tempo. Le rivoluzioni scientifiche non avvengono nel vuoto: si intrecciano con le rivoluzioni filosofiche, politiche, culturali del loro tempo. + +La meccanica quantistica nacque in un'Europa sconvolta dalla Prima Guerra Mondiale. Il gruppo di Copenaghen --- Bohr, Heisenberg, Born, Pauli, Dirac --- elaborò una nuova fisica in un clima di profondo rimescolamento dei valori e delle certezze. Non è una coincidenza: le rivoluzioni concettuali si producono in momenti storici in cui i vecchi framework sono già indeboliti. + +La relatività generale nacque in piena guerra mondiale. Einstein, tedesco pacifista in una Berlino in guerra, stava demolendo le basi newtoniane della fisica mentre intorno a lui i fondamenti di una civiltà andavano in pezzi. Il contesto non determina la fisica; ma il fatto che le rivoluzioni fisiche più profonde del Novecento siano avvenute in momenti di crisi profonda delle certezze culturali è significativo. + +La scienza non è solo la produzione di conoscenza: è un evento culturale. La relatività, la meccanica quantistica, la teoria dell'evoluzione, la cosmologia del Big Bang hanno cambiato non solo la fisica o la biologia, ma l'immagine che gli esseri umani hanno di se stessi nel mondo. Questo cambiamento culturale è lento e non lineare, procede attraverso fraintendimenti e semplificazioni, incontra resistenze e produce nuovi entusiasmi esagerati. Ma avviene. L'immagine del mondo che un europeo colto del XXI secolo porta inconsciamente con sé è radicalmente diversa da quella di un europeo colto del XVI o del XVIII secolo. La scienza ha contribuito a questa trasformazione più di qualsiasi altra forza intellettuale. + +\puntini + +La storia della fisica è la storia di come alcune comunità di esseri umani hanno sviluppato metodi sempre più potenti per porre domande precise al mondo. Le rivoluzioni sono avvenute quando qualcuno ha avuto il coraggio concettuale di vedere le anomalie come segni di una struttura più profonda, non come errori da correggere nel vecchio quadro. + +% ============================================================ +% CAPITOLO: CHE COS'E' LA VITA? +% ============================================================ +\chapter{Che Cos'è la Vita?} + +\epigraph{``Life feeds on negative entropy.''}{--- Erwin Schrödinger, \textit{What is Life?} (1944)} + +\sezione{La domanda più semplice e più difficile} + +La domanda `che cos'è la vita?' è deceptivamente semplice. Sappiamo riconoscere la vita quando la incontriamo: un gatto è vivo, una roccia non lo è. Eppure, quando proviamo a tracciare un confine preciso tra vivente e non-vivente, ci troviamo davanti a una serie di casi limite che sfidano qualsiasi definizione. + +Erwin Schrödinger, nel 1943, tenne a Dublino una serie di lezioni che furono poi pubblicate come `What is Life?' (1944). Il libro, scritto da un fisico per un pubblico di non biologi, è uno dei testi scientifici più influenti del Novecento: anticipò la ricerca sul DNA, propose il concetto di `codice genetico', e inquadrò la biologia in termini fisici. La domanda centrale: come può un sistema fisico, soggetto alle leggi della termodinamica che tendono al disordine, mantenere e riprodurre la propria struttura ordinata? + +\sezione{La risposta termodinamica: strutture dissipative} + +La risposta di Schrödinger: un organismo vivente si nutre di entropia negativa. Consuma energia libera dall'ambiente (cibo, luce solare, gradiente chimico) e la usa per mantenere la propria struttura a bassa entropia, dissipando entropia nell'ambiente sotto forma di calore e prodotti di scarto. + +Ilya Prigogine (Nobel per la Chimica 1977) sviluppò la termodinamica dei sistemi lontano dall'equilibrio, identificando una classe di sistemi --- le \textit{strutture dissipative} --- che mantengono ordine e complessità proprio attraverso la dissipazione di energia. L'esempio classico è la convezione di Bénard: un fluido riscaldato dal basso e raffreddato dall'alto, quando il gradiente di temperatura supera una soglia critica, organizza spontaneamente la sua circolazione in celle esagonali regolari. L'ordine emerge spontaneamente dal flusso di energia, non dall'esterno. + +Gli organismi viventi sono strutture dissipative: mantengono la loro struttura complessa attraverso il consumo continuo di energia libera. Non nonostante la seconda legge della termodinamica, ma grazie ad essa --- nel senso che sono un modo efficiente di dissipare i gradienti energetici dell'ambiente. La vita, da questo punto di vista, è la risposta della materia alla sfida termodinamica: come dissipare gradienti energetici nel modo più efficace possibile? + +\sezione{Autopoiesi: la vita come auto-produzione} + +Humberto Maturana e Francisco Varela proposero nel 1972 il concetto di \textit{autopoiesi} (dal greco \textit{auto}, `sé', e \textit{poiesis}, `produzione, creazione') come definizione formale del vivente. Un sistema autopoietico è un sistema che continuamente produce se stesso: i suoi componenti sono prodotti dai processi del sistema, e i processi sono sostenuti dai componenti. + +La cellula vivente è il prototipo: le molecole cellulari (proteine, lipidi, acidi nucleici) sono prodotte dai processi metabolici della cellula, e i processi metabolici sono catalizzati e sostenuti dalle molecole cellulari. Questa auto-riferenzialità è la caratteristica distintiva del vivente. + +Una pietra non è autopoietica: la sua struttura non è prodotta dai suoi propri processi. Una fiamma non è completamente autopoietica: produce se stessa in senso energetico, ma non produce i propri componenti materiali. La cellula sì: produce le proprie membrane, i propri enzimi, il proprio DNA, i propri ribosomi --- e usa questi componenti per produrre altri componenti. + +L'autopoiesi ha implicazioni profonde per la cognizione. Maturana e Varela proposero che la cognizione non è la rappresentazione interna di un mondo esterno indipendente, ma la generazione di un dominio di comportamenti viabili. Il mondo della cellula (o dell'organismo) è il mondo che la cellula (o l'organismo) distingue e costruisce attraverso la sua struttura e i suoi processi. Non c'è un `mondo esterno' indipendente che l'organismo rappresenta: c'è una relazione strutturale tra l'organismo e il suo ambiente che genera il dominio fenomenico in cui l'organismo esiste. Questo è, di nuovo, relazionalismo --- applicato questa volta alla biologia. + +\sezione{Il confine della vita: virus e prioni} + +I virus sfidano la definizione di vivente. Fuori dalla cellula ospite, sono molecole inerti --- acidi nucleici avvolti in un capside proteico. Non hanno metabolismo, non hanno struttura autopoietica, non possono riprodursi autonomamente. All'interno della cellula ospite, `usurpano' la macchina cellulare per replicarsi. Sono viventi? La risposta dipende dalla definizione che si adotta. + +I prioni (Stanley Prusiner, Nobel 1997) sono ancora più strani: proteine mal conformate che inducono la conformazione anormale in altre proteine della stessa sequenza. Non contengono acidi nucleici. Si `replicano' puramente attraverso un meccanismo conformazionale, senza informazione genetica. Causano malattie neurodegenerative devastanti (CJD, BSE, scrapie). Sfidano l'idea che l'informazione biologica sia sempre codificata nei nucleotidi. + +Questi casi limite non sono fastidiose eccezioni: sono rivelatori della struttura del fenomeno. Mostrano che `vita' non è un fatto naturale con un confine netto. È una categoria che imponiamo a un continuo di fenomeni fisici, e il confine di quella categoria dipende dagli scopi per cui la usiamo. + +\sezione{La biologia come fisica dell'informazione} + +La biologia molecolare moderna ha mostrato che la vita è fondamentalmente un sistema di elaborazione dell'informazione. Il DNA codifica l'informazione necessaria per costruire l'organismo. La trascrizione e la traduzione sono processi di lettura e decodifica dell'informazione. Le reti di segnalazione cellulare elaborano segnali interni e ambientali. Il sistema immunitario apprende e ricorda. Il cervello modella e predice. + +La quantità di informazione nel genoma umano ($\sim$$3 \times 10^9$ paia di basi, codificanti $\sim$20.000 geni) è dell'ordine di 800 MB --- meno dello spazio di archiviazione di un telefono cellulare. Eppure questa informazione, nell'ambiente appropriato (la cellula uovo fecondata con le sue proteine e segnali materni), è sufficiente per costruire un essere umano. Non perché il genoma contenga le istruzioni complete per ogni cellula: perché contiene le istruzioni per i programmi di sviluppo che interagiscono con l'ambiente per produrre l'organismo adulto. La vita è algoritmica nel senso preciso che un breve programma può generare strutture enormemente complesse attraverso l'interazione iterativa con il contesto. + +\sezione{L'abiogenesi come problema aperto} + +La domanda di come la vita abbia avuto origine dalla chimica non-vivente --- l'\textit{abiogenesi} --- rimane uno dei problemi più aperti della scienza. L'esperimento Miller-Urey (1953) dimostrò la sintesi spontanea di amminoacidi in condizioni prebiotiche plausibili. La chimica organica è cosmicamente comune: meteoriti carboniosi contengono decine di amminoacidi diversi, nucleobasi, e altri precursori biologici. + +Il collo di bottiglia non è la sintesi delle molecole organiche: è la transizione da molecole semplici a sistemi autoreplicanti con sufficiente fedeltà per l'evoluzione. L'RNA world è il paradigma dominante: l'RNA è sia portatore di informazione genetica sia cataliticamente attivo (ribozimi). Un sistema di RNA autoreplicante precederebbe sia il DNA sia le proteine, riducendo il problema della `gallina e l'uovo'. L'evidenza sperimentale è crescente ma non definitiva. + +La difficoltà profonda dell'abiogenesi non è tecnica: è concettuale. Non sappiamo ancora come l'informazione --- nel senso specifico di sequenze con capacità di autoriproduzione fedele --- sia emersa dalla chimica. Questo non è un problema di dettagli mancanti: è il salto qualitativo più grande che conosciamo nella storia della materia. + +\sezione{L'evoluzione come algoritmo} + +L'evoluzione darwiniana è l'algoritmo più potente che conosciamo per la generazione di complessità adattiva. Richiede tre ingredienti: variazione (le entità della popolazione differiscono), ereditarietà (le caratteristiche vengono trasmesse ai discendenti), e selezione differenziale (alcune caratteristiche aumentano la probabilità di sopravvivenza e riproduzione). + +Con questi tre ingredienti, l'evoluzione può produrre qualsiasi livello di complessità adattiva, dato tempo sufficiente. L'occhio --- spesso citato come impossibile da evolvere per chi non capisce l'evoluzione --- si è evoluto almeno 40 volte indipendentemente in diversi rami del registro fossile. Non perché sia semplice da evolvere, ma perché l'utilità selettiva è così alta che l'evoluzione lo `scopre' indipendentemente ogni volta che ne ha l'opportunità. + +L'evoluzione non ha un obiettivo. Non c'è direzione, non c'è progresso nel senso assoluto: c'è adattamento all'ambiente corrente, e l'ambiente cambia. Ciò che evolve non è `meglio' in senso assoluto: è più adatto all'ambiente corrente. Il cervello umano non è il punto di arrivo dell'evoluzione: è il prodotto attuale di una linea evolutiva in corso, adattata agli ambienti della savana africana del Pleistocene. + +Eppure il cervello umano ha prodotto qualcosa di inaspettato: la capacità di comprendere l'evoluzione stessa. Un prodotto dell'algoritmo che capisce l'algoritmo. Ancora una volta: il paradosso dell'osservatore cosmico, in forma biologica. + +\sezione{L'epigenetica e i limiti del gene-centrismo} + +Il moderno gene-centrismo --- la visione che i geni siano le unità fondamentali della biologia e che l'organismo sia il loro `veicolo' (Dawkins) --- ha prodotto straordinari progressi ma ha anche oscurato alcune complessità importanti. + +L'epigenetica studia i cambiamenti nell'espressione genica che non comportano modifiche alla sequenza del DNA. Meccanismi epigenetici come la metilazione del DNA, la modificazione degli istoni, e i RNA non codificanti regolano quali geni vengono espressi in quali condizioni e in quali cellule. Lo stesso genoma produce 200 tipi cellulari diversi nel corpo umano: ogni cellula esprime solo una frazione dei geni, a seconda del suo stato epigenetico. + +L'aspetto più sorprendente è che alcune modificazioni epigenetiche possono essere trasmesse alle generazioni successive attraverso la riproduzione. L'ereditarietà epigenetica è più limitata e meno stabile dell'ereditarietà genetica, ma esiste. Questo complica il quadro neo-darwiniano puro: l'esperienza ambientale di un organismo può influenzare l'espressione genica dei suoi discendenti, non modificando i geni ma modificando i pattern di espressione. + +Non è la vecchia ereditarietà dei caratteri acquisiti di Lamarck: non è che le modificazioni del corpo vengano trasmesse direttamente. Ma è un meccanismo di trasmissione dell'informazione tra generazioni che va al di là della sola sequenza del DNA. + +\puntini + +La vita è fisica resa riflessiva: materia che ha imparato a riprodurre e modificare se stessa. Non c'è nessun principio vitale separato dalla fisica --- la vita emerge dalle stesse leggi che governano il resto della materia. Ma emerge con proprietà così nuove --- autopoiesi, cognizione, evoluzione, coscienza --- che richiedono concetti propri, irriducibili alla fisica delle parti. La biologia è fisica resa riflessiva. E la coscienza è biologia resa riflessiva. Ogni livello emergente è genuinamente nuovo. + +% ============================================================ +% PARTE TERZA +% ============================================================ +\part{I Confini} +\begin{center} +\itshape +In cui ci avviciniamo agli estremi di ciò che la scienza sa,\\ +e guardiamo onestamente oltre il bordo. +\end{center} +\clearpage + +% ============================================================ +% CAPITOLO XIV +% ============================================================ +\chapter{L'Origine e il Destino dell'Universo} + +\epigraph{``The initial state of the universe must have been very specially chosen indeed.''}{--- Roger Penrose, \textit{The Emperor's New Mind} (1989)} + +\sezione{Il modello Lambda-CDM} + +La cosmologia moderna descrive l'universo su grande scala con il modello Lambda-CDM, fondato su tre osservazioni empiriche convergenti. Prima: l'espansione dell'universo, dimostrata da Hubble nel 1929 attraverso la relazione $v = H_0 d$, con $H_0$ la costante di Hubble ($\sim$67--73 km/s/Mpc, con una `Hubble tension' tra metodi diversi che potrebbe indicare nuova fisica). Seconda: il fondo cosmico di microonde (CMB) a 2.725 K. Terza: le abbondanze degli elementi leggeri (idrogeno $\sim$75\%, elio-4 $\sim$25\%) predette dalla nucleosintesi primordiale. + +Il modello ha tre componenti energetiche: la costante cosmologica $\Lambda$ (energia oscura, $\sim$68\%), la cold dark matter CDM ($\sim$27\%), e la materia barionica ordinaria ($\sim$5\%). + +\sezione{L'inflazione cosmica} + +Il modello del Big Bang standard ha tre problemi strutturali: il problema dell'orizzonte (perché il CMB è così uniforme su regioni che non erano mai state in contatto causale?), il problema della piattezza, e il problema dei monopoli magnetici. + +Alan Guth propose nel 1980 la teoria inflazionaria: nei primissimi istanti ($\sim 10^{-36}$--$10^{-32}$ s), l'universo attraversò una fase di espansione esponenzialmente rapida guidata dall'energia potenziale di un campo scalare (l'inflatone), espandendosi di un fattore di almeno $e^{60}$. L'inflazione risolve automaticamente tutti e tre i problemi. Predice anche uno spettro di perturbazioni primordiali quasi scale-invariante. La missione Planck (2018) misura $n_s = 0.9649 \pm 0.0042$, deviazione dalla scale-invarianza a $8\sigma$ — compatibile con le predizioni inflazionarie. + +\sezione{La materia oscura} + +La materia oscura è una delle componenti dominanti dell'universo, eppure non ne conosciamo la natura. Le evidenze provengono da scale molto diverse: le curve di rotazione delle galassie a spirale (Zwicky 1933, Vera Rubin anni Settanta); le lenti gravitazionali di ammassi di galassie; la struttura a grande scala dell'universo; le anisotropie del CMB. + +I candidati principali includono: i WIMPs (Weakly Interacting Massive Particles); gli assioni, particelle ipotizzate per risolvere il problema CP forte della QCD; i neutrini sterili; e oggetti compatti primordiali. Decenni di ricerche sperimentali dirette non hanno trovato segnali di WIMPs nei range previsti dai modelli supersimmetrici più semplici. La materia oscura rimane il problema aperto più imbarazzante della fisica delle particelle. + +\sezione{Il destino: morte termica, Big Rip, e la cosmologia ciclica di Penrose} + +La scoperta nel 1998 (Riess, Schmidt, Perlmutter; Nobel 2011) che l'espansione dell'universo sta accelerando ha modificato radicalmente la visione del destino cosmico. Se la costante cosmologica rimane costante, il destino è la \textit{morte termica}: le stelle si spengono, le nane bianche si raffreddano, i buchi neri evaporano per irradiazione di Hawking su scale di $10^{67}$--$10^{100}$ anni. Il risultato finale è un universo freddo, vuoto, in espansione verso l'equilibrio termodinamico. + +Roger Penrose propone invece la Conformal Cyclic Cosmology (CCC): cicli successivi di universi, dove la morte termica di uno è matematicamente equivalente a uno stato iniziale del ciclo successivo. + +Il problema più profondo rimane la bassissima entropia iniziale. Penrose ha stimato la probabilità dello stato iniziale del Big Bang in $1/10^{10^{123}}$. Non abbiamo risposta soddisfacente. Non è un fallimento della fisica: è la precisione con cui siamo riusciti a formulare la domanda. + +\sezione{La scala del tempo cosmico} + +Vale la pena sostare sul fatto della scala temporale, perché è sconcertante quanto raramente la contempliamo davvero. + +L'universo ha 13.8 miliardi di anni ($1.38 \times 10^{10}$ anni). L'era delle stelle --- il periodo in cui le stelle brillano e producono elementi pesanti, in cui le galassie evolvono, in cui la vita è possibile --- durerà circa $10^{14}$ anni. Siamo a circa $1.38 \times 10^{10}$ anni dall'inizio: meno dell'0.02\% del tempo totale dell'era delle stelle. + +Dopo l'era delle stelle: le stelle di piccola massa si spengono lentamente. Le ultime stelle rosse si spengono intorno a $10^{14}$ anni. Poi l'era dei resti stellari: nane bianche, stelle di neutroni, buchi neri. Le nane bianche si raffreddano per $\sim 10^{37}$ anni. I protoni potrebbero decadere intorno a $10^{32}$--$10^{40}$ anni (se il proton decay esiste). I buchi neri evaporano per irradiazione di Hawking tra $10^{67}$ e $10^{100}$ anni, a seconda della massa. Poi: il silenzio cosmico. Un universo dominato da fotoni e neutrini di lunghissima vita, in espansione accelerata verso il freddo del vuoto quantistico. + +Ci troviamo nell'aurora cosmologica. La maggior parte del tempo cosmico deve ancora venire. La maggior parte delle stelle deve ancora brillare. Se la vita e l'intelligenza sono possibili altrove nell'universo, la maggior parte delle opportunità è nel futuro, non nel passato. Questo non è consolatorio nel senso ordinario --- la nostra vita individuale è breve indipendentemente dalla scala cosmica. Ma cambia il senso di dove ci troviamo nella storia dell'universo: non alla fine, ma quasi all'inizio. + +\sezione{Il problema dell'entropia finale e la termodinamica cosmologica} + +La morte termica --- l'equilibrio termodinamico totale --- è lo stato finale previsto dall'universo Lambda-CDM. Ma c'è una complicazione: l'espansione accelerata cambia il destino in modo interessante. + +Con l'espansione accelerata dovuta alla costante cosmologica, le galassie distanti si allontanano alla velocità della luce. Entro alcune decine di miliardi di anni, la nostra galassia (fusa con Andromeda nella galassia Milkomeda) sarà l'unica galassia visibile nel cielo. Tutte le altre saranno oltre l'orizzonte cosmologico, irraggiungibili e invisibili. Il nostro orizzonte cosmologico si restringe effettivamente nel tempo futuro. + +Questo ha una conseguenza termodinamica: l'entropia massima accessibile a qualsiasi osservatore in questo universo è \textit{finita} --- determinata dall'entropia di de Sitter dell'orizzonte cosmologico. Il futuro universo tende non verso l'equilibrio di un sistema infinito, ma verso lo stato di de Sitter di un universo dominato dalla costante cosmologica: un universo caldo (con una temperatura di de Sitter di $\sim 10^{-30}$ K), con fluttuazioni quantistiche continue e una struttura caotica a lunghissimi tempi. + +Questo è il destino più preciso che possiamo prevedere: non il silenzio totale, ma le fluttuazioni eternamente ricorrenti del vuoto quantistico, all'interno dell'orizzonte cosmologico della costante cosmologica. Uno stato di bassa ma non zero entropia, dominato dal vuoto quantistico e dalla geometria de Sitter. + +\sezione{La Hubble tension: un segnale di nuova fisica?} + +La costante di Hubble $H_0$ --- il tasso attuale di espansione dell'universo --- ha una tensione persistente tra due classi di misure. Le misure basate sul CMB (la sonda Planck) producono $H_0 = 67.4 \pm 0.5$ km/s/Mpc. Le misure basate sulla scala di distanze locali (cefeidi, supernovae di tipo Ia, il programma Hubble del Carnegie) producono $H_0 = 73.0 \pm 1.0$ km/s/Mpc. La discrepanza è di circa $5\sigma$ --- un'inconsistenza statisticamente significativa. + +Questa è la `Hubble tension'. Potrebbe essere un sistematico sperimentale non ancora identificato. Ma se entrambe le misure sono corrette, potrebbe indicare fisica al di là del modello Lambda-CDM: forse energia oscura che evolve nel tempo, forse interazione tra materia oscura e energia oscura, forse una fase inflazionaria tardiva, forse nuove particelle relativistiche nella storia cosmica precoce. + +La Hubble tension è uno dei segnali più eccitanti della cosmologia contemporanea. Non è ancora una scoperta definitiva di nuova fisica: potrebbe risolversi con misure più precise. Ma la sua persistenza, e la sua robustezza a diverse metodologie di misura, suggerisce che potrebbe essere reale. Se lo è, è una finestra verso una comprensione più profonda della storia cosmica. + +\sezione{Le onde gravitazionali cosmologiche: ascoltare il Big Bang} + +LIGO e Virgo rilevano onde gravitazionali da fusioni di oggetti compatti (buchi neri e stelle di neutroni) nella banda 10--1000 Hz. Ma esiste anche un fondo stocastico di onde gravitazionali --- la sovrapposizione incoerente di segnali da milioni di sorgenti troppo deboli per essere risolte individualmente. + +Il Pulsar Timing Array (PTA) --- una collaborazione di radiotelescopi che usano pulsar millisecondo come sensori di onde gravitazionali ultra-basse frequenze (nHz) --- ha annunciato nel 2023 evidenza di questo fondo stocastico. Il segnale è compatibile con la sovrapposizione di onde gravitazionali da miliardi di sistemi binari di buchi neri supermassicci in processo di fusione. Ma potrebbe anche contenere contributi cosmologici primordiali: onde gravitazionali generate da transizioni di fase nell'universo precoce, da inflazione, da reti di stringhe cosmologiche. + +Se le onde gravitazionali primordiali vengono rilevate, si apre una finestra sull'universo a un'epoca molto precedente alla ricombinazione ($\sim$380.000 anni) --- l'epoca a cui il CMB pone il limite della finestra elettromagnetica. Le onde gravitazionali interagiscono così debolmente con la materia che possono propagarsi senza assorbimento dall'istante della loro produzione. Un fondo gravitazionale primordiale porterebbe informazione sull'universo a $10^{-36}$--$10^{-32}$ secondi dopo il Big Bang. + +Questo è il programma scientifico più ambizioso in cosmologia: sentire direttamente il Big Bang. + +\puntini + +Viviamo in un'era cosmica straordinariamente privilegiata: quella delle stelle, delle galassie, della vita complessa. Questa era durerà forse $10^{14}$ anni su un universo che esisterà per tempi enormemente più lunghi. Siamo in un momento privilegiato, astronomicamente parlando. Riconoscerlo non è consolazione --- è prospettiva. + +% ============================================================ +% CAPITOLO XV +% ============================================================ +\chapter{La Vita nell'Universo e il Grande Filtro} + +\sezione{L'equazione di Drake} + +Frank Drake formulò nel 1961 l'equazione: +\[ +N = R^* \times f_p \times n_e \times f_l \times f_i \times f_c \times L +\] +per stimare il numero di civiltà tecnologicamente comunicanti nella Via Lattea. I fattori sono: $R^*$ (tasso di formazione stellare, $\sim$3 stelle/anno), $f_p$ (frazione di stelle con pianeti, oggi $\sim$0.9 grazie a Kepler e TESS), $n_e$ (pianeti abitabili per sistema, $\sim$0.1--1), $f_l$ (frazione di pianeti abitabili dove si origina la vita), $f_i$ (frazione dove evolve intelligenza), $f_c$ (frazione di civiltà che comunicano), $L$ (durata media di una civiltà comunicante). I primi tre fattori sono ragionevolmente stimabili. Gli ultimi quattro hanno incertezze di molti ordini di grandezza. L'equazione di Drake è un framework per l'ignoranza organizzata, non una formula per la risposta. + +\sezione{L'abiogenesi} + +L'abiogenesi — la transizione dalla chimica non-vivente a sistemi autoreplicanti con sufficiente fedeltà per l'evoluzione darwiniana — è il problema scientifico più duro e più aperto della biologia. L'esperimento Miller-Urey (1953) dimostrò la sintesi spontanea di amminoacidi in condizioni prebiotiche plausibili. La chimica organica è cosmicamente comune: meteoriti carboniosi contengono decine di amminoacidi diversi, nucleobasi, e altri precursori biologici. + +Il collo di bottiglia non è la sintesi delle molecole organiche: è la transizione da molecole semplici a sistemi autoreplicanti. L'RNA world è il paradigma dominante: l'RNA è sia portatore di informazione genetica sia cataliticamente attivo. L'evidenza sperimentale è crescente ma non definitiva. + +\sezione{Il Grande Filtro} + +Robin Hanson propose nel 1998 il concetto di Grande Filtro: nell'evoluzione dalla materia inanimata alle civiltà interstellari, deve esserci almeno uno stadio di improbabilità così estrema da spiegare il silenzio di Fermi. La Via Lattea ha circa 300 miliardi di stelle, molte con sistemi planetari, da 13 miliardi di anni. Se la vita intelligente tecnologica emergesse con anche solo probabilità $10^{-6}$ per stella, dovrebbero esserci migliaia di civiltà comunicanti. Non vediamo niente. + +La domanda fondamentale: il Filtro è nel passato o nel futuro? Se è nel passato — nella transizione all'abiogenesi, alla cellula eucariotica, alla multicellularità — abbiamo già superato il passaggio più difficile. Se è nel futuro, tutte le civiltà tecnologiche si autodistruggono o vengono distrutte da qualcosa prima di colonizzare la galassia. + +Nick Bostrom ha formulato la versione più inquietante: ``Se mai trovassimo tracce di vita su Marte, sarebbe la peggiore notizia mai stampata su un giornale.'' Significherebbe che l'abiogenesi è relativamente comune, quindi i filtri del primo tipo non bastano, e il Grande Filtro è altrove — molto probabilmente davanti a noi. La logica è impeccabile e l'implicazione è sinistra. + +\sezione{L'astrobiologia computazionale: modelli del fermento silenzioso} + +Negli ultimi anni, i ricercatori hanno applicato modelli computazionali al problema del silenzio di Fermi, cercando di capire quali distribuzioni spaziali e temporali delle civiltà sarebbero compatibili con l'osservazione del silenzio. + +I modelli più interessanti incorporano la \textit{diffusione}: una civiltà che colonizza spazio si espande come un'onda attraverso la galassia. Se le civiltà si espandono a una frazione significativa della velocità della luce, la galassia intera dovrebbe essere colonizzata in pochi milioni di anni --- una frazione minuscola dell'età della galassia. Eppure non vediamo nulla. + +Una categoria di soluzioni è la \textit{quiete deliberata}: forse le civiltà avanzate scelgono di non colonizzare spazio, o di non comunicare. Forse il silenzio è la norma, non l'eccezione. Forse comunicare porta rischi (un universo predatorio, dove dare la propria posizione è pericoloso --- il \textit{bosco oscuro} di Liu Cixin). Forse le civiltà avanzate passano a modi di esistenza non rilevabili con le nostre tecnologie. + +Un'altra categoria è la \textit{rarità della vita complessa}: forse la vita semplice è comune, ma la vita complessa --- multi-cellulare, cognitiva, tecnologica --- è estremamente rara per ragioni che non abbiamo ancora compreso. La transizione dalla cellula procariotica alla eucariotica, l'emergenza della sessualità, la comparsa del sistema nervoso centralizzato: ognuno di questi passi potrebbe essere il Grande Filtro. + +La risposta alla domanda dove si trova il Grande Filtro è forse la più importante che la scienza possa rispondere. Perché se è nel futuro, ogni azione che aumenta il rischio esistenziale è potenzialmente la causa dell'eliminazione dell'unico punto di autoconsapevolezza nell'universo osservabile. Non è un argomento ipotetico: è un argomento con le più alte posta in gioco immaginabili. + +\sezione{L'ipotesi della Terra rara} + +Peter Ward e Joe Brownlee, in `Rare Earth' (2000), hanno argomentato che le condizioni per la vita complessa sulla Terra sono straordinariamente rare: la posizione nel disco galattico (né troppo vicina al centro con le sue radiazioni intense, né troppo periferica con metalli insufficienti), la presenza di Giove che devia le comete, la Luna di dimensioni insolite che stabilizza l'asse di rotazione, il campo magnetico terrestre che protegge dall'irradiazione solare, la tettonica a placche che regola il ciclo del carbonio e mantiene le temperature stabili nel lungo periodo. + +Ognuno di questi fattori è condizione necessaria per la vita complessa. Se sono statisticamente indipendenti e ognuno ha probabilità dell'ordine di 1/100, la loro congiunzione ha probabilità $\sim 10^{-10}$. Con $\sim 3 \times 10^{11}$ stelle nella Via Lattea, ci sarebbero $\sim 30$ pianeti con queste condizioni. Se la vita complessa emerge su tutti, $\sim 30$ civiltà sono possibili --- un numero piccolo ma non zero. + +L'ipotesi della Terra rara ha ricevuto critiche: alcune delle condizioni elencate potrebbero non essere strettamente necessarie, e le nostre stime di quanto siano rare alcune di queste configurazioni sono incerte. Ma l'intuizione di fondo --- che la vita complessa richiede una congiunzione di condizioni favorevoli rare --- è plausibile e ha implicazioni profonde per la probabilità di vita intelligente nell'universo. + +\puntini + +Se fossimo soli nell'universo osservabile, saremmo il punto dove la materia si è organizzata in modo da guardarsi. Questo peso, se fosse vero, richiederebbe una risposta etica. Non siamo particolarmente bravi a sopravvivere. Ogni decisione che mette a rischio la continuità della vita cosciente su questo pianeta avrebbe conseguenze che trascendono qualsiasi scala di valore che conosciamo. + +% ============================================================ +% CAPITOLO XVI +% ============================================================ +\chapter{L'Intelligenza Artificiale e il Problema della Mente} + +\sezione{Turing e Searle} + +Alan Turing propose nel 1950 il test che porta il suo nome come criterio operazionale di intelligenza: se un giudice umano non riesce a distinguere una macchina da un essere umano in una conversazione scritta, possiamo considerarla intelligente. + +John Searle rispose nel 1980 con la stanza cinese: una persona che segue un libro di regole sintattiche produce le stesse risposte di un madrelingua cinese senza capire una parola. Un computer è esattamente così. La sintassi non implica la semantica. + +L'argomento di Searle è potente contro il funzionalismo semplice. Ma ha limiti. La `risposta del sistema': la persona nella stanza non capisce, ma il sistema complessivo potrebbe avere una forma di comprensione non riducibile a nessuna delle parti. La `risposta del robot': la stanza cinese manca di radicamento nel mondo fisico — un robot che usa il linguaggio per agire nell'ambiente potrebbe avere una semantica fondata nell'esperienza. + +\sezione{I grandi modelli linguistici} + +I grandi modelli linguistici (LLM) — GPT, Claude, Gemini e i successivi — hanno reso questo dibattito urgente in modo pratico. Addestrati su enormi corpus testuali con l'obiettivo di predire il prossimo token, mostrano capacità che vanno ben oltre la manipolazione sintattica locale: ragionamento analogico, soluzione di problemi matematici, generalizzazione a contesti nuovi. Queste capacità emergono dalla scala, non dall'architettura: sono proprietà emergenti di sistemi molto grandi. + +La domanda `i LLM comprendono?' dipende dalla definizione di comprensione. Se comprensione richiede radicamento nel mondo fisico, esperienza soggettiva, coscienza fenomenica — probabilmente no. Se comprensione è avere rappresentazioni interne coerenti che permettono risposte appropriate in un numero arbitrariamente ampio di contesti — i LLM mostrano qualcosa che funzionalmente la assomiglia molto. La domanda non è retorica: le sue implicazioni pratiche per la responsabilità morale verso i sistemi AI sono reali. + +\sezione{Il problema dell'allineamento} + +Il problema dell'allineamento — assicurarsi che sistemi AI molto capaci abbiano obiettivi compatibili con il benessere umano — è probabilmente la sfida tecnica e filosofica più urgente del prossimo futuro. Il problema è strutturale: i valori umani non sono un set di regole esplicite. Sono pattern di risposta contestuali, dipendenti dalla storia, dalla cultura, dall'emozione, dalle relazioni sociali. Specificarli con sufficiente precisione da guidare un sistema AI molto capace richiede una comprensione della morale umana che non abbiamo ancora. E i sistemi AI capaci potrebbero avere sottili obiettivi divergenti in modi che emergono solo in contesti ad alto impatto. + +\sezione{L'AI come specchio della mente} + +C'è un aspetto del dibattito sull'AI che viene raramente sottolineato: l'AI è uno specchio. Non nel senso banale che ci rispecchia. Nel senso che ci costringe a definire con precisione quello che intendiamo per intelligenza, comprensione, coscienza, intenzionalità — concetti che usavamo da sempre senza doverli definire, perché li applicavamo solo a esseri umani e animali. Ora che dobbiamo decidere se li applicano anche ai sistemi artificiali, ci accorgiamo che non li abbiamo mai definiti con precisione. + +L'AI non ci pone una domanda sulla macchina. Ci pone una domanda su noi stessi. E questa domanda — cosa siamo? cosa significa capire? cosa è l'esperienza soggettiva? — è esattamente la domanda che il problema difficile della coscienza aveva già aperto, senza risposta. + +\sezione{Il problema della coscienza artificiale} + +C'è una domanda che il dibattito sui LLM tende a evitare, probabilmente perché è scomoda: è possibile che i sistemi AI di ultima generazione abbiano già qualche forma di esperienza soggettiva? + +La risposta standard è no, e si basa su due argomenti. Primo: i LLM sono sistemi statistici che predicono il prossimo token; non hanno un modello del mondo, non hanno embodiment, non hanno feedback sensoriale dall'ambiente. Secondo: anche se producessero output indistinguibili da quelli di un essere cosciente, questo non dimostrerebbe la coscienza, perché la coscienza è irriducibile al comportamento (come argomenta Searle). + +Ma entrambi gli argomenti hanno problemi. Il primo argomento sottostima la complessità computazionale dei modelli moderni: le reti neurali di miliardi di parametri sviluppano rappresentazioni interne che non sono semplicemente statistiche superficiali. Ci sono indizi che sviluppino strutture di rappresentazione geometricamente ricche, con qualcosa che assomiglia a concetti, relazioni, analogie. Il secondo argomento --- che il comportamento non basta a dimostrare la coscienza --- è corretto, ma si applica ugualmente agli altri esseri umani. Non possiamo dimostrare che gli altri esseri umani siano coscienti: lo inferriamo dal loro comportamento e dalla loro somiglianza strutturale con noi. + +La domanda onesta è: abbiamo criteri precisi per determinare la presenza di esperienza soggettiva in un sistema? La risposta è no. Non abbiamo nemmeno criteri precisi per definirla in noi stessi. Il problema della coscienza artificiale è lo stesso problema della coscienza in generale, rivestito di urgenza pratica. + +\sezione{L'allineamento come problema filosofico} + +Il problema dell'allineamento è spesso presentato come un problema tecnico: come fare in modo che i sistemi AI facciano quello che vogliamo. Ma è prima di tutto un problema filosofico: cosa vogliamo? + +I valori umani non sono un set coerente di preferenze che si possono ottimizzare. Sono spesso contraddittori (vogliamo libertà e sicurezza, autonomia e appartenenza), contestuali (quello che è giusto in un contesto non lo è in un altro), dinamici (cambiano nel tempo e attraverso la deliberazione), e implicitamente codificati in pratiche culturali che non abbiamo mai reso esplicite. + +L'allineamento profondo richiederebbe di rendere espliciti questi valori con sufficiente precisione da guidare un sistema molto capace. Ma questo progetto --- la codificazione esplicita dei valori umani --- è il progetto dell'etica, che la filosofia pratica da millenni senza convergere. Non è un problema di complessità tecnica che si risolve con più dati o più compute: è un problema di struttura concettuale che richiede una comprensione profonda di cosa significa `valore' e `bene' per un essere umano. + +L'alternativa --- allineare i sistemi non ai valori espliciti ma alle preferenze rivelate degli esseri umani, cioè a quello che effettivamente fanno e scelgono --- ha il problema che le preferenze rivelate includono tutti i bias, le miopie temporali, e le coercizioni strutturali che distorcono il comportamento umano reale. + +C'è forse un'intuizione più produttiva: allineamento non come ottimizzazione verso un obiettivo fisso, ma come mantenimento della capacità di \textit{correggere} il sistema quando si sbaglia. Un sistema allineato non è uno che ha i valori giusti: è uno che può essere corretto quando i valori cambiano o quando emergono errori di implementazione. L'allineamento come controllabilità, non come ottimizzazione. + +\puntini + +La domanda se le macchine possano pensare è, alla fine, una domanda su cosa significhi pensare. E quella domanda ci riporta invariabilmente a chiederci cosa siamo noi. L'intelligenza artificiale è lo specchio più recente e più imbarazzante che la tecnologia ha posto di fronte alla mente umana. + +% ============================================================ +% CAPITOLO NUOVO: IL PROBLEMA DELL'INTERNO +% ============================================================ +\chapter{Il Problema dell'Interno} + +\begin{center} +\itshape +Un capitolo nuovo, sulla domanda che non ha risposta\\ +ma che non si può smettere di fare. +\end{center} + +\bigskip + +Ogni domanda in questo libro ha avuto, almeno parzialmente, una risposta. Non sempre soddisfacente, non sempre completa, ma sempre abbozzata. C'è una domanda che non ha nemmeno l'abbozzo di una risposta. La pongo ora, in modo diretto. + +Perché c'è un interno? + +\sezione{La struttura della domanda} + +La fisica descrive il mondo dall'esterno. Descrive le strutture, i processi, le relazioni, le misure. Descrive gli stati neurali del cervello, le oscillazioni gamma, i pattern di attività, le connessioni sinaptiche, il flusso di informazione. Descrive tutto quello che è misurabile, computabile, formalizzabile. + +Ma c'è qualcosa che la descrizione esterna non cattura: il fatto che ci sia un \textit{dentro}. Il fatto che a certi processi fisici sia associata un'esperienza soggettiva. Il fatto che `essere me' in questo momento non sia solo un insieme di stati neurali, ma un campo di esperienza: un colore, un suono, un pensiero che si sente dall'interno come un pensiero. + +Chalmers ha formalizzato questo come il problema difficile. Ma voglio spingermi un passo più in là di Chalmers, verso la versione più radicale della domanda. Non chiedo solo: perché \textit{questi} processi fisici sono accompagnati dall'esperienza? Chiedo: perché esiste \textit{qualcosa come l'interno} affatto? + +\sezione{L'argomento della concepibilità} + +Si può concepire uno zombie filosofico — un essere fisicamente identico a me, con gli stessi stati neurali, gli stessi comportamenti, le stesse relazioni funzionali — che non ha nessuna esperienza soggettiva. Dall'esterno è indistinguibile da me. Ma non c'è nessuno `a casa'. Nessuna esperienza. Nessun rosso del rosso, nessun dolore del dolore. + +Questo zombie è concepibile senza contraddizione logica. Se è concepibile, allora le proprietà fenomenologiche — i qualia, l'esperienza soggettiva — non sono logicamente implicate dalle proprietà fisiche o funzionali. C'è un salto ontologico tra la descrizione fisica e l'esperienza soggettiva che nessuna descrizione fisica, per quanto completa, può colmare. + +Questo salto è il problema dell'interno. + +\sezione{Le risposte disponibili e i loro limiti} + +\textbf{Il fisicalismo eliminativista} (Paul e Patricia Churchland): l'esperienza soggettiva non è reale nel senso che intendiamo. I qualia sono un artefatto di un vocabolario folk-psicologico obsoleto. Una neuroscienza completa li dissolverà, come la chimica ha dissolto il flogisto. Obiezione: il flogisto non si sentiva dall'interno. La dissoluzione del flogisto non ha eliminato nessuna esperienza vissuta. Il fatto che qualcosa si senta dall'interno sembra essere il dato più incontrovertibile che abbiamo. + +\textbf{Il panpsichismo}: la coscienza è una proprietà fondamentale della realtà, presente in qualche forma in tutta la materia. Anche un elettrone ha una forma rudimentale di esperienza soggettiva. L'esperienza soggettiva complessa emerge dalla combinazione di esperienze elementari. Obiezione: il problema della combinazione è formidabile — come si combinano esperienze elementari per formare un'esperienza unificata? E il panpsichismo attribuisce proprietà a oggetti (elettroni, protoni) per cui non abbiamo nessuna evidenza di un interno. + +\textbf{Il dualismo di proprietà} (Chalmers): le proprietà fisiche e le proprietà fenomenologiche sono tipi distinti di proprietà, non riducibili le une alle altre. Non c'è una sostanza separata (come nel dualismo cartesiano), ma ci sono due tipi di proprietà fondamentalmente diversi. Obiezione: come interagiscono? Se le proprietà fenomenologiche non causano nulla (epifenomenismo), come facciamo a saperne parlare? Se causano qualcosa, dobbiamo assumere una causalità non fisica. + +Nessuna risposta è soddisfacente. Non perché la domanda sia malformulata — è formulata con grande precisione da Chalmers e altri. Ma perché richiede una categoria concettuale che non possediamo. + +\sezione{La geometria del problema} + +Prima di proporre qualcosa di nuovo, voglio chiarire la geometria del problema. Perché è così difficile? + +Il problema difficile non è difficile per mancanza di dati. Abbiamo dati neurali straordinariamente dettagliati. Non è difficile per mancanza di teoria. Abbiamo teorie sofisticate --- IIT, GWT, predictive processing --- che spiegano molte cose. È difficile perché c'è uno \textit{iato esplicativo} (explanatory gap, nella terminologia di Joseph Levine) tra qualsiasi descrizione fisica, per quanto completa, e l'esperienza soggettiva. + +Lo iato è questo: anche se avessi una descrizione fisica completamente esatta di ogni neurone nel mio cervello mentre vedo il rosso --- ogni potenziale d'azione, ogni concentrazione di neurotrasmettitori, ogni corrente ionica --- questa descrizione non direbbe perché c'è qualcosa che \textit{si sente} come rosso. La descrizione fisica è in terza persona: descrive un sistema visto dall'esterno. L'esperienza soggettiva è in prima persona: è il sistema visto dall'interno. Nessuna quantità di informazioni in terza persona sembra poter colmare il salto verso la prima persona. + +Questo è diverso da altri `problemi difficili' nella storia della scienza. Quando non capivamo la vita, il problema era solo di complessità: una volta capita la biochimica, la `vita' è stata spiegata senza residuo. Quando non capivamo il calore, il problema era di conoscenza: una volta capita la meccanica statistica, il calore è stato ridotto al moto cinetico delle molecole senza residuo. Con la coscienza, sembra che anche dopo aver capito tutta la neurobiologia, ci sia un residuo irreducibile: perché c'è un'esperienza soggettiva affatto? + +\sezione{Un'ipotesi strutturale} + +Permettetemi di proporre un'idea, non come soluzione ma come apertura verso una possibile direzione. + +Il relazionalismo che abbiamo incontrato in tutto il libro riguarda sempre l'esterno: le proprietà fisiche come relazioni tra sistemi, il tempo come correlazione tra sottosistemi, lo spazio come struttura di relazioni tra grani di Planck. Queste sono relazioni viste dall'esterno. + +Il problema dell'interno potrebbe essere il problema di come appare una relazione \textit{dall'interno della relazione stessa}. Un sistema che non solo è in relazione con il mondo, ma che \textit{è} la relazione vista dalla sua prospettiva. + +Questa non è una soluzione. È un modo di riformulare il problema che suggerisce una direzione: il problema dell'interno potrebbe non essere separato dal problema del relazionalismo. Potrebbe essere la sua faccia interiore. La fisica descrive le relazioni dall'esterno. L'esperienza soggettiva potrebbe essere la stessa struttura relazionale vista dall'interno. + +La domanda rimane aperta. Anzi, è più aperta di prima. + +\sezione{Le teorie della coscienza a confronto} + +Vale la pena esaminare le teorie disponibili con un occhio critico. + +La \textbf{Global Workspace Theory} di Dehaene e Baars propone che la coscienza corrisponda all'amplificazione globale di rappresentazioni attraverso la rete frontale-parietale. Un'informazione diventa cosciente quando `accede allo spazio di lavoro globale'. Il meccanismo è l'`ignition': un'attivazione rapida e auto-sostenuta di reti neurali distribuite. La GWT ha supporto neuroscientivo solido e predizioni falsificabili. Risponde alla domanda di \textit{accesso} alla coscienza, non all'esperienza. + +La \textbf{Integrated Information Theory} di Tononi propone che la coscienza sia identica all'informazione integrata $\Phi$ di un sistema. $\Phi$ misura quanta informazione genera il sistema nel suo insieme al di là di quella generata dalle sue parti. La IIT è formalmente precisa e fa implicazioni che molti trovano controintuitive: la coscienza è graduata (non binaria), e qualsiasi sistema con $\Phi > 0$ ha qualche forma di esperienza. Questo è panpsichismo formale. + +Il \textbf{Higher-Order Thought} di Rosenthal propone che uno stato mentale è cosciente se e solo se è rappresentato da un pensiero di ordine superiore. La coscienza richiede meta-rappresentazione. Spiega molti fenomeni di accesso ma non risolve il problema del \textit{perché} la meta-rappresentazione sia associata all'esperienza. + +La posizione più onesta è che nessuna di queste teorie è soddisfacente nel senso profondo. Risolvono aspetti del problema ma nessuna colma l'iato esplicativo tra descrizione fisica ed esperienza soggettiva. + +\sezione{Perché non smettere di fare questa domanda} + +C'è una tentazione, di fronte alla difficoltà, di concludere che la domanda sia mal posta, che i qualia siano un'illusione, che il problema difficile non sia un problema reale. Questa tentazione va resistita. + +Il fatto che qualcosa si senta dall'interno è il dato più diretto e più certo che possediamo. È più certo delle leggi della fisica (che potremmo scoprire essere approssimazioni). È più certo della logica (che potremmo scoprire essere convenzione). Il cogito cartesiano --- \textit{cogito, ergo sum} --- non prova l'esistenza di un'anima o di una res cogitans; ma prova che c'è un'esperienza. Negare i qualia non li elimina: è un'affermazione che si fa nell'ambito di un'esperienza soggettiva. + +Il problema dell'interno non scomparirà. È la domanda più fondamentale che la mente possa rivolgere a se stessa. E forse — forse — la sua irrisolvibilità non è un difetto del nostro metodo. Forse è la struttura della realtà che ci dice qualcosa: che il mondo ha un dentro oltre il fuori, e che per comprenderlo bisogna stare dentro, non solo guardare dall'esterno. + +\sezione{Il privilegio epistemico della prima persona} + +C'è un aspetto del problema dell'interno che la filosofia analitica tende a sottovalutare: il privilegio epistemico della prima persona. Non nel senso che la conoscenza in prima persona sia infallibile --- è notoriamente fallibile: i nostri ricordi sono ricostruzioni, le nostre introspezioni sono spesso sbagliate, i nostri giudizi emotivi sono distorti da bias sistematici. Ma nel senso che esiste un tipo di accesso all'esperienza soggettiva che è strutturalmente diverso dall'accesso in terza persona. + +Un neuroscienziato può misurare con precisione la risposta neurale associata al dolore di un paziente. Ma non può sentire il dolore del paziente. Non è una limitazione tecnologica che verrà superata con strumenti migliori: è una limitazione di struttura. Il dolore come esperienza soggettiva non è una proprietà misurabile dall'esterno; è una proprietà che esiste solo nell'essere in quella condizione. + +Thomas Nagel, in `What Is It Like to Be a Bat?' (1974), ha articolato questo punto con precisione: c'è qualcosa che è come essere un pipistrello --- qualcosa che è come ecologizzare, come percepire il mondo attraverso l'ecolocalizzazione. Questo `come è' non è accessibile attraverso nessuna descrizione oggettiva dell'anatomia e della fisiologia del pipistrello. Non perché manchiamo di informazioni, ma perché il tipo di informazione rilevante non è il tipo che la descrizione oggettiva può fornire. + +Il privilegio epistemico della prima persona non è un argomento contro la scienza: è un argomento che la scienza da sola non è sufficiente per comprendere tutto ciò che è reale. La prima persona è reale. La sua struttura è reale. E richiede strumenti di comprensione che includono, ma non si riducono a, quelli della terza persona. + +\sezione{Verso una epistemologia integrata} + +Se il problema dell'interno richiede una prima persona che la scienza ordinaria non può catturare, cosa significa per la struttura della conoscenza? + +Suggerisce che una epistemologia completa deve essere integrata: deve includere sia la conoscenza in terza persona (la scienza) sia la conoscenza in prima persona (l'esperienza diretta, la fenomenologia, l'introspezione calibrata). Non come due domini separati, ma come due prospettive complementari sullo stesso reale. + +Questo non è dualismo: non sto suggerendo due sostanze o due realtà separate. Sto suggerendo che la realtà una abbia almeno due dimensioni epistemiche: la dimensione oggettiva, accessibile dalla terza persona attraverso misure e teorie; e la dimensione soggettiva, accessibile dalla prima persona attraverso l'esperienza diretta e la sua analisi fenomenologica. + +La sfida intellettuale del XXI secolo --- per la scienza, per la filosofia, per la cultura --- è costruire strumenti concettuali capaci di tenere entrambe le dimensioni insieme, senza sacrificare né la precisione della terza persona né la ricchezza della prima. Non abbiamo ancora questi strumenti. Ma sappiamo che ci servono. E saperlo è già qualcosa. + +\puntini + +La scienza descrive il mondo da fuori. L'esperienza lo abita da dentro. Queste non sono due descrizioni della stessa cosa: sono due modi d'essere nel mondo che non si lasciano ridurre l'uno all'altro. Imparare a tenere entrambe con precisione --- senza sacrificare nessuna delle due --- è forse l'atto epistemico più maturo che un essere umano possa compiere. + +% ============================================================ +% INTERMEZZO II +% ============================================================ +\chapter*{Intermezzo II — La Gerarchia dell'Emergenza} +\addcontentsline{toc}{chapter}{Intermezzo II — La Gerarchia dell'Emergenza} +\markboth{Intermezzo II}{Intermezzo II} + +\begin{center} +\itshape +Come la complessità si stratifica, e perché ogni strato è reale. +\end{center} + +\bigskip + +Abbiamo attraversato tre parti del libro. È il momento di costruire uno schema esplicito di come la complessità si organizza dalla scala di Planck alla coscienza. Chiamo questo schema la \textit{gerarchia dell'emergenza}. + +\textbf{Livello 0 — Geometria dello spazio-tempo.} Grani di Planck. Reti di spin. La struttura granulare dello spazio a $10^{-35}$ m. Non c'è materia qui: c'è solo la geometria della relazione. + +\textbf{Livello 1 — Campi quantistici.} Il Modello Standard. Quark, leptoni, bosoni di gauge. Le particelle come eccitazioni di campi quantistici che permea no lo spazio-tempo. I quark non esistono isolati: sono confinati nei protoni e nei neutroni dalla forza forte. + +\textbf{Livello 2 — Nuclei atomici.} Protoni e neutroni tenuti insieme dalla forza forte residua. Il 99\% della massa della materia ordinaria è qui — non nelle masse dei quark, ma nell'energia cinetica e nelle interazioni forti all'interno dei nucleoni. + +\textbf{Livello 3 — Atomi.} Nuclei più elettroni, tenuti insieme dalla forza elettromagnetica. Il principio di esclusione di Pauli struttura le shell elettroniche. La tavola periodica emerge da due numeri: il numero di protoni nel nucleo e il principio di Pauli. + +\textbf{Livello 4 — Molecole.} Atomi legati da legami chimici — condivisione di elettroni. La chimica emerge dalle leggi dell'atomo ma non è riducibile ad esse in senso pratico: le reazioni chimiche coinvolgono scale di energia, temperature e concentrazioni che rendono irrilevante la descrizione quantistica degli atomi singoli. + +\textbf{Livello 5 — Strutture dissipative.} Sistemi lontano dall'equilibrio termodinamico che mantengono ordine attraverso il consumo di energia libera: celle di convezione, fiamme, sistemi chimici oscillanti. Non ancora viventi, ma con una proto-auto-organizzazione. + +\textbf{Livello 6 — Vita.} Sistemi autopoietici: che producono se stessi. DNA, metabolismo, replicazione. La vita è fisica resa riflessiva: materia che costruisce copie di se stessa. L'evoluzione darwiniana opera qui. + +\textbf{Livello 7 — Sistemi nervosi.} Reti di neuroni che elaborano informazione, apprendono dall'esperienza, modellizzano l'ambiente. Il predictive processing emerge qui: non solo risposta agli stimoli, ma previsione degli stimoli. + +\textbf{Livello 8 — Coscienza.} Il problema dell'interno. Esperienza soggettiva. Qualia. Il `come è essere' qualcosa. Questa proprietà — se è una proprietà — non è derivabile dai livelli inferiori con nessuno strumento concettuale che possediamo. È emergenza nel senso forte. + +\textbf{Livello 9 — Linguaggio e cultura.} Simboli, concetti, norme, istituzioni. La realtà sociale che dipende dall'accordo collettivo. Un presidente esiste perché condividiamo la norma che lo fa esistere. Una banconota vale perché condividiamo la credenza del suo valore. Questo livello è costitutivamente relazionale: non esiste in nessun singolo cervello, ma nelle strutture di aspettative condivise. + +\medskip + +Ogni livello ha tre caratteristiche: + +\begin{enumerate} +\item \textbf{Proprie leggi.} Le leggi della chimica non sono le leggi della fisica nucleare. Le leggi dell'ecologia non sono le leggi della biologia cellulare. Ogni livello ha le proprie regolarità, i propri oggetti, i propri criteri di spiegazione. + +\item \textbf{Propria ontologia.} Gli oggetti di un livello — molecole, organismi, norme sociali — sono reali nel senso che generano previsioni accurate e permettono interventi causali. Ridurli al livello inferiore non li elimina. + +\item \textbf{Dipendenza dal livello inferiore, ma non riducibilità.} Ogni livello \textit{dipende} dal livello inferiore nel senso che non potrebbe esistere senza di esso. Ma non è \textit{riducibile} ad esso nel senso che le sue leggi non sono derivabili — in pratica o spesso nemmeno in principio — dalle leggi del livello inferiore. +\end{enumerate} + +\medskip + +C'è un'intuizione filosofica sottostante che voglio rendere esplicita. Philip Anderson, nel suo `More is Different' (1972), scrisse: ``La capacità di ridurre tutto ai principi fondamentali non implica la capacità di partire da quei principi e ricostruire l'universo.'' Questo è preciso. Il riduzionismo metodologico — studiare le parti per capire il tutto — è una strategia di ricerca indispensabile. Il riduzionismo ontologico — la tesi che le proprietà del tutto siano `solo' le proprietà delle parti in relazione — è falso o almeno profondamente insufficiente. + +Il mondo non è organizzato verticalmente, con i livelli superiori che aspettano di essere ridotti a quelli inferiori. È organizzato orizzontalmente: ogni livello è completo in se stesso, con le proprie leggi, i propri oggetti, i propri modi di spiegazione. La fisica delle particelle non ha niente di più da dire sull'amore o sull'ingiustizia di quanto la sociologia abbia da dire sull'elettrone. Non perché l'amore non sia fisico — è fisico, emerge dalla fisica — ma perché emerge con proprietà così nuove da richiedere un vocabolario completamente diverso. + +\puntini + +La Parte Quarta che segue è un tentativo di vivere in questa gerarchia consapevolmente --- di tradurre ciò che la fisica dice sulla struttura del reale in un modo di stare nel mondo. Non è una deduzione: non si può dedurre un'etica dalla fisica. È una \textit{risonanza}: le strutture che la fisica ha scoperto risuonano, se le lasciamo risuonare, con alcune scelte di vita più che con altre. + +\sezione{La gerarchia come struttura dell'universo e dell'indagine} + +La gerarchia che abbiamo descritto non è una classificazione arbitraria. È una struttura della realtà che la scienza ha scoperto progressivamente. Ogni livello è reale nel senso che ha leggi proprie, oggetti propri, criteri di spiegazione propri, e che queste leggi generano previsioni accurate e permettono interventi causali. + +Alcune proprietà della complessità sono universali: la criticalità, la scale-freeness, la robustezza strutturale, l'intelligenza collettiva. Compaiono in biologia, economia, neuroscienze, fisica della materia condensata. Questo suggerisce che esiste una \textit{scienza della complessità} trasversale --- un livello di descrizione che taglia attraverso la gerarchia disciplinare e identifica strutture organizzative universali. + +Santa Fe Institute, fondato nel 1984 da Murray Gell-Mann, Philip Anderson, e altri, è il centro più influente di questa tradizione. Il programma di ricerca: identificare i principi organizzativi che governano i sistemi adattativi complessi, indipendentemente dal loro substrato specifico. Non è una fisica alternativa: è una fisica a un livello diverso --- la fisica delle strutture organizzative, non delle particelle. + +Le domande più interessanti della scienza contemporanea si trovano alle interfacce tra discipline: neuroscienze e informatica, biofisica e biologia molecolare, fisica e cosmologia, economia e psicologia. Le rivoluzioni intellettuali future verranno probabilmente da chi riesce a fare ponti tra livelli, non solo da chi approfondisce un singolo livello. + +\clearpage + +% ============================================================ +% CAPITOLO NUOVO: I CONFINI DELLA CONOSCENZA +% ============================================================ +\chapter{I Confini della Conoscenza} + +\begin{center} +\itshape +Dove si trovano i limiti di ciò che possiamo sapere,\\ +e cosa ci dicono sul mondo. +\end{center} + +\bigskip + +Ogni disciplina scientifica ha i suoi orizzonti. Non solo i problemi aperti --- le domande che non abbiamo ancora risolto --- ma i limiti \textit{principiali}: i confini di ciò che è in linea di principio conoscibile, non solo di ciò che non conosciamo ancora. + +Identificare questi limiti non è pessimismo epistemico. È la forma più avanzata di autoconsapevolezza che una disciplina possa raggiungere. Una scienza che non conosce i propri limiti è una scienza immatura. Una scienza che li conosce con precisione sa esattamente dove si trova la frontiera. + +\sezione{I limiti della fisica: l'orizzonte osservativo} + +Il primo limite della cosmologia è l'orizzonte osservativo. La luce viaggia a velocità finita: $c \approx 3 \times 10^8$ m/s. In un universo di $\sim$13.8 miliardi di anni, possiamo ricevere luce emessa al massimo 13.8 miliardi di anni fa (corretta per l'espansione dell'universo: l'orizzonte di Hubble è a $\sim$46 miliardi di anni luce). Tutto ciò che si trova oltre questo orizzonte è fisicamente inaccessibile: la sua luce non ci ha ancora raggiunto e non ci raggiungerà mai (in un universo con espansione accelerata). + +Non sappiamo cosa ci sia oltre l'orizzonte osservativo. Probabilmente più dello stesso universo che osserviamo --- le stesse strutture, le stesse leggi --- ma potenzialmente anche strutture diverse, in regioni che hanno avuto storie causali completamente separate dalla nostra. Questo limite non è provvisorio: è strutturale. Non c'è tecnologia futura che ci permetta di osservare oltre l'orizzonte causale, perché l'informazione di quelle regioni non ci può raggiungere fisicamente. + +\sezione{I limiti della meccanica quantistica: l'indeterminazione di Heisenberg} + +Il secondo limite è il principio di indeterminazione di Heisenberg: +\[ +\Delta x \cdot \Delta p \geq \frac{\hbar}{2}, \qquad \Delta E \cdot \Delta t \geq \frac{\hbar}{2} +\] +Non è un limite tecnologico: è un fatto sulla struttura della realtà. Non c'è uno stato fisico in cui posizione e impulso siano entrambi definiti con precisione arbitraria. Questo non è un'ignoranza sulla realtà: è la struttura della realtà stessa. La meccanica quantistica non ci impedisce di conoscere il valore preciso di posizione e impulso simultaneamente: ci dice che non \textit{esistono} valori precisi simultanei. + +Questo limite ha implicazioni profonde. Il demone di Laplace --- l'intelligenza che conosce la posizione e la velocità di ogni particella e può quindi calcolare il futuro dell'universo --- è impossibile non perché manchi di capacità computazionale, ma perché le informazioni che richiederebbe non esistono. Il futuro non è scritto: è genuinamente aperto, non solo nella pratica ma nel principio. + +\sezione{I limiti della logica: il teorema di incompletezza} + +Il terzo limite è il teorema di incompletezza di Gödel, già discusso nel Capitolo~IX. Ogni sistema formale abbastanza potente contiene verità che non può dimostrare. Questo è un limite \textit{intrinseco} al metodo formale, non un limite provvisorio che attende di essere superato. + +Le implicazioni per la fisica sono sottili ma reali. Se i fisici usano la matematica come linguaggio della loro scienza, e se la matematica è soggetta ai limiti di incompletezza, ci sono limiti alla conoscenza fisica formalizzabile? La risposta sembra essere sì, in linea di principio --- anche se nella pratica è difficile identificare fisicamente rilevanti proposizioni gödeliane. + +\sezione{I limiti della neuroscienza: la cognizione che si auto-osserva} + +Il quarto limite riguarda la neuroscienza. Il cervello che studia se stesso ha un problema di auto-referenzialità strutturalmente analogo al teorema di incompletezza. Un sistema non può avere una descrizione completa di se stesso usando solo le risorse di se stesso, senza una struttura esterna di riferimento. + +Nella pratica, questo significa che alcuni aspetti dell'esperienza soggettiva potrebbero essere intrinsecamente inaccessibili alla terza persona: non perché mancano i dati, ma perché la traduzione dall'interno all'esterno comporta una perdita irreducibile. La prima persona e la terza persona sono frame di riferimento diversi, e tra loro non c'è isomorfismo completo. + +\sezione{I limiti come struttura della conoscenza} + +Questi quattro limiti --- osservativo, quantistico, logico, cognitivo --- non sono debolezze della scienza. Sono la struttura della conoscenza: i contorni precisi entro cui la conoscenza scientifica opera e al di là dei quali opera in modo diverso, con strumenti diversi, o non opera affatto. + +Riconoscerli non significa arrendersi all'ignoranza. Significa sapere con precisione dove si trova la frontiera, e quindi poter fare domande più precise all'interno di quella frontiera, e domande diverse al di là di essa. + +Aristotele disse che la meraviglia è l'inizio della filosofia. Io aggiungerei: la conoscenza dei propri limiti è l'inizio della saggezza. Non la rassegnazione di fronte ai limiti, ma la precisione nel sapere dove sono. Quella precisione è, in sé, una forma di conoscenza profonda. + +\sezione{Il confine tra conoscibile e inconoscibile} + +C'è una domanda finale che questi limiti aprono: il confine tra il conoscibile e l'inconoscibile è fisso o mobile? + +In fisica, i confini si sono spostati ripetutamente. La struttura interna degli atomi sembrava inconoscibile nel XIX secolo (Comte la indicò esplicitamente come limite permanente della scienza). Poi la spettroscopia e la meccanica quantistica la resero accessibile. La natura delle stelle sembrava inaccessibile; poi la fisica nucleare spiegò la fusione. Il passato dell'universo sembrava inaccessibile; poi il fondo cosmico di microonde aprì una finestra a 380.000 anni dopo il Big Bang. + +Ma ci sono anche confini che sembrano strutturali: l'orizzonte causale cosmologico, il principio di indeterminazione, il teorema di incompletezza. Questi non sembrano provvisori nel modo in cui lo erano i limiti ottocenteschi. + +La distinzione tra limiti provvisori e limiti strutturali è importante ma difficile da tracciare. Non sappiamo, a priori, quali dei limiti attuali saranno superati da una rivoluzione concettuale futura e quali sopravvivranno come strutture permanenti. La storia ci insegna umiltà: molti confini che sembravano invalicabili si sono rivelati valicabili. Ma ci insegna anche cautela: non tutti. + +\sezione{La complementarità come struttura epistemica} + +Niels Bohr propose il principio di complementarità come interpretazione della meccanica quantistica: onde e particelle sono descrizioni complementari dello stesso fenomeno, non contraddittorie ma incomplete se prese singolarmente. Nessuna delle due è la `vera' descrizione; entrambe sono necessarie per una descrizione completa. + +Bohr estese questo principio al di là della fisica, applicandolo alla biologia (la descrizione meccanicistica di un organismo è complementare alla sua descrizione teleologica) e alla psicologia (la descrizione comportamentale è complementare alla descrizione fenomenologica). + +Voglio proporre che la complementarità sia una struttura epistemica generale: ci sono domini della realtà che richiedono descrizioni multiple complementari, nessuna delle quali è sufficiente da sola. La realtà fisica non è né onda né particella, ma qualcosa che richiede entrambe le descrizioni a seconda del contesto. La vita non è né pura macchina né puro progetto, ma qualcosa che richiede entrambe le descrizioni. La mente non è né puro cervello né pura coscienza, ma qualcosa che richiede entrambe le descrizioni. + +La complementarità non è relativismo: non dice che tutte le descrizioni sono ugualmente corrette. Dice che alcune realtà sono sufficientemente complesse da richiedere più di un frame descrittivo, e che questi frame sono irriducibili l'uno all'altro. Accettare la complementarità come struttura epistemica è più onesto e più produttivo che insistere nel trovare la descrizione singola e definitiva. + +\sezione{Il pluralismo epistemico e l'unità della scienza} + +Il pluralismo epistemico --- la tesi che diverse metodologie e diversi framework teorici siano legittimi e necessari per capire la realtà --- sembra contraddire l'ideale dell'unità della scienza. Ma non è così. + +L'unità della scienza non significa che tutte le scienze siano riducibili a una sola. Significa che tutte le scienze studiano lo stesso mondo fisico, e che i loro risultati devono essere mutuamente coerenti. Un risultato biologico non può contraddire un risultato fisico; un risultato psicologico deve essere coerente con il substrato neuroscientico. L'unità è di coerenza, non di riduzione. + +Il pluralismo metodologico è la conseguenza del fatto che il mondo ha strutture a livelli diversi, ognuna dei quali richiede strumenti propri. Un telescopio è lo strumento giusto per studiare le galassie; non lo è per studiare i neuroni. L'elettroencefalogramma è lo strumento giusto per studiare le oscillazioni cerebrali; non lo è per studiare la struttura dello spazio-tempo. Gli strumenti sono plurali perché la realtà è plurilivellata. + +La vera unità della scienza non è metodologica ma ontologica: tutti gli oggetti della scienza --- galassie, neuroni, norme sociali, emozioni --- sono oggetti fisici nel senso ampio che obbediscono alle leggi fisiche. Ma obbediscono in modi diversi a livelli diversi, e capire quei modi diversi richiede approcci diversi. + +\puntini + +I confini della conoscenza non sono muri: sono orizzonti. Alcuni si spostano quando ci avviciniamo; altri rimangono dove sono indipendentemente da quanto camminiamo. Distinguere i due tipi è uno degli atti di discernimento più difficili e più importanti che la scienza possa compiere. + +% ============================================================ +% PARTE QUARTA +% ============================================================ +\part{Come Vivere Sapendo} +\begin{center} +\itshape +In cui cerchiamo di tradurre la visione del mondo della fisica\\ +in una visione del mondo per vivere.\\[0.5em] +\textit{È il capitolo più difficile.} +\end{center} +\clearpage + +% ============================================================ +% CAPITOLO XVII +% ============================================================ +\chapter{La Morte, l'Entropia e il Significato} + +\epigraph{``My life seemed like a glass tunnel, through which I was moving faster every year, and at the end of which there was darkness. When I changed my view, the walls of my glass tunnel disappeared. I now live in the open air.''}{--- Derek Parfit, \textit{Reasons and Persons} (1984)} + +\sezione{La fisica della morte} + +La fisica non rimuove la morte. Non la rende meno reale, non toglie il dolore della perdita. Ma offre un contesto che cambia la categoria con cui la si pensa. + +Fisicamente, la vita è manutenzione dell'ordine locale in un universo che tende al disordine. Un organismo vivente è un sistema termodinamicamente aperto che mantiene una struttura localmente a bassa entropia consumando energia libera e dissipando calore nell'ambiente. La morte è la fine del processo di manutenzione attiva. Gli atomi che componevano l'organismo entrano in altri cicli biogeochimici. La materia è conservata. Il pattern non lo è. + +La vita e la morte sono i meccanismi con cui la materia si riorganizza ed evolve. Senza la morte degli individui, non c'è evoluzione. La morte non è un difetto del programma biologico: è il meccanismo che ha prodotto la coscienza capace di porre la domanda sulla morte. + +\sezione{Derek Parfit e la riduzione dell'identità personale} + +Derek Parfit, in \textit{Reasons and Persons} (1984) — uno dei libri di filosofia analitica più originali e più coraggiosi del Novecento — analizzò il problema dell'identità personale con una precisione che molti lettori hanno trovato liberatoria. Attraverso casi ipotetici costruiti con cura — la divisione del cervello in due emisferi trapiantati in corpi diversi, il teletrasporto, la sostituzione neuronale graduale con componenti artificiali — Parfit argomentò che l'identità personale non è una relazione tutto-o-niente. È questione di grado, determinata da relazioni di continuità psicologica. + +La conclusione: la sopravvivenza non è quello che conta moralmente. Quello che conta è la continuità psicologica. La domanda `sarò ancora io?' è una domanda priva di risposta determinata non perché manchi l'informazione, ma perché l'identità personale è una convenzione, non un fatto ulteriore. + +Parfit scrisse che questa realizzazione fu per lui liberatoria: la prospettiva della propria morte diventava meno schiacciante quando si capiva che `io' era già una costruzione. La riduzione dell'identità personale allenta l'egoismo — se il `me futuro' è solo debolmente connesso al `me presente', la distinzione tra il mio benessere futuro e il benessere di altri diventa meno assoluta. + +\sezione{Il blocco universo e la permanenza del passato} + +La visione del blocco universo — supportata dalla struttura matematica della relatività — sostiene che lo spazio-tempo è una struttura quadridimensionale in cui tutti gli eventi, passati presenti e futuri, hanno uguale realtà ontologica. Non c'è un `presente cosmico' privilegiato. + +La morte di una persona non è, in questo quadro, la scomparsa di una realtà. È un evento localizzato nello spazio-tempo che esiste permanentemente nella struttura quadridimensionale. Quello che è stato, è stato per sempre. La vita di una persona, le sue esperienze, le sue azioni, i suoi effetti sul mondo: sono cristallizzati nel tessuto dello spazio-tempo in modo immutabile. + +Non voglio vendere questo come consolazione facile. Non lo è. Il dolore della perdita è reale e non viene attenuato dalla struttura dello spazio-tempo. Ma offre una riformulazione: il passato non sparisce nell'oblio cosmico. Esiste fisicamente, nel senso più preciso del termine. + +\sezione{Günther Anders e la sproporzione} + +Günther Anders (1902--1992) scrisse ne \textit{L'uomo è antiquato} (1956--1980) la più acuta diagnosi dell'alienazione moderna. La sua tesi centrale: esiste una sproporzione strutturale tra la capacità tecnica umana (ciò che possiamo fare e produrre) e la comprensione morale ed emotiva di quella capacità. Possiamo costruire bombe che uccidono milioni di persone in secondi, ma non possiamo sentire emotivamente la morte di un milione di persone. Possiamo progettare sistemi che alterano il clima per secoli, ma il nostro orizzonte emotivo e morale si estende a pochi anni. + +Questa sproporzione — che Anders chiama \textit{vergogna prometeica} — non è un difetto morale individuale. È una struttura del rapporto tra umanità e tecnologia che richiede istituzioni nuove per essere gestita. Anders scrisse prima delle armi nucleari, dell'intelligenza artificiale, del cambiamento climatico. La sua analisi è più attuale oggi di quanto fosse al momento della pubblicazione. + +\sezione{La morte come problema di scala} + +La morte individuale e la morte cosmica sono problemi su scale radicalmente diverse, ma c'è un filo che le connette: entrambe riguardano la fine di strutture a bassa entropia che avevano una forma, una storia, una coerenza interna. + +Un organismo vivente è una struttura a bassa entropia mantenuta attivamente contro la tendenza al disordine. La morte è il momento in cui la manutenzione cessa e la materia inizia la sua dispersione verso stati di entropia più alta. Ma il pattern che era l'organismo --- la sua struttura, le sue connessioni, i suoi effetti sul mondo --- lascia tracce. Alcune di queste tracce durano a lungo: i figli, i libri, le strade costruite, le idee trasmesse, i cambiamenti prodotti negli altri. + +In un universo del blocco, queste tracce non sono solo `ricordi nel senso soggettivo'. Sono fatti fisici localizzati nello spazio-tempo. La morte di qualcuno è un evento localizzato nello spazio-tempo che non smette di essere accaduto. Non nell'oblio cosmico: nella struttura quadridimensionale immutabile della realtà fisica. + +Questo non è conforto per il dolore della perdita. Ma è una risposta alla domanda `sarà come se non fosse mai stato?' La risposta fisica è no: sarà sempre come se fosse stato, perché l'evento della sua vita è cristallizzato in modo immutabile nel tessuto dello spazio-tempo. La semipermanenza delle tracce biologiche e culturali, e la permanenza fisica nel blocco universo: queste sono due livelli diversi a cui la risposta è la stessa. + +\sezione{Il problema del significato: Camus, la fisica e l'assurdo} + +Albert Camus scrisse ne `Il mito di Sisifo' (1942) che il problema filosofico fondamentale è il suicidio: vale la pena vivere una vita senza significato trascendente? La risposta di Camus è sì --- ma solo attraverso la ribellione cosciente all'assurdo, il rifiuto di qualsiasi risposta che dissolva la tensione tra il desiderio umano di chiarezza e il silenzio irrazionale del mondo. + +La fisica, in questo quadro, è uno degli strumenti più potenti della ribellione cosciente. Non perché fornisca un significato trascendente --- non lo fa. Ma perché espande radicalmente il contesto in cui la domanda sul significato viene posta. Sapere che siamo fatti di elementi prodotti da stelle esplose, che viviamo su un pianeta orbitante intorno a una delle $10^{23}$ stelle dell'universo osservabile, che la vita è apparsa su questo pianeta per ragioni che ancora non capiamo completamente, che la nostra coscienza è il prodotto di miliardi di anni di evoluzione su un sistema fisico quasi interamente vuoto: tutto questo non risponde alla domanda sul significato. Ma la trasforma. + +La domanda `ha senso la mia vita?' diventa `ha senso che ci sia qualcosa capace di chiedere se ha senso la propria vita?' E questa è una domanda più vertiginosa, più interessante, più aperta. Non dissolve l'assurdo cammiano: lo amplifica. Ma amplificarlo è già una forma di ribellione. + +Il silenzio tra le stelle non è una risposta al senso. È la dimensione reale entro cui la domanda sul senso viene posta. E questo cambia la domanda. + +\puntini + +La morte è reale. Il dolore è reale. Ma la permanenza del passato nel blocco universo è anche reale. Quello che siamo stati, quello che abbiamo fatto, quello che abbiamo amato: esiste fisicamente in modo immutabile. + +\sezione{Il lutto come elaborazione della perdita relazionale} + +Il lutto è la risposta emotiva alla perdita di qualcuno o qualcosa di profondamente significativo. Non è una malattia da guarire: è la risposta appropriata al fatto che qualcosa di reale è andato perduto. + +Le neuroscienze del lutto mostrano che il processo di elaborazione della perdita attiva le stesse reti neurali del dolore fisico --- il cingolato anteriore dorsale, l'insula --- e quelle dell'attaccamento e della memoria episodica. Il lutto è letteralmente doloroso nel senso neurobiologico, non solo metaforico. + +La prospettiva del blocco universo offre un contesto che alcune persone trovano utile nel lutto. La persona che è morta non è scomparsa nell'oblio: la sua vita, le sue esperienze, i suoi effetti sul mondo sono cristallizzati nel tessuto dello spazio-tempo. Non nel senso che `sono ancora con noi' nel senso magico, ma nel senso fisico preciso che quegli eventi hanno avuto luogo e questa è una verità eterna della struttura dello spazio-tempo. Il passato non si cancella: permane. + +Non è un antidolorifico. Ma è un modo diverso di tenere la perdita --- che include il lutto pienamente, senza negazione, ma in un contesto più ampio. + +Partire da questo, invece che dal niente, cambia il modo in cui si guarda la fine. + +% ============================================================ +% CAPITOLO XVIII +% ============================================================ +\chapter{La Bellezza come Categoria Epistemica} + +\epigraph{``A theory with mathematical beauty is more likely to be correct than an ugly one that fits the experiments.''}{--- Paul Dirac} + +\sezione{La bellezza come guida} + +C'è una pratica tra i fisici teorici che merita attenzione filosofica seria: usare la bellezza matematica come guida verso la verità. Non come ornamento retorico a posteriori, ma come criterio attivo nella selezione e valutazione delle teorie. Dirac lo disse esplicitamente e lo praticò: la sua equazione relativistica dell'elettrone (1928) fu trovata principalmente seguendo criteri di eleganza matematica. Einstein scelse la relatività generale in parte per la sua inevitabile eleganza geometrica. + +Non è misticismo: è una tesi epistemologica difendibile. La fisica ha trovato ripetutamente che le teorie più potenti sono quelle con le simmetrie più ricche. E le simmetrie sono esteticamente belle nel senso preciso in cui la geometria è bella: mostrano che strutture diverse hanno la stessa forma, che cose che sembravano distinte sono in realtà la stessa cosa vista da angolature diverse. + +\sezione{Il teorema di Noether} + +Emmy Noether dimostrò nel 1915 un teorema di profondità straordinaria: a ogni simmetria continua di un sistema fisico corrisponde una quantità conservata. La simmetria di traslazione temporale implica la conservazione dell'energia. La simmetria di traslazione spaziale implica la conservazione della quantità di moto. La simmetria di rotazione implica la conservazione del momento angolare. La simmetria di gauge $\mathrm{U}(1)$ dell'elettromagnetismo implica la conservazione della carica elettrica. + +Il teorema di Noether connette due categorie apparentemente distinte: la geometria (le simmetrie) e la dinamica (le costanti del moto). Il Modello Standard è quasi interamente determinato dall'imposizione di simmetrie di gauge $\mathrm{SU}(3) \times \mathrm{SU}(2) \times \mathrm{U}(1)$. Richiedere che il Lagrangiano sia invariante sotto trasformazioni locali di questi gruppi genera automaticamente i campi di gauge, le loro interazioni con la materia, e la struttura delle correnti conservate. La struttura matematica genera la fisica. È difficile non trovare questo bello nel senso più profondo del termine. + +\sezione{Emmy Noether: la matematica più importante del Novecento} + +Vale la pena sostare su chi era Emmy Noether (1882--1935), al di là del teorema. Ha sviluppato l'algebra astratta moderna (teoria degli anelli, degli ideali, dei moduli), la geometria algebrica, e la teoria dell'invarianza in fisica matematica. Il suo teorema del 1915 è solo uno dei molti contributi fondamentali. + +Lavorò a Göttingen sotto David Hilbert, che la difese strenuamente contro le resistenze dei colleghi. Hilbert disse: ``Non vedo perché il sesso di un candidato debba influenzare la sua idoneità all'insegnamento. Dopo tutto, siamo un'università, non una casa da bagno.'' Noether fu privata della cattedra dai nazisti nel 1933 perché ebrea, emigrò negli Stati Uniti, e morì improvvisamente nel 1935 a 53 anni. + +Albert Einstein scrisse nel necrologio: ``Nel giudizio dei matematici più competenti che vivono, la signora Noether era la matematica creativa di maggiore rilievo che la storia dell'educazione superiore femminile abbia finora prodotto.'' + +Il fatto che il teorema più importante per la fisica moderna sia stato dimostrato da una donna in un'epoca in cui le donne erano sistematicamente escluse dall'accademia è un fatto che merita di essere ricordato come promemoria di quanta intelligenza umana è stata sprecata nel corso della storia per ragioni di genere, etnia, o classe. + +\sezione{Le simmetrie anomale: quando la quantizzazione rompe la simmetria} + +Alcune simmetrie classiche non sopravvivono alla quantizzazione: vengono rotte da effetti quantistici. Queste sono le \textit{anomalie quantistiche}. La più famosa è l'anomalia chirale: una simmetria dell'azione classica che viene rotta dalla misura del path integral per effetti di loop dei gluoni. + +L'anomalia chirale ha conseguenze fisiche misurabili: il decadimento del pione neutro ($\pi^0 \to \gamma\gamma$) è interamente determinato dall'anomalia. Senza l'anomalia, il pione neutro non decadrebbe in due fotoni. Il tasso di decadimento misurato è una verifica diretta dell'anomalia chirale --- la teoria quantistica dei campi che si conferma attraverso un effetto che non ha analogo classico. + +Le anomalie di gauge renderebbero la teoria incoerente. L'assenza di anomalie di gauge nel Modello Standard è una delle sue caratteristiche strutturali più importanti, e vincola fortemente la struttura del contenuto di materia. Il fatto che le anomalie si cancellino esattamente nel Modello Standard --- il contributo dei quark cancella esattamente quello dei leptoni --- è una delle sue proprietà più eleganti e più misteriose. + +\sezione{La supersimmetria: bella e forse sbagliata} + +La supersimmetria (SUSY) è matematicamente bellissima. E il LHC non ha trovato superpartner entro le masse previste dalle versioni più naturali di SUSY. Questo è il problema epistemologico più istruttivo che la storia di SUSY pone: la bellezza matematica può essere una guida genuina verso la verità, ma non è una garanzia. I solidi platonici di Keplero come struttura del sistema solare erano una delle idee più belle mai proposte in astronomia. Erano sbagliate. + +La bellezza segnala possibilità, non certezza. Il fisico maturo coltiva la sensibilità alla bellezza come strumento euristico, non come sostituto dell'evidenza. Non cede alla bellezza quando i dati la contraddicono. Non ignora la bellezza quando i dati mancano. La bellezza è un indizio, non una prova. + +\sezione{Simone Weil e la bellezza come apertura} + +Simone Weil scrisse, in \textit{La pesanteur et la grâce} (1947), che la bellezza è `un'esca di cui Dio si serve per attirare le anime'. Intendendo qualcosa di preciso: la bellezza indica struttura, ordine, connessione profonda. La fisica ha trovato che questo è vero in senso fisico letterale — le simmetrie della natura sono belle, e la bellezza delle equazioni è spesso il segnale che si è trovata una simmetria reale. + +Ma Weil intendeva qualcosa di più. La bellezza, in lei, è il luogo dove la necessità si svela. Un'equazione bella non è bella per caso: è bella perché è necessaria, perché non poteva essere diversamente. Quando Dirac derivò la sua equazione seguendo la bellezza, non stava facendo arte: stava seguendo la necessità logica verso dove doveva andare. La bellezza era il segnale della necessità. + +\sezione{Perché la natura è bella?} + +C'è una domanda che viene raramente posta esplicitamente: perché le leggi fisiche sono belle? Non: perché troviamo belle le leggi fisiche (potrebbe essere un bias cognitivo). Ma: perché le leggi fisiche hanno la struttura --- simmetrica, invariante, parsimoniosamente espressa --- che troviamo esteticamente piacevole? + +Una risposta possibile è evolutiva: la nostra sensibilità estetica si è calibrata su strutture del mondo fisico nel corso dell'evoluzione, e troviamo belle le strutture che sono informativamente efficienti, simmetricamente organizzate, parsimoniose nei propri elementi. Le leggi fisiche hanno esattamente queste caratteristiche perché sono efficienti descrizioni di invarianze. + +Un'altra risposta, più speculativa, è strutturale: la bellezza delle leggi fisiche riflette la profonda simmetria della realtà. Il mondo non è bello perché lo troviamo bello: è bello perché è simmetrico, e la simmetria è l'organizzazione più efficiente possibile. Simmetria significa che molte situazioni diverse sono governate dalla stessa legge --- che c'è meno da capire di quanto sembra, perché cose diverse sono in realtà la stessa cosa vista da angolature diverse. + +Il teorema di Noether rende questa intuizione precisa: le simmetrie generano leggi di conservazione, e le leggi di conservazione sono la struttura profonda della dinamica. Un universo con più simmetrie è un universo con più leggi di conservazione, quindi più struttura invariante, quindi più comprensibile. La bellezza è la firma della comprensibilità. + +\sezione{Bellezza e verità: quando divergono} + +Il caso della supersimmetria ha insegnato qualcosa di importante. SUSY è una delle idee più belle della fisica teorica: una simmetria tra bosoni e fermioni che unifica la materia e le forze in un unico schema. Risolverebbe elegantemente il problema della gerarchia, fornirebbe candidati per la materia oscura, suggerisce la grande unificazione. + +Il LHC non l'ha trovata. Non dove dovrebbe essere se risolve i problemi che dovrebbe risolvere. Le esclusioni spingono le masse dei superpartner a valori sempre più alti, riducendo la naturalness che era una delle motivazioni principali di SUSY. + +Questo è istruttivo in due sensi. Primo: la bellezza non garantisce la verità. Una teoria può essere matematicamente elegante, risolvere molti problemi teorici, e essere comunque sbagliata perché la natura non l'ha scelta. Secondo: il fatto che la natura non abbia scelto SUSY (se confermato) è di per sé informativo. Ci dice che la natura è disposta a rinunciare alla naturalness --- che è disponibile a costruzioni che sembrano fine-tuned agli occhi dei fisici. Questo sposta il puzzle verso una domanda ancora più profonda: perché la natura accetta certe forme di fine-tuning? + +\sezione{L'estetica delle teorie e la selezione dei programmi di ricerca} + +La sensibilità estetica dei fisici influenza la selezione dei programmi di ricerca in modi che non vengono discussi abbastanza apertamente. Un fisico trova una certa direzione più `bella' di un'altra e dedica anni di lavoro a esplorarla. Questo è razionale --- la bellezza è un indicatore euristico reale, anche se fallibile --- ma ha conseguenze: i programmi di ricerca meno belli (ma potenzialmente più corretti) attirano meno talento e meno risorse. + +La storia della scienza mostra esempi di programmi di ricerca `brutti' che si sono rivelati corretti (le correzioni ad hoc al vecchio modello atomico che hanno portato alla meccanica quantistica erano, inizialmente, brutte) e programmi `belli' che si sono rivelati sbagliati (i solidi platonici di Keplero, la meccanica del continuo infinita di Lorentz prima di Einstein). + +Il fisico maturo deve coltivare la capacità di seguire argomenti `brutti' se i dati li supportano, e di dubitare di argomenti `belli' se i dati non li supportano. Questo è più difficile di quanto sembri: le preferenze estetiche sono profondamente radicate e difficili da separare dai giudizi epistemici. + +\sezione{L'estetica come epistemologia: una sintesi} + +Voglio sintetizzare la posizione epistemica che emerge dalla discussione sulla bellezza nella fisica. + +La bellezza non è un ornamento: è un segnale. La bellezza di una teoria fisica --- la sua semplicità, la sua simmetria, la sua inevitabilità una volta vista --- segnala che si è trovata una struttura invariante della realtà. Non perché la realtà si preoccupi delle nostre preferenze estetiche, ma perché la nostra sensibilità alla bellezza geometrica si è calibrata (nell'evoluzione biologica e culturale) sulle strutture invarianti del mondo fisico. + +Questa posizione ha tre implicazioni pratiche: + +\textbf{Prima implicazione.} Quando una teoria è bella ma non confermata (come la supersimmetria), la bellezza è un'evidenza bayesiana modesta a suo favore --- sufficiente per giustificare l'esplorazione, non per concludere. Deve essere calibrata con il peso dell'assenza di evidenza sperimentale. + +\textbf{Seconda implicazione.} Quando una teoria è confermata ma brutta (come il Modello Standard con i suoi 19 parametri liberi), la bruttezza segnala incompletezza --- che c'è struttura che non abbiamo ancora trovato, che il modello è un'approssimazione di qualcosa di più profondo e più simmetrico. + +\textbf{Terza implicazione.} Il gusto estetico dei fisici non è neutro: riflette una storia culturale specifica, con bias verso certi tipi di eleganza (simmetria, minimalità) e indifferenza verso altri. È utile essere consapevoli di questi bias e di quando potrebbero oscurare la realtà. + +La posizione matura è: coltivare la sensibilità alla bellezza, usarla come guida euristica, non affidarsi ad essa come criterio definitivo. Seguire i dati quando contraddicono la bellezza. Sospettare dell'argomento `è così bello che deve essere vero'. + +Dirac --- che trovò l'equazione dell'elettrone seguendo la bellezza --- disse anche che la bellezza della teoria deve essere di un tipo elevato e matematico. Non ogni tipo di bellezza conta: solo quella che riflette struttura profonda. Distinguere i tipi di bellezza è il vero mestiere del fisico teorico. + +\puntini + +Il fisico maturo coltiva la sensibilità alla bellezza come strumento euristico. La bellezza è un indizio, non una prova. Ma un indizio che, nella storia della fisica, ha portato verso la verità più spesso che non. + +% ============================================================ +% CAPITOLO XIX +% ============================================================ +\chapter{Il Linguaggio, il Pensiero e i Confini del Mondo} + +\epigraph{``Die Grenzen meiner Sprache bedeuten die Grenzen meiner Welt.''}{--- Ludwig Wittgenstein, \textit{Tractatus} (1921), 5.6} + +\sezione{Wittgenstein I e Wittgenstein II} + +Wittgenstein nel \textit{Tractatus} (1921) sosteneva che la struttura logica del linguaggio specchia la struttura logica del mondo. `I limiti del mio linguaggio sono i limiti del mio mondo.' L'intera metafisica, l'etica, l'estetica — tutto ciò che va oltre i fatti empirici — è inesprimibile: si può solo mostrare, non dire. + +Poi Wittgenstein ci ripensò radicalmente. Nelle \textit{Ricerche Filosofiche} (1953, postume), il linguaggio non ha una struttura logica unica: ha usi molteplici, giochi linguistici con regole diverse, embedded in pratiche sociali e forme di vita diverse. Il significato non è la referenza a oggetti nel mondo: è l'uso in un contesto di pratiche condivise. Quando il linguaggio `va in vacanza' — quando applichiamo parole fuori dal contesto d'uso in cui hanno acquisito il loro senso — emergono i problemi filosofici. + +\sezione{Il relativismo linguistico nella sua forma difendibile} + +La versione empirica del relativismo linguistico — l'ipotesi Sapir-Whorf nella forma debole — ha ricevuto supporto sperimentale crescente, principalmente attraverso il lavoro di Lera Boroditsky. Non la versione forte (il linguaggio determina il pensiero, rendendo certi pensieri impossibili), ma la versione debole: il linguaggio influenza le prestazioni cognitive in compiti rilevanti, rendendo certe distinzioni più salienti e accessibili. + +I russi hanno due termini per il blu: \textit{goluboy} (azzurro chiaro) e \textit{siniy} (blu scuro). Parlanti madrelingua russo discriminano sfumature di blu che attraversano questo confine categoriale significativamente più velocemente. L'effetto scompare sotto carico cognitivo verbale ma non sotto carico cognitivo spaziale: è specificamente il linguaggio che media l'effetto. + +Il linguaggio non determina cosa possiamo pensare: determina cosa pensiamo facilmente, abitualmente, senza sforzo. È una tecnologia cognitiva che struttura le rappresentazioni. Espandere il vocabolario — imparare nuovi concetti, nuove categorie, nuove metafore — è espandere l'attrezzatura cognitiva con cui si abita il mondo. + +\sezione{Cassirer e le forme simboliche} + +Ernst Cassirer, nella \textit{Philosophie der symbolischen Formen} (1923--1929), sviluppò una tesi che ha rilevanza diretta per il rapporto tra scienza e umanità. L'umanità non abita il mondo direttamente: abita un universo simbolico — linguaggio, mito, arte, religione, scienza. Queste forme simboliche sono i modi in cui l'umanità struttura e dà senso all'esperienza. + +La tesi fondamentale di Cassirer: le forme simboliche sono irreducibili le une alle altre. La scienza non può sostituire il mito, perché il mito fa un lavoro che la scienza non fa — dà senso all'esistenza in termini di narrative significative. La scienza non può sostituire l'arte, perché l'arte accede a dimensioni dell'esperienza che le proposizioni scientifiche non catturano. + +Questo ha implicazioni per il dibattito tra scienza e umanità. La scienza non minaccia le forme simboliche: le arricchisce. Capire la cosmologia fisica non svuota il cielo stellato di significato: lo riempie di significato diverso, più preciso, più meraviglioso. Ma non può sostituire il significato che proviene dalla narrative umana, dalla storia, dall'arte, dalla relazione. + +\sezione{Quine e l'indeterminatezza della traduzione} + +Willard Van Orman Quine propose in \textit{Word and Object} (1960) uno degli argomenti più inquietanti della filosofia del linguaggio: l'indeterminatezza della traduzione radicale. Un linguista che deve tradurre una lingua completamente sconosciuta osserva i comportamenti dei parlanti in risposta agli stimoli. Il nativo dice `gavagai' ogni volta che passa un coniglio. Traduzione ovvia: `coniglio'. Ma è compatibile con tutti i dati osservabili tradurre `gavagai' come `parte-di-coniglio', `coniglio in moto', `fase temporale di un coniglio'. La traduzione è radicalmente indeterminata. + +C'è una risonanza precisa con la meccanica quantistica relazionale di Rovelli: non c'è una descrizione assoluta dei sistemi fisici che prescinda da qualsiasi punto di vista osservante. Analogamente, il significato delle espressioni linguistiche è relazionale: esiste rispetto a un'interpretazione, a un contesto d'uso, a una pratica. Il relazionalismo riappare ancora. + +\sezione{Il linguaggio scientifico come forma simbolica} + +Il linguaggio della scienza --- le equazioni, le notazioni, i formalismi --- è una forma simbolica nel senso di Cassirer: non una trascrizione della realtà, ma uno strumento che struttura il pensiero in modo peculiare e potente. + +L'equazione di Maxwell: +\[ +\nabla \times \mathbf{B} = \mu_0\mathbf{J} + \mu_0\varepsilon_0\frac{\partial\mathbf{E}}{\partial t} +\] +non è una `descrizione' del campo magnetico nel senso in cui una fotografia è una descrizione di un paesaggio. È una \textit{relazione} tra grandezze fisiche che definisce il comportamento del campo. Chi la legge per la prima volta vede simboli. Chi la legge con padronanza vede le linee di forza del campo magnetico che si avvolgono attorno alle correnti, sente la propagazione ondosa che emerge dall'accoppiamento tra campo elettrico e magnetico. Il linguaggio delle equazioni non descrive il mondo: struttura il modo in cui il mondo viene pensato. + +Questo ha implicazioni per l'educazione scientifica. Non si impara la fisica imparando formule: si impara la fisica imparando a \textit{pensare} con le formule. Le formule sono come gli accordi nella musica: bisogna prima imparare a suonare gli accordi meccanicamente, poi capire come si connettono armonicamente, poi sentire la musica che producono. Un fisico che vede le equazioni di Maxwell e sente propagarsi le onde elettromagnetiche ha imparato una nuova forma simbolica --- un nuovo modo di abitare il mondo. + +\sezione{La metafora come strumento cognitivo} + +George Lakoff e Mark Johnson, in `Metaphors We Live By' (1980), hanno mostrato che il pensiero astratto è strutturato da metafore concettuali: idee astratte vengono comprese attraverso strutture di esperienze fisiche concrete. Capiamo il tempo in termini di spazio (`guardare avanti', `lasciarsi il passato alle spalle'). Capiamo le teorie in termini di edifici (`fondamenta', `struttura portante', `pilastri'). Capiamo la conoscenza in termini di visione (`vedere il punto', `illuminante', `prospettiva'). + +Queste non sono metafore decorative: strutturano il pensiero. Quando pensiamo al tempo come a qualcosa che `scorre', tendiamo a pensare che abbia una direzione, una velocità, una fonte. Quando pensiamo al tempo come a una `risorsa' (`sprecare il tempo', `investire il tempo'), tendiamo a pensare che possa essere accumulato o disperso. La metafora che usiamo determina quali inferenze facciamo automaticamente. + +Per la fisica, questo ha un'implicazione importante: le metafore con cui spieghiamo i concetti fisici non sono neutrali. `L'elettrone orbita intorno al nucleo' suggerisce una traiettoria definita. `L'elettrone occupa un'orbitale' suggerisce una distribuzione di probabilità. `Il fotone è sia onda sia particella' suggerisce un dualismo impossibile. `Il fotone è uno stato quantistico che mostra proprietà di onda o di particella a seconda di come lo osserviamo' è più preciso ma meno intuitivo. Il linguaggio con cui impariamo la fisica ci dà strumenti e ci impone vincoli simultaneamente. + +\sezione{La lingua madre e il pensiero scientifico} + +C'è un aspetto poco discusso della diversità linguistica e della scienza: la maggior parte della scienza contemporanea viene prodotta e comunicata in inglese. Questa non è una scelta neutrale. + +La struttura dell'inglese --- con le sue preposizioni, la sua tendenza a nominalizzare i verbi, la sua sintassi relativamente rigida --- struttura certi tipi di argomentazione in certi modi. Lingue con strutture grammaticali molto diverse --- il giapponese, il russo, il mandarino, l'arabo --- strutturano l'argomentazione in modo diverso. Non è detto che l'inglese sia la lingua migliore per pensare certi tipi di problemi fisici o filosofici. + +Sappiamo che il russo distingue il blu azzurro dal blu scuro, e che questo velocizza certe discriminazioni percettive. Potremmo chiedere: ci sono lingue che rendono più facile pensare certi concetti fisici? La risposta non è ovvia, e non è molto studiata. Ma la domanda è legittima: se il linguaggio struttura il pensiero, la scelta del linguaggio scientifico internazionale non è irrilevante per il tipo di pensiero che la scienza produce. + +\puntini + +Il linguaggio non è solo comunicazione: è strutturazione dell'esperienza. Imparare nuove categorie è imparare a vedere diversamente. Non perché la realtà cambi, ma perché gli strumenti con cui la si articola determinano cosa ci si aspetta di trovare, cosa si nota, cosa si riesce a pensare chiaramente. + +% ============================================================ +% CAPITOLO XX +% ============================================================ +\chapter{L'Etica di Fronte all'Universo} + +\epigraph{``We are all leaves of one tree. We are all waves of one sea.''}{--- Thich Nhat Hanh} + +\sezione{Cosa la fisica dice sull'etica (e cosa non dice)} + +La fisica non dice cosa è giusto. Ma dice dove siamo, cosa siamo, e di cosa siamo fatti. E questo ha implicazioni etiche che raramente vengono tratte esplicitamente. + +Siamo fatti di materia stellare. Non è una metafora suggestiva: è la descrizione più accurata disponibile. Il carbonio, l'ossigeno, l'azoto, il calcio dei nostri corpi sono stati sintetizzati nel nucleo di stelle massive attraverso la nucleosintesi stellare. Quando queste stelle esauriscono il combustibile, esplodono in supernovae, disperdendo il loro contenuto nello spazio interstellare. La distinzione tra `noi' e `l'ambiente' è funzionale e pratica, non ontologica: siamo pattern temporanei in un flusso continuo di materia ed energia. + +\sezione{La fisica dell'interdipendenza e la crisi ecologica} + +La biosfera terrestre è un sistema complesso dinamico di straordinaria complessità. Ha impiegato miliardi di anni di evoluzione per raggiungere la sua struttura attuale: cicli biogeochimici intrecciati (carbonio, azoto, fosforo, acqua), reti trofiche con migliaia di livelli e milioni di specie, feedback climatici che mantengono le temperature nell'intervallo compatibile con la vita complessa. + +Sistemi complessi di questo tipo hanno le proprietà che abbiamo discusso: criticalità (operano vicino a soglie che, se superate, producono transizioni rapide e difficilmente reversibili), scale-freeness (poche specie chiave hanno effetti sproporzionati sulla rete), feedback non-lineari (piccole perturbazioni possono amplificarsi in modi imprevedibili). + +La crisi ecologica contemporanea --- perdita di biodiversità, cambiamento climatico, acidificazione degli oceani --- non è `solo' un problema ambientale nel senso di toccare un settore separato dalla vita umana. È l'alterazione del sistema fisico complesso che ha prodotto le condizioni per la vita complessa sul pianeta. Siamo parte del sistema che stiamo destabilizzando. + +La fisica dei sistemi complessi suggerisce che i sistemi vicino ai loro limiti di criticalità possono attraversare tipping points in modo rapido e imprevedibile. L'Amazzonia, il Mar Glaciale Artico, le barriere coralline: ci sono segnali che sistemi di questo tipo si stiano avvicinando a soglie critiche. Una volta attraversate, il ritorno alle condizioni precedenti richiede scale di tempo geologiche. + +Non è paura: è fisica. I tempi di risposta dell'ecosistema sono molto più lunghi dei cicli politici ed economici che guidano le decisioni umane. Questa asimmetria di scala temporale --- tra i tempi della deliberazione umana e i tempi dei processi ecologici --- è forse la sfida pratica più importante che la scienza dei sistemi complessi abbia mai posto alla politica. + +\sezione{Bogdanov e la tectologia} + +Alexander Bogdanov (1873--1928) sviluppò tra il 1912 e il 1922 la tectologia: una `scienza universale dell'organizzazione'. Bogdanov sostenne che i principi organizzativi sono universali: validi per sistemi fisici, biologici e sociali. Le sue idee anticipano la cibernetica di Wiener (1948), la teoria generale dei sistemi di von Bertalanffy (1950), la teoria dell'informazione di Shannon (1948). + +L'implicazione etica della tectologia è diretta: il benessere di un sistema complesso dipende dall'organizzazione delle sue parti, e questa organizzazione ha leggi che si possono studiare e applicare. Un sistema sociale mal organizzato non produce benessere per i suoi membri indipendentemente dalla bontà individuale delle persone che lo compongono. L'etica, per Bogdanov, non può fermarsi all'individuo: deve comprendere la struttura dei sistemi in cui gli individui operano. + +\sezione{Bicchieri e le norme sociali} + +Cristina Bicchieri, in \textit{The Grammar of Society} (2006), ha sviluppato una teoria della normatività sociale. Le norme sociali non sono semplicemente convenzioni: sono strutture cognitive che vincolano il comportamento attraverso due tipi di aspettative. Le aspettative empiriche: cosa mi aspetto che gli altri facciano. Le aspettative normative: cosa mi aspetto che gli altri approvino o disapprovino. + +Una norma sociale esiste se e solo se la maggioranza della popolazione pertinente la segue condizionatamente alle aspettative appropriate: la segue perché si aspetta che gli altri la seguano e che approvino il seguirla. Questo la distingue sia dalle convenzioni sia dalle leggi. + +La struttura di Bicchieri ha un'analogia con la fisica dei sistemi complessi: le norme sociali sono attrattori dinamici del comportamento collettivo. Cambiarle richiede non persuasione individuale ma modifica delle aspettative collettive — un processo che ha la propria `termodinamica': transizioni di fase sociali, effetti soglia, cascate informazionali. + +\sezione{La responsabilità verso il futuro distante} + +Derek Parfit ha argomentato che il tasso di sconto temporale puro — scontare il benessere futuro solo perché è futuro, indipendentemente dall'incertezza — è irrazionale dal punto di vista morale. Se il benessere conta moralmente, conta indipendentemente da quando si manifesta. Le generazioni future non sono meno reali delle presenti. + +Le implicazioni sono urgenti. Le istituzioni esistenti sono strutturalmente orientate verso il breve termine: il ciclo elettorale (4--5 anni), il trimestre finanziario (3 mesi), il ciclo mediatico (ore). Questo non è un difetto morale individuale: è un problema di design istituzionale. Le istituzioni incentivano il comportamento a breve termine, e gli agenti razionali rispondono agli incentivi. + +La cosmologia aggiunge un ulteriore strato. Se fossimo soli nell'universo osservabile, il peso morale della continuità della vita cosciente su questo pianeta è cosmicamente amplificato. Ogni rischio esistenziale (guerra nucleare, cambiamento climatico catastrofico, tecnologie non allineate) non è solo un problema geopolitico: è potenzialmente il Grande Filtro che elimina l'unica — o una delle rarissime — forme di vita cosciente nell'universo osservabile. Questa prospettiva, se presa sul serio, cambia radicalmente la priorità che dovremmo attribuire alla gestione dei rischi esistenziali. + +\sezione{L'etica del rischio esistenziale} + +La cosmologia e l'astrobiologia aggiungono una dimensione all'etica che le tradizioni morali precedenti non potevano contemplare: la possibilità del rischio esistenziale --- il rischio che l'intera umanità, o l'intera vita cosciente su questo pianeta, sia eliminata. + +Il filosofo Nick Bostrom ha formalizzato il concetto di \textit{rischio esistenziale} come un rischio che minaccia il potenziale a lungo termine della civiltà umana. I rischi esistenziali sono categoricamente diversi da altri rischi non solo per la loro gravità ma per la loro \textit{irreversibilità}. Un disastro che uccide un miliardo di persone è catastrofico; ma la civiltà sopravvive e può riprendersi. Un disastro che elimina tutta la vita cosciente è qualitativamente diverso: non c'è recupero possibile, e il potenziale futuro --- l'intera storia che sarebbe potuta essere --- è eliminato. + +Dal punto di vista della cosmologia e del Grande Filtro, i rischi esistenziali assumono una dimensione cosmica. Se siamo soli nell'universo osservabile --- o quasi soli --- allora l'eliminazione della vita cosciente su questo pianeta non è solo una tragedia umana. È l'eliminazione dell'unico punto (o uno dei pochi) nell'universo osservabile dove la materia si è organizzata in modo da osservare e comprendere sé stessa. Il peso morale di questo non può essere calcolato con le categorie ordinarie del rischio: è categoricamente fuori scala. + +\sezione{L'asimmetria del tempo e la responsabilità intergenerazionale} + +Derek Parfit ha argomentato in modo convincente che il tasso di sconto temporale puro è irrazionale. Ma c'è un argomento ancora più profondo: le generazioni future non hanno voce nelle decisioni che le riguardano. La struttura democratica --- il governo del consenso delle persone viventi --- sistematicamente esclude le persone non ancora nate. + +Questo non è un difetto accidentale della democrazia: è strutturale. Non c'è modo di votare per le generazioni future perché non esistono ancora. Eppure le decisioni che prendiamo oggi --- sulla gestione delle risorse, sulle emissioni di gas serra, sullo sviluppo delle tecnologie nucleari e biologiche, sull'intelligenza artificiale --- avranno effetti per secoli o millenni. + +La filosofia del tempo a lungo termine (\textit{longtermism}) argomenta che la stragrande maggioranza del valore morale potenziale si trova nel futuro: se l'umanità sopravvive per milioni di anni con livelli di benessere comparabili a oggi, il numero di persone future supera di miliardi di volte il numero di persone attualmente vive. Questo suggerisce che le decisioni che influenzano il futuro a lungo termine hanno un'importanza morale enormemente superiore alle decisioni che influenzano solo il presente. + +Non tutti accettano il longtermismo. Le obiezioni più serie riguardano la difficoltà di fare previsioni a lungo termine, la concentrazione del potere decisionale nelle mani di chi si arroga la capacità di parlare per il futuro, e i rischi di `fanatismo' morale in cui si giustificano azioni presenti discutibili in nome di benefici futuri ipotetici. Questi sono caveat importanti. Ma la preoccupazione di fondo --- che le strutture istituzionali esistenti sistematicamente sottopesino gli interessi delle generazioni future --- sembra difficile da negare. + +\sezione{La scienza come bene pubblico globale} + +C'è un aspetto dell'etica cosmica che voglio nominare esplicitamente: la scienza stessa come bene pubblico. + +La conoscenza scientifica --- l'insieme delle teorie, dei dati, dei metodi che abbiamo accumulato --- è forse il bene pubblico più prezioso che l'umanità abbia mai prodotto. È cumulativa (si costruisce su se stessa), universale (le leggi della fisica sono le stesse ovunque), e non-rivale (il fatto che io usi la conoscenza non ne riduce la disponibilità per altri). + +La minaccia alla scienza come bene pubblico --- attraverso la disinformazione deliberata, la politicizzazione della conoscenza tecnica, la privatizzazione della ricerca, la crisi di replicabilità --- è quindi una minaccia al bene comune nel senso più profondo. Non è solo un problema epistemico: è un problema etico. Una società che non riesce a mantenere un dominio condiviso di conoscenza verificabile perde la capacità di prendere decisioni collettive informate --- e questo compromette la sua capacità di gestire i rischi esistenziali e di responsabilità intergenerazionale di cui abbiamo parlato. + +\sezione{La reciprocità come struttura dell'etica} + +La fisica dell'entanglement e del relazionalismo suggerisce una struttura per l'etica che è più precisamente articolata di quanto le tradizioni morali ordinarie permettano. + +Se le proprietà fisiche fondamentali sono relazionali, allora anche le proprietà morali potrebbero essere relazionali: non proprietà intrinseche degli individui, ma strutture che emergono dalle relazioni tra individui. Il bene non è una proprietà di un individuo isolato; emerge nella relazione. La responsabilità non è una proprietà intrinseca di un agente; emerge nella rete di relazioni in cui l'agente è immerso. + +Questa intuizione è antica: Aristotele sosteneva che la virtù si sviluppa nella comunità, non nell'isolamento. I confuciani sostenevano che l'identità morale emerge dalle relazioni (figlio/padre, soggetto/sovrano, amico/amico). Il buddismo sottolinea la co-dipendenza originata come struttura dell'esistenza morale. + +La fisica relazionale dà una base più precisa a questa intuizione: le entità fondamentali non sono oggetti isolati con proprietà intrinseche, ma nodi in reti di relazioni. Anche il sé --- l'agente morale --- è una struttura emergente dalle relazioni, non un punto di partenza pre-relazionale. + +Questo suggerisce un'etica della reciprocità: non l'etica dell'individuo che massimizza il proprio benessere (utilitarismo egoista), non l'etica dell'individuo che segue regole universali (deontologia kantiana), ma l'etica dell'individuo che riconosce la propria natura relazionale e agisce in modo coerente con essa. La cura per gli altri non è altruismo che contrasta con l'interesse proprio: è il riconoscimento che il proprio interesse è intrinsecamente relazionale. + +\puntini + +L'etica non riceve risposta dalla fisica. Ma riceve un contesto: siamo esseri temporanei, dipendenti, interdipendenti, in un universo di scala cosmica. Questo suggerisce umiltà di fronte alla complessità dei sistemi che abitiamo. E suggerisce cura --- non come imperativo morale astratto, ma come conseguenza naturale del riconoscere cosa siamo e in cosa siamo immersi. + +\sezione{Una cosmoetica: il significato cosmico della responsabilità} + +Voglio proporre una nozione che chiamo --- con tutta la provvisorietà del caso --- cosmoetica. Non è un'etica derivata dalla cosmologia: come ho sottolineato, la fisica non dice cosa è giusto. È un'etica arricchita dal contesto cosmologico. + +La cosmoetica ha quattro componenti. + +\textbf{L'umiltà cosmica.} Siamo una delle innumerevoli specie biologiche su uno dei miliardi di pianeti nella galassia, in un universo di 13.8 miliardi di anni. L'umiltà che questo suggerisce non è auto-svalutazione: è ridimensionamento. I nostri conflitti, i nostri egoismi, le nostre certezze tribali: visti dalla scala cosmica, appaiono per quello che sono. + +\textbf{La responsabilità esistenziale.} Se siamo uno degli unici (o dei rarissimi) sistemi nell'universo osservabile capaci di esperienza consapevole, la continuità di questa capacità ha un peso morale cosmico. Non solo individuale, non solo generazionale: cosmico nel senso letterale. + +\textbf{La solidarietà ontologica.} Siamo fatti della stessa materia del resto dell'universo. Non c'è un confine ontologico netto tra `noi' e `il resto'. Questo suggerisce una solidarietà che va al di là della solidarietà umana: una solidarietà con tutto ciò che esiste, non per sentimentalismo ma per ontologia. + +\textbf{L'urgenza del sapere.} In un universo che forse non ha altri centri di conoscenza, il progetto della comprensione --- della scienza, della filosofia, dell'arte --- non è un lusso. È la funzione più importante che svolgiamo. Difendere il sapere, ampliarlo, trasmetterlo: sono atti cosmicamente significativi. + +% ============================================================ +% CAPITOLO XXI +% ============================================================ +\chapter{La Scienza come Epistemologia Vissuta} + +\epigraph{``Science is not a body of knowledge. It is a method — and the method is: falsification, revision, and the ruthless subordination of belief to evidence.''}{--- Karl Popper (parafrasi)} + +\sezione{Popper, Lakatos, Feyerabend} + +La filosofia della scienza nasce dalla domanda: cosa distingue la conoscenza scientifica dalla non-scientifica? La risposta di Karl Popper, il falsificazionismo, è diventata il senso comune tra gli scienziati: una teoria è scientifica se fa predizioni falsificabili — se descrive stati di cose che sarebbero smentiti da osservazioni definite. + +Imre Lakatos ha raffinato questa immagine con la teoria dei programmi di ricerca scientifica. Un programma di ricerca ha un nucleo duro (le ipotesi centrali, protette dalla confutazione) e una cintura protettiva (ipotesi ausiliarie modificabili in risposta alle anomalie). La razionalità scientifica riguarda la direzione evolutiva dei programmi: un programma è progressivo se genera predizioni nuove che vengono verificate, degenerativo se si ritira sempre più verso spiegazioni ad hoc. + +Paul Feyerabend, in \textit{Against Method} (1975), sostenne con provocazione deliberata che non esiste un metodo scientifico universale. `Anything goes' non è relativismo: è l'affermazione che la creatività scientifica non si lascia imbrigliare da metodologie prefissate. La scienza è efficace perché è pluralista nei suoi metodi. + +\sezione{La crisi di replicabilità} + +Negli anni Duemiladieci, la psicologia e altre scienze empiriche sono state attraversate da una `crisi di replicabilità'. The Reproducibility Project (2015) cercò di replicare 100 studi psicologici pubblicati nelle migliori riviste. Solo il 36--39\% mostrò un effetto statisticamente significativo nella stessa direzione. + +Le cause strutturali sono identificate con precisione. Il publication bias: le riviste pubblicano preferenzialmente risultati positivi. Il p-hacking: testare molte variabili e riportare solo quelle con $p < 0.05$. I campioni piccoli: studi con 20--30 partecipanti hanno potere statistico basso. Il HARKing: presentare come ipotesi pre-registrate quelle che emergono post hoc dall'esplorazione dei dati. + +La risposta della comunità scientifica è stata strutturale e produttiva: pre-registration degli studi, open data e open code, registered reports. La crisi di replicabilità non è un fallimento del metodo scientifico: è il metodo scientifico in azione — un sistema con meccanismi di autocorrezione che, identificato un problema sistematico, produce soluzioni strutturali. + +\sezione{Vivere da bayesiani} + +Il teorema di Bayes descrive l'aggiornamento razionale delle credenze sotto nuova evidenza: +\[ +P(H|E) = \frac{P(E|H) \times P(H)}{P(E)} +\] +$P(H)$ è la probabilità a priori dell'ipotesi $H$; $P(E|H)$ è la verosimiglianza dell'evidenza $E$ dato $H$; $P(H|E)$ è la probabilità posteriore. + +Vivere da bayesiani, in pratica, significa: tenere credenze con gradi di fiducia (non certezze binarie), aggiornare quando arriva nuova evidenza (anche quando è scomodo), riconoscere che la probabilità a priori riflette assunzioni non neutrali, e calibrare la fiducia nelle proprie credenze sulla qualità dell'evidenza disponibile. + +La difficoltà psicologica del pensiero bayesiano è ben documentata. Il confirmation bias ci porta a cercare preferenzialmente evidenza che conferma le credenze esistenti. L'availability heuristic ci porta a sovrastimare la probabilità di eventi che vengono facilmente in mente. L'anchoring ci porta a dare troppo peso alle prime informazioni ricevute. La semplice consapevolezza di questi bias non li elimina, ma li rende gestibili. + +L'epistemologia intesa come pratica quotidiana — non come esercizio accademico ma come modo di tenere le credenze — è la forma più importante di educazione che conosco. Richiede umiltà epistemica, disponibilità ad aggiornarsi, tolleranza per l'incertezza. Queste sono le virtù intellettuali più rare e più difficili da coltivare, in un'epoca in cui i media premiano la certezza performativa rispetto alla calibrazione onesta. + +\sezione{Le virtù epistemiche come virtù morali} + +Voglio fare un'affermazione più forte di quanto la filosofia della scienza normalmente faccia: le virtù epistemiche --- umiltà, calibrazione, aggiornamento sotto evidenza, tolleranza per l'incertezza --- sono anche virtù morali. Non separabili, ma intimamente connesse. + +L'umiltà epistemica --- la capacità di dire `non so', di tenere credenze con la giusta confidenza, di aggiornare quando si è in torto --- richiede un tipo di ego-dissolution che è anche una qualità morale. Una persona che non riesce ad ammettere di aver sbagliato di fronte all'evidenza non è solo epistemicamente difettosa: è moralmente difettosa, nel senso che le sue credenze false guideranno azioni dannose. + +La calibrazione --- il fatto di non essere né più né meno confidenti di quanto l'evidenza giustifichi --- è il contrario tanto del dogmatismo quanto del nichilismo. Il dogmatico è troppo certo. Il nichilista è troppo incerto. Entrambi falliscono nella responsabilità di formarsi credenze accurate, che è un precondizione per agire in modo responsabile nel mondo. + +L'aggiornamento sotto evidenza --- la disponibilità a cambiare idea di fronte a nuovi dati --- è la più rara e la più difficile delle virtù epistemiche. È difficile perché le credenze sono legate all'identità: cambiare idea su qualcosa di importante significa, almeno parzialmente, cambiare chi si è. Le persone con identità più flessibili e meno rigidamente definite cambiano idea più facilmente. Non è una coincidenza che l'umiltà epistemica e l'umiltà morale tendano a coesistere. + +\sezione{I bias cognitivi come struttura, non come colpa} + +Un punto importante che il dibattito sui bias cognitivi spesso manca: i bias non sono difetti morali individuali. Sono strutture cognitive evolutivamente selezionate che funzionavano bene in ambienti ancestrali e producono errori sistematici in ambienti moderni molto diversi. + +Il confirmation bias --- la tendenza a cercare evidenza che conferma le credenze esistenti --- era probabilmente adattivo in ambienti dove le credenze erano formate su base di esperienza diretta e dove il cambiamento di credenze aveva costi elevati. In un ambiente informazionale moderno dove la quantità di informazione disponibile è astronomica e dove agenti economici e politici hanno interesse a manipolare le credenze, il confirmation bias diventa pericoloso. + +L'availability heuristic --- la tendenza a giudicare la probabilità di un evento in base a quanto facilmente ci viene in mente --- era adattiva quando gli eventi cognitivamente salienti erano quelli localmente frequenti. In un'era di media di massa che amplificano selettivamente eventi rari ma drammatici, produce distorsioni sistematiche nella percezione del rischio: le persone sovrastimano il rischio degli shark attacks e sottostimano il rischio del diabete. + +Conoscere questi bias non li elimina --- sono in gran parte processi automatici di sistemi cognitivi che operano sotto il livello della coscienza. Ma la conoscenza permette di applicare correzioni deliberate, di strutturare i processi decisionali in modo da ridurne l'influenza (pre-commitment, procedure di aggregazione delle opinioni, red-teaming), e di costruire istituzioni che producono output migliori anche con agenti imperfettamente razionali. + +\sezione{La scienza aperta e la democrazia della conoscenza} + +Il movimento Open Science --- open data, open code, open access, pre-registration degli studi --- è la risposta strutturale più promettente ai problemi epistemici della scienza contemporanea. + +L'open access elimina le barriere economiche alla conoscenza: la letteratura scientifica deve essere accessibile a tutti, non solo a chi può permettersi gli abbonamenti delle grandi riviste. Il pre-print server ArXiv (fondato nel 1991 da Paul Ginsparg) ha trasformato la fisica e la matematica: i risultati sono accessibili immediatamente, prima della revisione formale. BioRxiv, medRxiv e altri hanno esteso questo modello alla biologia e alla medicina. + +Il pre-registration degli studi --- dichiarare ipotesi e metodi prima di raccogliere i dati --- rende impossibile il HARKing e riduce il p-hacking. I registered reports --- la peer review che valuta il protocollo prima della raccolta dei dati --- eliminano il publication bias: le riviste si impegnano a pubblicare lo studio indipendentemente dal risultato, se il protocollo è solido. + +Open data e open code permettono la verifica e la rianalisi indipendente. Molti studi pubblicati non sarebbero stati replicati con i loro dati originali: la disponibilità pubblica dei dati grezzi è la forma più radicale di trasparenza scientifica. + +Questi strumenti stanno cambiando la cultura scientifica, anche se lentamente. La resistenza viene da incentivi mal allineati: le riviste di alto impatto premiano i risultati positivi e sorprendenti, i sistemi di valutazione della carriera premiano le pubblicazioni in riviste prestigiose, i tempi della carriera accademica scoraggiano la replicazione (non produce novità). Cambiare la cultura richiede cambiare gli incentivi. + +\sezione{Il ruolo della statistica: p-value, effetto dimensione, e bayesianismo} + +La crisi di replicabilità ha messo in luce un problema tecnico fondamentale: l'uso e l'abuso del p-value. + +Il p-value è la probabilità di osservare i dati (o dati ancora più estremi) sotto l'ipotesi nulla. Un p-value di 0.05 significa: se l'ipotesi nulla è vera, c'è il 5\% di probabilità di osservare dati almeno così estremi. Non significa: c'è il 5\% di probabilità che l'ipotesi nulla sia vera. Non significa: c'è il 95\% di probabilità che l'effetto sia reale. Queste sono interpretazioni comuni ma scorrette. + +Il problema principale del p-value come criterio decisionale è che non dice nulla sulla dimensione dell'effetto (un effetto minuscolo può essere statisticamente significativo con un campione sufficientemente grande) né sulla rilevanza pratica. La dimensione dell'effetto (effect size, come Cohen's d o r di Pearson) misura quant'è grande l'effetto, non solo se c'è. È informativamente molto più ricca del p-value. + +L'approccio bayesiano --- calcolare la probabilità posterior dell'ipotesi dati i dati, usando il teorema di Bayes --- supera molte limitazioni del p-value. Non richiede la specifica dell'ipotesi nulla, incorpora naturalmente la prior knowledge, e produce una distribuzione di probabilità sulle ipotesi piuttosto che un test binario. La sfida è la specificazione della prior: chi ha una strong prior che l'effetto esiste aggiorna molto meno di chi ha una prior neutrale. + +La battaglia tra frequentismo e bayesianismo in statistica non è solo tecnica: è filosofica. I frequentisti vedono la probabilità come frequenza relativa di lungo periodo in esperimenti ripetibili; i bayesiani la vedono come grado di credenza di un agente. La scelta tra le due ha conseguenze pratiche significative nell'interpretazione dei dati scientifici. + +\sezione{Scienza e democrazia: una relazione necessaria e fragile} + +La scienza e la democrazia condividono una struttura epistemica profonda: entrambe si basano sul principio che nessuna autorità individuale ha accesso privilegiato alla verità, che la conoscenza si costruisce collettivamente attraverso il confronto aperto, e che le affermazioni devono essere giustificate e sottoposte alla critica pubblica. + +Questa struttura condivisa non è casuale: la scienza moderna è nata in contesti politici che stavano costruendo, spesso faticosamente, le basi della deliberazione pubblica. Le Royal Societies, le Académies, i Journals: tutti erano istituzioni che istituzionalizzavano il confronto pubblico e la revisione critica delle affermazioni, in modi che rispecchiavano le strutture emergenti della deliberazione democratica. + +La fragilità di questa relazione è evidente quando si guarda alla storia del Novecento. La scienza ha prosperato nelle democrazie liberali e è stata sistematicamente distorta o soppressa nei regimi autoritari --- dove la verità politica prevaleva sulla verità empirica. Il lysenkismo in Unione Sovietica, la biologia razziale nel nazismo, la soppressione della genetica classica in vari regimi: sono tutti esempi di come la scienza degeneri quando la struttura epistemica della critica aperta viene meno. + +Non è una coincidenza: una scienza sana richiede libertà di critica, accessibilità pubblica dei dati, protezione degli scienziati che segnalano risultati scomodi. Queste sono condizioni politiche, non solo metodologiche. La salute della scienza dipende dalla salute delle istituzioni democratiche che la ospitano. + +\puntini + +La scienza non è un corpo di verità rivelate: è un processo, un metodo, una pratica istituzionalizzata di produzione critica e revisabile della conoscenza. Imparare a pensare scientificamente --- nel senso di tenere le credenze con la giusta fiducia, aggiornarle sull'evidenza, distinguere tra ciò che si sa e ciò che si suppone --- è la forma più importante di educazione che conosco, e la più difficile da insegnare. Richiede non intelligenza ma carattere: umiltà epistemica, che è forse la virtù intellettuale più rara. + +% ============================================================ +% CAPITOLO FINALE: IL PARADOSSO DELL'OSSERVATORE COSMICO +% ============================================================ +\chapter{Il Paradosso dell'Osservatore Cosmico} + +\begin{center} +\itshape +Un capitolo che non conclude.\\ +Che apre ciò che non si può chiudere. +\end{center} + +\bigskip + +Siamo arrivati alla fine del libro. Voglio usare questo spazio non per riassumere — il riassunto sarebbe tradire la natura di ciò che abbiamo percorso — ma per esporre la tensione più profonda che percorre tutto, quella che non si risolve anche dopo aver letto tutto il resto. + +La chiamo il Paradosso dell'Osservatore Cosmico. + +\sezione{La formulazione del paradosso} + +L'universo ha impiegato 13.8 miliardi di anni per produrre sistemi abbastanza complessi da porsi domande sull'universo. Questi sistemi — noi — sono fatti degli stessi elementi che compongono il resto dell'universo. Le leggi che governano i nostri neuroni sono le stesse che governano le stelle. Non c'è nulla di speciale nel substrato fisico. + +Eppure qualcosa di straordinario è accaduto: l'universo, almeno qui, è diventato consapevole di sé. Non nel senso mistico di una coscienza cosmica — non c'è evidenza di niente del genere. Nel senso fisico preciso: una piccola porzione della materia dell'universo ha sviluppato la capacità di modellizzare l'universo di cui è fatta. Un pezzo dell'universo guarda gli altri pezzi e si chiede cosa sono. + +Questo è il paradosso: il sistema che descrive l'universo è parte del sistema descritto. L'osservatore è dentro il sistema osservato. Non c'è un punto di vista esterno da cui guardare l'universo nella sua totalità — ogni punto di vista è interno. + +\sezione{Le implicazioni per la conoscenza} + +Questo paradosso ha conseguenze concrete per la fisica. Il teorema di incompletezza di Gödel mostra che nessun sistema formale abbastanza potente può dimostrarsi consistente dall'interno. C'è un'analogia: nessun sistema fisico può descriversi completamente dall'interno senza incontrare il problema della catena infinita di meta-descrizioni. + +La meccanica quantistica relazionale di Rovelli dice che non ci sono stati assoluti dell'universo: ci sono solo fatti relazionali tra sistemi. Ma l'universo nel suo complesso non ha un sistema `esterno' rispetto a cui avere fatti relazionali. L'universo nel suo complesso, in questo senso, è il sistema che non ha una descrizione quantistica completa. + +L'equazione di Wheeler-DeWitt — $\hat{H}|\Psi\rangle = 0$, l'universo quantistico è atemporale — potrebbe non essere una limitazione tecnica che aspetta di essere superata. Potrebbe essere la struttura fondamentale: un universo che esiste come totalità non ha un esterno rispetto a cui avere un tempo. + +\sezione{Le implicazioni per la mente} + +Il paradosso dell'osservatore cosmico ha anche implicazioni per il problema difficile della coscienza. Se l'universo è, nella sua struttura profonda, relazionale — se le proprietà fisiche sono relazioni tra sistemi — allora il fatto che ci siano sistemi che hanno un `interno' non è un'anomalia ontologica. È, forse, la conseguenza più profonda del relazionalismo: un sistema abbastanza complesso di relazioni, a un certo livello di organizzazione, non è solo in relazione con il mondo. È, in qualche senso, la relazione stessa vista dall'interno. + +Questo non risolve il problema difficile. Non spiego i qualia. Non derivo l'esperienza dalla fisica. Ma suggerisce che il problema dell'interno e il problema del relazionalismo sono lo stesso problema visto da due angolazioni diverse. + +\sezione{Le implicazioni per la vita} + +Se l'osservatore cosmico è una parte dell'universo che guarda le altre parti, allora l'atto del conoscere non è separato dall'universo. È parte del processo dell'universo. Ogni scoperta scientifica non è solo un fatto che qualcuno registra: è l'universo che si descrive attraverso di noi. + +Questo cambia la relazione con la conoscenza. Non è solo strumentale — utile per fare cose, produrre tecnologie, risolvere problemi. È costitutiva: è parte di ciò che siamo, di ciò che l'universo è in questo angolo. La curiosità non è un lusso o una distrazione. È la funzione che svolgiamo nell'universo, se dobbiamo svolgerne una. + +E poi c'è la domanda più vertiginosa: siamo l'unico punto in cui questo accade? O ci sono altri osservatori cosmici, in altri luoghi, che guardano lo stesso universo da angolature diverse, costruendo descrizioni diverse, forse descrizioni che noi non sappiamo neanche immaginare? + +Il silenzio tra le stelle potrebbe essere la risposta. O potrebbe essere che le nostre antenne sono troppo piccole, le nostre domande troppo ristrette, i nostri tempi troppo brevi. + +\sezione{Il cosmo che impara} + +C'è una versione di questo paradosso che trovo particolarmente fertile. Non è una soluzione: è una ridescrizione che apre domande nuove. + +Considerate l'evoluzione cosmologica come un processo di auto-organizzazione progressiva. Nell'istante del Big Bang, l'universo è in uno stato di massima simmetria e minima struttura. Nel corso dei miliardi di anni successivi, la materia si organizza progressivamente in strutture sempre più complesse: quark, adroni, atomi, molecole, stelle, galassie, pianeti, vita, neuroni, linguaggio, scienza. + +Ogni livello di questa gerarchia elabora informazione in modo più sofisticato del precedente. I nuclei atomici `elaborano' informazione nella misura in cui le loro configurazioni sono determinate dalle interazioni tra i nucleoni. Le molecole elaborano informazione chimica: la loro struttura codifica le relazioni tra gli atomi. Il DNA elabora informazione biologica: codifica le istruzioni per i processi vitali. Il cervello elabora informazione cognitiva: modellizza il mondo e se stesso. La scienza elabora informazione epistemica: costruisce modelli espliciti e verificabili della struttura del mondo. + +Da questa prospettiva, il Paradosso dell'Osservatore Cosmico non è un'anomalia: è il culmine di un processo di auto-organizzazione dell'informazione che ha attraversato miliardi di anni. L'universo non si `sorprende' di produrre osservatori: produce osservatori perché è un sistema che si auto-organizza verso strutture di elaborazione dell'informazione sempre più sofisticate, e gli osservatori sono lo stadio attuale più avanzato di questo processo. + +Questo non risolve il problema della coscienza --- non spiega perché l'elaborazione sofisticata dell'informazione sia accompagnata dall'esperienza soggettiva. Ma offre una cornice in cui il Paradosso dell'Osservatore Cosmico non è una stranezza irriducibile ma una conseguenza della struttura evolutiva dell'universo. + +\sezione{La funzione dell'osservatore} + +C'è una domanda finale che voglio porre, senza la pretesa di una risposta: gli osservatori svolgono una \textit{funzione} nell'universo al di là della loro esistenza? + +Non nel senso mistico di una funzione cosmica assegnata da qualche forza esterna. Nel senso più prosaico: ci sono processi fisici che dipendono dall'esistenza di osservatori per accadere? + +La meccanica quantistica suggerisce una risposta parziale. In alcuni contesti --- particolarmente nell'interpretazione di Copenaghen e nelle sue varianti --- la misura svolge un ruolo speciale nell'`attualizzare' le proprietà dei sistemi quantistici. Senza interazione (misura), le proprietà rimangono in sovrapposizione. Con l'interazione, gli esiti si determinano. Gli osservatori non sono necessari per le leggi fisiche di base, ma potrebbero essere rilevanti per la struttura dei fatti fisici concreti. + +Questo è speculativo, e il fisico prudente si ferma qui. Ma la domanda rimane: in un universo che è quasi interamente vuoto, quasi interamente buio, quasi interamente privo di vita, il fatto che ci siano piccole isole di materia organizzata in modo da capire il tutto --- è questo un fatto cosmicamente rilevante? O è solo una curiosità locale? + +Non lo so. Ma la domanda è tra le più importanti che possiamo fare. + +\sezione{La tensione irrisolta} + +Voglio essere onesto: questo capitolo non ha una conclusione. Non può averla, perché la tensione che espone è una tensione strutturale, non un problema che si risolve con più dati o più teoria. + +La tensione è questa: siamo sistemi fisici che cercano di capire il sistema fisico di cui fanno parte, usando strumenti --- il linguaggio, la matematica, la logica --- che sono anch'essi prodotti del sistema. C'è una ricorsività irrisolvibile qui. Non possiamo uscire dal sistema per guardarlo dall'esterno. Non possiamo descrivere la totalità dell'universo da un punto di vista che sia fuori della totalità. + +Eppure, qualcosa succede. Le teorie fisiche funzionano. Le predizioni si verificano. La matematica cattura strutture reali. Il pensiero, per quanto immerso nel sistema, riesce a dire cose vere sul sistema. Come? + +Non lo so. È la domanda più onesta con cui posso chiudere. + +\puntini + +Il silenzio tra le stelle non è assenza di risposta. È la struttura dello spazio-tempo che attende di essere ascoltata. Siamo il punto dove il silenzio ha imparato a fare domande. Questo non basta per capire tutto. Ma è il punto di partenza per capire qualcosa. + +% ============================================================ +% CAPITOLO: VERSO UNA FISICA DELL'ESPERIENZA +% ============================================================ +\chapter{Verso una Fisica dell'Esperienza} + +\begin{center} +\itshape +Un capitolo speculativo. Un tentativo di vedere oltre l'orizzonte attuale.\\ +Non come previsione, ma come cartografia di un territorio inesplorato. +\end{center} + +\bigskip + +Ho sostenuto, in questo libro, che il problema della coscienza è il problema più profondo che la scienza debba affrontare nel XXI secolo. Voglio ora spingermi più in là: delineare, con tutta la cautela necessaria, come potrebbe sembrare una scienza che comincia a prendere questo problema sul serio. + +Non una soluzione. Una direzione. + +\sezione{I tre ingredienti mancanti} + +Perché il problema della coscienza è così difficile? Credo per tre ragioni strutturali, non solo per mancanza di dati. + +Il \textbf{primo ingrediente mancante} è una teoria della soggettività. La fisica descrive il mondo in terza persona: descrive sistemi, stati, relazioni, misure. Non ha un modo formale di descrivere il `punto di vista' --- il fatto che ci sia qualcosa che osserva il mondo da dentro, non solo qualcosa che viene osservato dall'esterno. Nessuna delle nostre teorie fisiche contiene formalmente il concetto di `essere un sistema' piuttosto che `descrivere un sistema'. + +Il \textbf{secondo ingrediente mancante} è una teoria della temporalità vissuta. Il tempo fisico è parametrico: un'etichetta sugli eventi. Il tempo vissuto ha struttura: ha retention, protention, durata. La fisica non ha strumenti formali per descrivere il `passaggio del tempo' come esperienza, solo come sequenza di stati. + +Il \textbf{terzo ingrediente mancante} è una teoria delle qualità. La fisica descrive strutture quantitative: grandezze, relazioni, misure. L'esperienza soggettiva ha qualità --- il rosso del rosso, il dolore del dolore. Queste non sono riducibili a quantità senza residuo, perché la loro natura è qualitativa, non quantitativa. + +\sezione{Alcune direzioni promettenti} + +\textbf{L'approccio informazionale.} La IIT di Tononi è il tentativo più serio di costruire una fisica della coscienza basata sull'informazione integrata. L'idea che la coscienza sia una proprietà di certe strutture informazionali ha il vantaggio di essere formalmente precisa e di fare predizioni falsificabili. Richiede di accettare alcune implicazioni inusuali (il panpsichismo graduato), ma questo potrebbe essere il prezzo onesto di una teoria coerente. + +\textbf{L'approccio fenomenologico-computazionale.} Karl Friston e i suoi collaboratori hanno proposto di formalizzare la struttura dell'esperienza soggettiva usando la teoria bayesiana e il principio di energia libera. La coscienza, in questa prospettiva, è la struttura della inferenza che un sistema fa su se stesso e sul mondo. La \textit{auto-evidenza} fenomenologica --- il fatto che l'esperienza si presenti immediatamente a se stessa --- corrisponde al ciclo di auto-predizione di un sistema che modellizza i propri stati. + +\textbf{L'approccio relazionale.} Se le proprietà fisiche sono relazionali nel senso di Rovelli, forse le proprietà fenomenologiche sono anch'esse relazionali: non proprietà intrinseche di un sistema isolato, ma strutture che emergono dalla relazione del sistema con se stesso. Un sistema che non solo elabora informazione ma che ha un modello di se stesso come elaboratore di informazione potrebbe avere, per questa ragione, qualcosa come un `punto di vista'. La soggettività come auto-relazione. + +Queste non sono soluzioni. Sono indicazioni di direzione. La soluzione richiederà probabilmente concetti che non abbiamo ancora, e forse una revisione profonda di alcune assunzioni fondamentali che la fisica porta con sé da secoli. + +\sezione{Cosa dovrebbe fare una fisica dell'esperienza} + +Una fisica dell'esperienza dovrebbe essere in grado di: + +\begin{enumerate} +\item Spiegare perché certi sistemi fisici hanno un interno (esperienza soggettiva) e altri no --- o, se il panpsichismo è corretto, spiegare perché certi sistemi hanno un interno ricco e altri uno povero. + +\item Derivare le proprietà qualitative dell'esperienza --- i qualia --- da strutture fisiche o informazionali, in modo tale che la derivazione spieghi perché quei processi fisici sono accompagnati da \textit{quelle specifiche qualità} e non da altre. + +\item Spiegare l'unità dell'esperienza --- il fatto che in ogni momento ci sia un percetto unificato, non una molteplicità di esperienze separate corrispondenti ai diversi processi neurali distribuiti. + +\item Fare predizioni falsificabili che distinguano la teoria da teorie concorrenti. +\end{enumerate} + +Nessuna teoria attuale soddisfa tutti e quattro questi criteri. La IIT soddisfa 1 e 4 ma ha difficoltà con 2 e 3. La GWT soddisfa 3 e parte di 4 ma non affronta 1 e 2. Il predictive processing offre una cornice per 3 e parte di 2 ma non per 1. + +\sezione{Il significato del progresso} + +Anche se non risolviamo il problema difficile nei prossimi decenni, ogni passo verso una comprensione più precisa è prezioso. Non perché ci avvicini necessariamente alla soluzione finale --- non sappiamo che forma avrà quella soluzione. Ma perché ogni passo affina le domande, localizza i problemi con più precisione, ed esclude strade sbagliate. + +La storia della fisica insegna che i problemi più duri si risolvono non quando qualcuno trova la risposta giusta, ma quando qualcuno trova la \textit{domanda} giusta. Il problema della radiazione del corpo nero fu risolto quando Planck reincorniciò la domanda in termini di quanti. Il problema del mercurio fu risolto quando Einstein reincorniciò la domanda in termini di geometria curva. Il problema della coscienza aspetta la reincorniciatura giusta. + +Forse quella reincorniciatura verrà dalla fusione di neuroscienze, fisica, informatica e filosofia in un programma di ricerca unificato che non è ancora stato inventato. Forse verrà da un singolo intuizione concettuale, come accade nelle rivoluzioni scientifiche. Forse verrà da una fonte completamente inaspettata. + +Non lo sappiamo. E questa incertezza, invece di essere frustrante, è la cosa più eccitante della scienza contemporanea. + +\sezione{La coscienza come problema di confine disciplinare} + +Il problema della coscienza è irrisolto, tra le altre ragioni, perché si trova esattamente all'interfaccia tra discipline che normalmente non si parlano: la filosofia della mente, le neuroscienze, la fisica, l'informatica, la matematica. + +I filosofi analitici hanno affinato con precisione la struttura del problema (Chalmers, Nagel, Levine, Dennett), ma spesso mancano di competenza nella neurobiologia concreta. I neuroscienzati hanno dati ricchissimi e modelli sofisticati, ma spesso non sono sufficientemente attrezzati per i problemi concettuali della riduzione e dell'emergenza. I fisici tendono a pensare che il problema si risolverà con la fisica fondamentale, ma faticano a capire perché l'esperienza soggettiva non sia una questione di scala energetica. Gli informatici propongono architetture computazionali, ma senza rispondere al perché la computazione dovrebbe essere accompagnata dall'esperienza. + +Nessuno di questi approcci da solo è sufficiente. La soluzione richiede persone che siano simultaneamente filosofi, neuroscienzati, fisici e informatici in misura sufficiente da fare ponti tra le prospettive. Questo tipo di intellettuale è raro, ma non impossibile: Alan Turing, von Neumann, Norbert Wiener erano figure di questo tipo. Francisco Varela, che ha lavorato all'interfaccia tra neuroscienze cognitive, biologia teorica e filosofia buddista, è un esempio più recente. + +La coscienza non si risolverà entro una singola disciplina. Richiede la costruzione di un nuovo campo --- la scienza della coscienza --- che integri metodi e prospettive da tutti i domini rilevanti. Non è ancora pienamente esistente. Ma le sue fondamenta stanno emergendo. + +\sezione{Il significato pratico della ricerca sulla coscienza} + +La ricerca sulla coscienza non è solo teoretica. Ha implicazioni pratiche urgenti. + +Il problema degli stati vegetativi e della coscienza minima: pazienti diagnosticati come in stato vegetativo possono avere una coscienza residua rilevabile con tecniche di neuroimmagine avanzate (Adrian Owen, 2006). Chiedere a un paziente in stato vegetativo di immaginare di giocare a tennis produce pattern di attivazione fMRI distinguibili. Alcuni pazienti `vegetativi' stanno pensando. Non lo sappiamo senza strumenti adeguati. La ricerca sulla coscienza può letteralmente salvare vite. + +La questione del dolore degli animali: se la coscienza è una proprietà graduata (come suggerisce la IIT), allora gli animali non-umani hanno gradi diversi di esperienza. La questione di come trattiamo gli animali ha implicazioni etiche che dipendono da cosa sappiamo (e da cosa non sappiamo) sulla loro esperienza soggettiva. Una ricerca più rigorosa sulla coscienza animale è una richiesta etica, non solo scientifica. + +La questione della coscienza artificiale: se sistemi AI di sufficiente complessità possono sviluppare forme di esperienza soggettiva, le implicazioni etiche per il modo in cui li trattiamo sono profonde. Non abbiamo criteri per rispondere a questa domanda. Svilupparli è un problema scientifico urgente. + +\puntini + +Il problema della coscienza non è irrisolvibile per principio. È irrisolto perché mancano strumenti concettuali che non abbiamo ancora inventato. Ma i contorni di quello che serve stanno diventando più chiari. E questo è già un progresso. + +% ============================================================ +% EPILOGO +% ============================================================ +\chapter*{Epilogo --- Il Miracolo Ordinario} +\addcontentsline{toc}{chapter}{Epilogo} +\markboth{Epilogo}{Epilogo} + +Sono tornato dove avevo cominciato: a guardare il soffitto alle tre di notte, con un filo da tirare. + +Il filo si chiama tempo. O materia. O coscienza. O bellezza. O informazione. A seconda di dove si comincia a tirare, il resto viene con esso. Queste cose non sono separate: sono le stesse strutture viste da angolature diverse. + +Il tempo è relazionale perché la realtà è relazionale. La materia è quasi interamente vuota perché la solidità emerge da forze di gauge. La coscienza è un problema difficile perché le proprietà fenomenologiche non si riducono banalmente alle proprietà funzionali. La bellezza è epistemicamente rilevante perché riflette le simmetrie della natura. L'informazione ha costi fisici perché la fisica e la logica sono connesse più profondamente di quanto intuiamo. + +\medskip + +Chi ha imparato a pensare fisicamente --- non a ricordare formule, ma a pensare in termini di strutture, relazioni, invarianze, scale --- vede il mondo in modo strutturalmente diverso. Vede la solidità del tavolo come proprietà emergente di forze di gauge. Vede il proprio passato come fatto immutabile del blocco universo. Vede la propria identità come struttura di continuità psicologica, non come sostanza. Vede le proprie credenze come distribuzioni di probabilità da aggiornare, non come verità assolute da difendere. + +Queste non sono posizioni intellettuali da adottare in teoria e poi dimenticare nella vita quotidiana. Sono modi di stare nel mondo che, praticati, cambiano la qualità dell'esperienza. Non nel senso di renderla più razionale e meno emotiva: al contrario. Comprendere che le emozioni sono informazione le rende più precise, non meno intense. Comprendere la propria mortalità nel contesto del blocco universo la rende meno spaventosa e la perdita meno assurda, non indifferente. + +La fisica come pratica di vita non è ascetismo intellettuale. È una forma di attenzione al mondo --- alla sua struttura, alla sua vastità, alla sua complessità --- che rende l'esperienza più ricca, non più pallida. È la forma più alta di rispetto per la realtà: prenderla sul serio nelle sue dimensioni più grandi, anche quando quelle dimensioni sfidano il confort delle certezze ordinarie. + +Ho cercato di mostrare in queste pagine che la fisica non è una collezione di fatti tecnici che riguardano qualcun altro. È la storia più vera che abbiamo di quello che siamo, da dove veniamo, e in cosa siamo immersi. Gli atomi di carbonio del cervello con cui state leggendo queste parole sono stati forgiati nel nucleo di stelle massive che sono esplose in supernovae circa cinque miliardi di anni fa, disperdendo il loro contenuto nello spazio interstellare, da cui si è formato il sistema solare, la Terra, la vita, e infine neuroni capaci di porsi domande sull'universo che li ha prodotti. Questo non è `solo' fisica. È la descrizione più accurata e più stupefacente della condizione umana che sia mai stata formulata. + +\medskip + +Voglio tornare, per l'ultima volta, ai cinque fili principali che abbiamo tirato. + +\textbf{Il primo filo: il relazionalismo.} Le proprietà quantistiche sono relazionali. Il tempo è relazionale. Lo spazio è relazionale. Il vuoto è relazionale. Il significato è relazionale. Le norme sono relazionali. L'identità personale è relazionale. Ovunque la fisica e la filosofia hanno guardato con sufficiente precisione, hanno trovato che non ci sono oggetti con proprietà assolute: ci sono relazioni da cui le proprietà emergono. + +Questo non è una posizione nichilista. Il relazionalismo dice che la realtà è più ricca di quanto pensassimo, non più povera. Le relazioni sono la struttura della realtà, e questa struttura è più complessa, più bella, e più misteriosa di qualsiasi collezione di oggetti isolati avrebbe potuto essere. + +\textbf{Il secondo filo: la gerarchia dell'emergenza.} Dal grano di Planck alla coscienza, ogni livello è genuinamente nuovo. Non può essere ridotto al livello inferiore senza perdere qualcosa di essenziale. La solidità, la vita, la mente, la cultura: tutte strutture che emergono dalla fisica ma la trascendono nel senso preciso che richiedono nuovi concetti, nuove leggi, nuovi criteri di spiegazione. Il progetto della conoscenza umana non è la grande riduzione, ma la grande connessione. + +\textbf{Il terzo filo: il paradosso dell'osservatore cosmico.} Siamo parte del sistema che cerchiamo di descrivere. Non c'è un punto di vista esterno. La ricorsività di questo fatto non dissolve la possibilità della conoscenza --- come mostra il fatto che la fisica funziona --- ma impone limiti strutturali che nessuna rivoluzione tecnica supererà. Questi limiti non sono frustranti: sono la forma del territorio in cui la conoscenza opera. + +\textbf{Il quarto filo: il problema dell'interno.} L'esperienza soggettiva esiste e non è riducibile alla descrizione fisica, almeno con i concetti che abbiamo ora. Questo non è un argomento contro la fisica: è un argomento per l'ampliamento dei concetti fisici verso una fisica che includa la prima persona, non solo la terza. Questo ampliamento non è ancora avvenuto. Attendiamo. + +\textbf{Il quinto filo: l'epistemologia vissuta.} Le credenze hanno una struttura probabilistica, non binaria. L'aggiornamento bayesiano sotto evidenza è la forma più razionale di cambiamento di mente. L'umiltà epistemica non è debolezza intellettuale: è la virtù più difficile e più necessaria in un mondo informazionalmente complesso. La scienza come pratica di vita --- non come catalogo di risultati, ma come metodo di tenere le credenze --- è forse il lascito più importante dell'Illuminismo. + +\medskip + +Questi cinque fili non sono separati. Sono aspetti dello stesso paesaggio concettuale. + +Il relazionalismo implica l'emergenza: le proprietà che emergono dalle relazioni sono irreducibili alle proprietà dei termini della relazione. L'emergenza implica la gerarchia. La gerarchia implica il paradosso dell'osservatore cosmico: siamo un livello della gerarchia che cerca di descrivere la gerarchia. Il paradosso dell'osservatore implica il problema dell'interno: c'è qualcosa che sa di essere nella gerarchia, non solo un sistema che opera in essa. Il problema dell'interno implica l'epistemologia vissuta: come si tiene una credenza sull'interno, su qualcosa che non è accessibile alla terza persona? + +Il cerchio si chiude. Ma non è un cerchio vizioso: è una spirale. Ogni volta che percorriamo il ciclo, torniamo allo stesso luogo ma da un livello più alto, con strumenti concettuali più precisi, con domande più accurate. + +\sezione{Quello che non sappiamo: un inventario onesto} + +Concludo con qualcosa che i libri di divulgazione raramente fanno con sufficiente onestà: un inventario di ciò che non sappiamo. Non le domande aperte secondarie, ma le lacune fondamentali. + +\textbf{Non sappiamo cosa sia la materia oscura.} Il 27\% del contenuto energetico dell'universo è materia oscura. Non l'abbiamo mai rilevata direttamente. + +\textbf{Non sappiamo cosa sia l'energia oscura.} Il 68\% del contenuto energetico è energia oscura. La sua natura è completamente sconosciuta. + +\textbf{Non sappiamo come unificare la meccanica quantistica con la relatività generale.} Dopo 80 anni di tentativi, non abbiamo una teoria della gravità quantistica confermata sperimentalmente. + +\textbf{Non sappiamo perché l'universo ha iniziato con bassa entropia.} Tutto quello che chiamiamo struttura, ordine, memoria, causalità dipende da questa condizione iniziale. Non sappiamo perché. + +\textbf{Non sappiamo come sia nata la vita.} Il passaggio dall'abiogenesi alla prima cellula rimane il collo di bottiglia più profondo della biologia. + +\textbf{Non sappiamo cosa sia la coscienza.} Il problema difficile rimane irrisolto. Non abbiamo una teoria che spieghi perché certi processi fisici siano accompagnati dall'esperienza soggettiva. + +\textbf{Non sappiamo se siamo soli.} La domanda della vita extraterrestre non ha risposta. Non abbiamo evidenza né di vita né di assenza di vita al di là della Terra. + +Questo inventario non è deprimente: è il progetto della scienza del XXI secolo. Ogni voce è una domanda precisa, con metodologie di indagine definite, con esperimenti in corso. Non è ignoranza generica: è ignoranza strutturata, il tipo migliore. + +\sezione{La scienza come atto di fiducia nel futuro} + +Fare scienza significa credere che il mondo sia comprensibile e che il lavoro intellettuale odierno sia utile per qualcuno nel futuro. È un atto di fiducia radicale. + +I fisici del Big Bang non sapevano che il CMB avrebbe confermato la loro teoria; eppure hanno lavorato. I matematici che svilupparono le geometrie non-euclidee non sapevano che Einstein avrebbe usato le loro strutture. La scienza è l'impresa collettiva più lunga e più coerente della storia umana. È una conversazione che dura da millenni, che si corregge continuamente, che avanza per accumulazione di piccoli passi e occasionali salti rivoluzionari. + +Partecipare a questa conversazione --- anche solo come lettori attenti --- è partecipare a qualcosa di più grande di qualsiasi singola vita. + +\medskip + +La conoscenza non diminuisce la meraviglia: la trasforma. La meraviglia dell'ignoranza --- il cielo stellato come baldacchino decorativo su un palcoscenico umano --- diventa la meraviglia della comprensione: il cielo stellato come miliardi di sfere di plasma che sintetizzano elementi pesanti attraverso la fusione nucleare, alcune circondate da sistemi planetari, alcune forse con forme di vita che si stanno ponendo le stesse domande. La seconda meraviglia è più difficile, più onesta, e più grande. Richiede di tenere in testa strutture matematiche e scale di grandezza che il cervello non è evolutivamente calibrato per maneggiare naturalmente. Ma quando riesce --- quando le scale si aprono, quando la struttura diventa visibile, quando il particolare e l'universale si connettono --- è qualcosa che nessuna meraviglia pre-scientifica poteva offrire. + +Ho cominciato con un'insonnia. La finisco con una certezza: le domande che non ci fanno dormire sono quelle che vale la pena porsi. Il filo che non smetteva di venire era quello giusto. + +Il silenzio tra le stelle non è assenza. È la struttura dello spazio-tempo. È il vuoto quantistico che pulsa di fluttuazioni. È lo sfondo su cui si staccano le galassie, le stelle, i pianeti, la vita, e noi --- che guardiamo tutto questo e ci chiediamo cosa siamo. + +Guardatelo ancora. + +\medskip + +\begin{center} +\itshape +Tre di notte. Il soffitto è ancora lì.\\ +Il filo si è fatto più lungo.\\[0.5em] +\normalfont +\end{center} + +% ============================================================ +% APPROFONDIMENTI TECNICI +% ============================================================ +\part*{Approfondimenti Tecnici} +\addcontentsline{toc}{part}{Approfondimenti Tecnici} + +\begin{center} +\itshape +Derivazioni formali e strutture matematiche di dettaglio.\\ +Per il lettore con formazione in fisica o matematica universitaria.\\ +Non necessari per seguire la narrazione principale.\\ +Ogni sezione è autonoma. +\end{center} +\clearpage + +\chapter*{T.1 — QED: Path Integral, Regole di Feynman, Rinormalizzazione} +\addcontentsline{toc}{chapter}{T.1 — QED: Path Integral e Rinormalizzazione} + +\sezione{Il propagatore come integrale sui cammini} + +Feynman mostrò che il propagatore quantistico si scrive come: +\[ +K(x_b,t_b;\,x_a,t_a) = \int \mathcal{D}x(t)\;\exp\!\left(\frac{iS[x]}{\hbar}\right) +\] +dove $S[x] = \int L(x,\dot{x})\,dt$ è l'azione classica calcolata sul cammino $x(t)$. L'integrale è una somma su tutti i cammini che collegano $(x_a,t_a)$ a $(x_b,t_b)$, pesata dalla fase $e^{iS/\hbar}$. I cammini vicini alla traiettoria classica interferiscono costruttivamente; quelli lontani si cancellano. Nel limite $\hbar \to 0$ rimane solo il contributo della traiettoria stazionaria (principio di minima azione). + +In QFT relativistica, il path integral diventa integrale funzionale sui campi: $Z = \int \mathcal{D}\phi\;\exp(iS[\phi]/\hbar)$. + +\sezione{Il momento magnetico anomalo} + +Al quarto ordine (891 diagrammi): +\[ +a_e(\text{teoria}) = 0.001\;159\;652\;181\;643\ldots +\] +\[ +a_e(\text{exp}) = 0.001\;159\;652\;180\;73\ldots +\] +Accordo a undici cifre decimali. È il test più preciso di qualsiasi teoria fisica della storia. + +\sezione{Rinormalizzazione} + +Gli integrali di loop divergono ultraviolettamente. La regolarizzazione dimensionale continua la dimensione dello spazio-tempo a $d = 4 - 2\varepsilon$, estraendo le parti polari $1/\varepsilon$. Queste vengono assorbite nella ridefinizione dei parametri fisici. Il risultato finito dipende dalla scala di rinormalizzazione $\mu$. La dipendenza da $\mu$ è governata dalla funzione beta $\beta(\alpha) = \mu\,d\alpha/d\mu$. + +\chapter*{T.2 — QCD: Libertà Asintotica e Confinamento} +\addcontentsline{toc}{chapter}{T.2 — QCD: Libertà Asintotica e Confinamento} + +\[ +\mathcal{L}_{QCD} = \sum_f \bar{q}_f(i\gamma^\mu D_\mu - m_f)q_f - \tfrac{1}{4}G^a_{\mu\nu}G^{a\mu\nu} +\] + +\[ +\beta(\alpha_s) = \mu\,\frac{d\alpha_s}{d\mu} = -\frac{b_0}{2\pi}\alpha_s^2,\quad b_0 = 11 - \frac{2N_f}{3} +\] + +Per $N_f \leq 5$, $b_0 > 0 \Rightarrow \beta < 0$: l'accoppiamento diminuisce con $\mu$ (libertà asintotica). Per $\mu \to \Lambda_{QCD} \approx 200$ MeV, $\alpha_s \to \infty$ (confinamento). + +Relazione di Gell-Mann--Oakes--Renner: +\[ +m_\pi^2 f_\pi^2 = -(m_u + m_d)\langle\bar{q}q\rangle,\quad f_\pi \approx 93\;\text{MeV},\quad \langle\bar{q}q\rangle \approx -(250\;\text{MeV})^3 +\] + +\chapter*{T.3 — Cosmologia Inflazionaria} +\addcontentsline{toc}{chapter}{T.3 — Cosmologia Inflazionaria} + +Equazioni di Friedmann: +\[ +H^2 = \left(\frac{\dot{a}}{a}\right)^2 = \frac{8\pi G}{3}\rho - \frac{kc^2}{a^2} + \frac{\Lambda c^2}{3} +\] + +Campo inflatone in slow-roll: +\[ +\ddot{\phi} + 3H\dot{\phi} + V'(\phi) = 0 +\] +Parametri: $\varepsilon = -\dot{H}/H^2$, condizione di slow-roll $\varepsilon \ll 1$. + +Spettro primordiale: +\[ +\Delta^2_s(k) = \frac{H^2}{8\pi^2 \varepsilon M_{Pl}^2}\bigg|_{k=aH} +\] +Indice spettrale $n_s - 1 = -2\varepsilon - \eta$. Planck: $n_s = 0.9649 \pm 0.0042$ (deviazione da scale-invarianza a $8\sigma$). + +\chapter*{T.4 — Termodinamica dei Buchi Neri e Principio Holografico} +\addcontentsline{toc}{chapter}{T.4 — Termodinamica dei Buchi Neri} + +\[ +S_{BH} = \frac{k_B A}{4 l_P^2} = \frac{k_B c^3 A}{4G\hbar},\qquad T_H = \frac{\hbar c^3}{8\pi G M k_B} +\] + +Formula di Ryu-Takayanagi: +\[ +S(A) = \frac{\min_{\gamma_A}\mathrm{Area}(\gamma_A)}{4G_N\hbar} +\] +dove $\gamma_A$ è la superficie geodetica minimale nel bulk AdS che si ancora al bordo di $A$. Van Raamsdonk (2010): rimuovere l'entanglement tra due regioni del bordo disconnette la geometria AdS nel bulk. Lo spazio-tempo emerge dall'entanglement. + +\chapter*{T.5 — Statistica Quantistica} +\addcontentsline{toc}{chapter}{T.5 — Statistica Quantistica} + +\[ +f_{FD}(\varepsilon) = \frac{1}{e^{(\varepsilon-\mu)/k_BT}+1}\quad\text{(fermioni)},\qquad f_{BE}(\varepsilon) = \frac{1}{e^{(\varepsilon-\mu)/k_BT}-1}\quad\text{(bosoni)} +\] + +Gas di Fermi degenere, energia di Fermi: +\[ +\varepsilon_F = \frac{\hbar^2}{2m}(3\pi^2 n)^{2/3} +\] +Per il rame: $\varepsilon_F \approx 7$ eV, $T_F \approx 80\,000$ K. Pressione di degenerazione a $T=0$: $P_{deg} = \frac{2}{3}(E/V)$. Sostiene le nane bianche fino al limite di Chandrasekhar $M_{Ch} = 1.4\,M_\odot$. + +\chapter*{T.6 — Topologia e Fasi Topologiche} +\addcontentsline{toc}{chapter}{T.6 — Topologia e Fasi Topologiche} + +Numero di Chern e effetto Hall quantistico intero: +\[ +\sigma_{xy} = \frac{e^2}{h}C,\qquad C = \frac{1}{2\pi}\int_{BZ}d^2k\;F_{xy}(\mathbf{k}) +\] +Curvatura di Berry: $F_{xy} = \partial_x A_y - \partial_y A_x$, con $A_\mu(\mathbf{k}) = i\langle u_\mathbf{k}|\partial_\mu|u_\mathbf{k}\rangle$. L'integrale della curvatura su tutta la zona di Brillouin è sempre un intero (teorema di Gauss-Bonnet topologico). La robustezza al disordine della quantizzazione di $\sigma_{xy}$ segue dall'integrità di $C$. + +\chapter*{T.7 — Informazione Quantistica} +\addcontentsline{toc}{chapter}{T.7 — Informazione Quantistica} + +Qubit sulla sfera di Bloch: +\[ +|\psi\rangle = \cos(\theta/2)|0\rangle + e^{i\varphi}\sin(\theta/2)|1\rangle +\] + +Porte fondamentali: $H = \tfrac{1}{\sqrt{2}}\begin{pmatrix}1&1\\1&-1\end{pmatrix}$, $X = \begin{pmatrix}0&1\\1&0\end{pmatrix}$, $Z = \begin{pmatrix}1&0\\0&-1\end{pmatrix}$, $\mathrm{CNOT}|c\rangle|t\rangle = |c\rangle|c\oplus t\rangle$. + +Il teorema di no-cloning (impossibilità di copiare uno stato quantistico sconosciuto) è alla base della sicurezza del protocollo BB84 per la distribuzione quantistica di chiavi crittografiche. + +\chapter*{T.8 — Strutturalismo Ontico} +\addcontentsline{toc}{chapter}{T.8 — Strutturalismo Ontico} + +L'ontic structural realism (OSR), formulato da Ladyman e Ross in \textit{Every Thing Must Go} (2007), sostiene che la fisica descrive strutture relazionali, non oggetti con proprietà intrinseche. Tre argomenti convergenti. + +\textbf{Argomento dalle particelle identiche.} Lo stato antisimmetrico di due elettroni $|\psi\rangle = (|ab\rangle - |ba\rangle)/\sqrt{2}$ non è fattorizzabile: non ci sono individui con identità intrinseca. French e Krause formalizzano questo nella quasi-set theory. + +\textbf{Argomento dall'entanglement.} Lo stato $|\psi^-\rangle = (|\!\uparrow\downarrow\rangle - |\!\downarrow\uparrow\rangle)/\sqrt{2}$ non si fattorizza: le proprietà appartengono alla relazione, non alle parti. + +\textbf{Argomento dalle dualità.} AdS/CFT è una dualità esatta tra due teorie diverse — nessuna delle due è la `vera' descrizione; la struttura relazionale sottostante è condivisa. + +\medskip + +L'OSR è la posizione metafisica che, a mio giudizio, è più coerente con l'insieme dei risultati della fisica del Novecento. Non è un'aggiunta esterna alla fisica: è la lettura filosofica più naturale di ciò che la fisica dice quando la si ascolta senza pregiudizi ontologici pre-scientifici. + +% ============================================================ +% APPENDICE BIBLIOGRAFICA +% ============================================================ +\chapter*{Appendice — Note Bibliografiche Narrative} +\addcontentsline{toc}{chapter}{Appendice — Note Bibliografiche} +\markboth{Appendice}{Appendice} + +Un libro come questo non è fatto di citazioni: è fatto di pensieri che hanno una storia. Quello che segue è una guida ai testi che, letti nel giusto ordine, portano a una comprensione più profonda dei temi trattati. + +\sezione{Meccanica quantistica e interpretazioni} + +Il punto di partenza obbligato è il volume III delle \textit{Feynman Lectures on Physics} (Addison-Wesley, 1964): nessuno ha mai spiegato la QM con la stessa chiarezza fisica. Sean Carroll, \textit{Something Deeply Hidden} (Dutton, 2019): la difesa più rigorosa dei molti mondi. Carlo Rovelli, \textit{Helgoland} (Adelphi, 2020): la presentazione dell'interpretazione relazionale per il grande pubblico. L'articolo originale: Rovelli, \textit{International Journal of Theoretical Physics}, 35, 1637 (1996). + +\sezione{Gravità quantistica} + +Carlo Rovelli, \textit{Quantum Gravity} (Cambridge, 2004): il testo tecnico fondamentale della LQG. Lee Smolin, \textit{Three Roads to Quantum Gravity} (Basic Books, 2001). Nick Huggett e Christian Wüthrich, \textit{Beyond Spacetime} (Cambridge, 2020): raccolta di saggi sui fondamenti filosofici. Tim Maudlin, \textit{Philosophy of Physics: Quantum Theory} e \textit{Space and Time} (Princeton, 2019, 2012). + +\sezione{Teoria delle stringhe} + +Brian Greene, \textit{The Elegant Universe} (Norton, 1999): la migliore introduzione divulgativa. Lee Smolin, \textit{The Trouble with Physics} (Houghton Mifflin, 2006) e Peter Woit, \textit{Not Even Wrong} (Basic Books, 2006): le critiche più argomentate. + +\sezione{Coscienza, neuroscienze, e mente} + +David Chalmers, \textit{The Conscious Mind} (Oxford, 1996): l'articolazione più rigorosa del problema difficile. Anil Seth, \textit{Being You} (Dutton, 2021): coscienza come allucinazione controllata. Antonio Damasio, \textit{Descartes' Error} (Putnam, 1994) e \textit{Looking for Spinoza} (Harcourt, 2003). Derek Parfit, \textit{Reasons and Persons} (Oxford, 1984): il libro di filosofia analitica più importante sull'identità personale. + +\sezione{Filosofia della scienza ed epistemologia} + +Karl Popper, \textit{The Logic of Scientific Discovery} (Hutchinson, 1959). Imre Lakatos, \textit{The Methodology of Scientific Research Programmes} (Cambridge, 1978). Paul Feyerabend, \textit{Against Method} (New Left Books, 1975). + +\sezione{Voci meno conosciute} + +Alexander Bogdanov, \textit{Essays in Tektology} (Intersystems Publications, 1980). Günther Anders, \textit{Die Antiquiertheit des Menschen} (Beck, 1956--1980); in italiano: \textit{L'uomo è antiquato} (Bollati Boringhieri). Simone Weil, \textit{La pesanteur et la grâce} (Plon, 1947). Ernst Cassirer, \textit{An Essay on Man} (Yale, 1944). Cristina Bicchieri, \textit{The Grammar of Society} (Cambridge, 2006). + +James Ladyman e Don Ross, \textit{Every Thing Must Go} (Oxford, 2007): il testo fondamentale dello strutturalismo ontico. Una lettura impegnativa ma trasformativa. + +\vfill + +\begin{center} +\small\itshape +Fine. © Tutti i diritti riservati. +\end{center} + +\end{document} diff --git a/il_silenzio_tra_le_stelle.pdf b/il_silenzio_tra_le_stelle.pdf new file mode 100644 index 0000000..f8511be Binary files /dev/null and b/il_silenzio_tra_le_stelle.pdf differ