Tag

, , ,

Una posizione speculativa (almeno per il momento) ma molto interessante, in fisica, è quella che cerca di interpretare la realtà come pura informazione.

Che cos’è l’informazione? Può sembrare strano, ma questa domanda non ha, per ora, una risposta che convinca tutti. L’informazione si comporta come il tempo di s. Agostino: sappiamo benissimo che cos’è, ma nessuno sa davvero definirla. Dal punto di vista informatico, si potrebbe dire che l’informazione consiste in “dati contestualizzati”: 1955, oppure Bill, di per sé non significano nulla, sono puri dati. Se invece dico Bill [Gates] è nato nel 1955, sto fornendo un’informazione. In fisica il termine informazione assume un significato leggermente diverso: l’informazione associata a un oggetto, o a un sistema, non è altro che l’insieme delle variabili di stato necessarie per descriverlo.

Proprio come il tempo di s. Agostino, anche l’informazione è più semplice da misurare che da definire. Nel 1948 il matematico statunitense Claude Shannon pubblicò un articolo intitolato A Mathematical Theory of Communication, in cui pose le basi di tale misura. L’idea di Shannon può essere riassunta così: la quantità di informazione contenuta in un messaggio cresce con il numero di bit necessari per codificare il messaggio stesso. Dal punto di vista matematico, la formula di Shannon è leggermente troppo complicata per essere riportata qui; in sostanza, comunque, è il bit che sta alla base del contenuto informativo.

Ci sono alcuni aspetti in apparenza paradossali nella definizione di Shannon. In primo luogo, nella maggior parte dei casi non sappiamo veramente come misurare la quantità di informazione contenuta in qualcosa. Sembrerebbe naturale interpretare la definizione di Shannon tenendo conto del minimo numero di bit necessari per codificare un certo contenuto, ma come si fa a calcolare questo minimo? A questo proposito sono state avanzate diverse proposte ingegnose, ma non esiste a tutt’oggi un algoritmo in grado di risolvere completamente il problema.

Immaginiamo un messaggio composto da un milione di lettere dell’alfabeto italiano. Dato che tali lettere sono 21, ci bastano 5 bit per rappresentare ogni lettera (in realtà, con 5 bit possiamo scrivere qualsiasi numero tra 0 e 31; c’è quindi una leggera “ridondanza di spazio” nei nostri 5 bit. Per il momento ignoriamo questo problema, la cui analisi ci porterebbe lontano). Il punto è che i 5 milioni di bit che servirebbero per scrivere le lettere, in alcuni casi sono decisamente troppi. Se, per esempio, le lettere che dobbiamo scrivere sono “ABABABAB…”, anziché scriverle potremmo codificare un algoritmo del tipo: “AB per 500.000 volte”. E’ evidente che la scrittura di tale algoritmo richiede meno di 5 milioni di bit!

Tutti noi, nella vita, ci siamo imbattuti in questo problema, anche se magari non ne eravamo consapevoli. Prendiamo il caso di una fotografia, memorizzata in un file sul nostro computer. Facciamo l’ipotesi che le sue dimensioni siano 1.000 x 1.000 pixel. Se usiamo una codifica RGB, ogni pixel ha bisogno di 3 byte per essere codificato. Le dimensioni complessive della fotografia sarebbero quindi 3 milioni di byte, e questa dovrebbe essere la “dimensione di Shannon” dell’informazione contenuta nella fotografia . Tutti sappiamo, però, che nella maggior parte dei casi il file che contiene la foto è molto più piccolo di 3 Mb. Il trucco consiste nell’uso di formati immagine intrinsecamente compressi, di cui il più usato è tuttora il jpg. Se salvo sul computer un’immagine in formato jpg, l’operazione di salvataggio attiva un algoritmo di compressione, che recupera (non fino al minimo teorico, ma in misura molto grande) lo “spazio informativo in eccesso”, riducendo le dimensioni del file.

Per verificarlo direttamente, possiamo caricare una qualsiasi immagine in un programma che permetta il salvataggio dell’immagine stessa in diversi formati, e poi salvarla in formato jpg e, per esempio, bmp (il formato bmp non utilizza un algoritmo di compressione). Il file bmp sarà molto più grande del suo corrispondente jpg. Se adesso usiamo un programma di compressione, come WinZip, e trasformiamo in formato zip entrambi i file, ci accorgiamo che le loro dimensioni sono diventate molto simili. La compressione in formato zip permette di guadagnare molto su un file non compresso (bmp), ma molto poco sul jpg che è già stato compresso in fase di scrittura. Ci avviciniamo al limite di Shannon (ma non lo raggiungiamo!)

C’è un aspetto apparentemente paradossale in tutto ciò. Immaginiamo un’immagine completamente bianca, con un unica riga nera orizzontale al centro. Per l’algoritmo di compressione, sarebbe uno scherzo ridurla a pochi byte. Basterebbe codificare l’immagine nel seguente modo: “500 righe da 1.000 pixel bianche; 1 riga da 1.000 pixel nera; 499 righe da 1.000 pixel bianche”. In generale, più l’immagine è simmetrica, ordinata, strutturata, più è semplice per l’algoritmo ridurne le dimensioni. L’unico caso in cui la compressione non è possibile è quello in cui l’immagine stessa è composta da pixel distribuiti a caso. Quando questo avviene, l’algoritmo non trova altro modo per descriverla che codificare il colore di ciascun pixel, e il minimo di Shannon coincide con il massimo teorico di 3 milioni di byte. In altre parole: il massimo dell’informazione è contenuto in un’immagine casuale; tuttavia un’immagine di questo tipo è quella che contiene meno informazione possibile, dal nostro punto di vista!

La “spiegazione” del paradosso può essere trovata riflettendo sul fatto che la misura di Shannon non entra nel merito della semantica del messaggio. Dal punto di vista umano, il concetto intuitivo di informazione è sempre semantico; tuttavia questo modo di intendere l’informazione deriva per forza da qualche modello generale che specifica la semantica stessa. Per noi la parola “CANE” ha un significato, mentre la parola “HDRT” non ne ha, anche se entrambe sono composte da 4 lettere. Il motivo è che “CANE” può essere interpretato nel contesto del modello del mondo che abbiamo in testa, modello in qualche modo descritto dalla lingua. Trasmettere “CANE” e insieme il modello necessario per interpretare la parola comporterebbe ben più dei byte richiesti per trasmettere soltanto “CANE”.

L’universo fisico coincide con il suo contenuto informativo? Bella domanda. Si sarebbe tentati di rispondere “sì”: in effetti non si capisce che cosa possa esserci “oltre” il contenuto informativo dell’universo. E’ vero che la scienza ci sta abituando alle proprietà (e perfino ai concetti) emergenti: lo spazio, il tempo, le leggi della fisica potrebbero “emergere” da una realtà sottostante sulla scala di Plank, o forse ancora più essenziale. In ogni caso, limitandoci alle scale dimensionali che possiamo tenere sotto controllo, il fatto che l’universo coincida con il suo contenuto informativo ha diverse implicazioni, alcune interessanti, altre perfino inquietanti.

Se è vero che “CANE” acquista il suo significato semantico solo nel momento in cui si confronta con un modello linguistico – concettuale, che ne è del mondo dei fenomeni? Esiste un “modello” generale che fornisce loro significato? Se sì, dove sta? Nelle nostre menti? Questo modo di vedere le cose fa pensare che la nostra conoscenza dell’universo sia molto più soggettiva di quanto la fisica occidentale abbia mai amato ammettere. Del resto, negli ultimi anni è diventato di moda speculare su questo aspetto. Per quello che ricordo, fu Fritjof Capra con Il tao della fisica ad inaugurare questa corrente di pensiero tra gli scienziati occidentali.

L’informazione, tuttavia, potrebbe a sua volta essere “fisicamente data”. Per fare un esempio: all’inizio degli anni ’80 Stephen Hawking fece notare che, in linea di principio, un buco nero è in grado di distruggere informazione. Questo fatto è considerato paradossale da tutti i fisici: la conservazione dell’informazione (cioè della quantità di variabili necessarie per descrivere un sistema fisico) non solo sembra necessaria logicamente, ma è anche alla base della meccanica quantistica come la conosciamo. Sono state avanzate diverse proposte per risolvere il paradosso di Hawking (nel cui merito non posso ovviamente entrare; a dire il vero, non sono entrato molto neppure nel merito del paradosso stesso, ma il lettore mi perdonerà). Una delle più interessanti è legata a un’idea del premio nobel Gerard ‘t Hooft, sviluppata in particolare dal fisico teorico stringhista Leonard Susskind, e detta principio olografico.

Come (più o meno) tutti sappiamo, un ologramma è una superficie trasparente sulla quale sono tracciati dei complessi ghirigori, invisibili a occhio nudo. Essi non sono altro che la figura d’interferenza ottenuta illuminando un oggetto in modo particolare. Illuminando a sua volta la superficie, essa proietta un’immagine tridimensionale perfetta dell’oggetto che vi è rappresentato. Si potrebbe dire che il contenuto informativo dell’oggetto (tridimensionale) è mappato sulla superficie (bidimensionale) della lastra utilizzata. T’Hooft fa l’ipotesi che in ogni caso il contenuto informativo di un oggetto (reale) possa essere mappato sulla superficie che lo racchiude; In particolare, tale contenuto corrisponderebbe a una “mappa di bit”, dove ciascun bit occuperebbe uno spazio corrispondente a un’area di Plank (la più piccola superficie che si possa considerare, entro l’ambito di validità della fisica che conosciamo).

Il principio olografico potrebbe risolvere il paradosso di Hawking, se si ammette che un oggetto catturato da un buco nero lasci la sua traccia sulla “superficie” del buco nero stesso.

Per chi fosse interessato, c’è un bellissimo filmato in streaming su YouTube in cui gli stessi protagonisti (‘t Hooft e Susskind) insieme ad altri discutono del principio olografico e del suo significato. Il filmato è stato girato nel contesto del World Science Festival (detto per inciso: quanto sarebbe bello se anche in Italia si organizzassero manifestazioni di questo tipo! E’ pur vero che in America è più facile reperire i premi Nobel da invitare). Altri filmati nel contesto del World Science Festval su temi simili sono questo (in cui Brian Greene, lo speker, annuncia la presenza di Hawking in sala, ma lo scienziato in glese non partecipa al dibattito) e questo, in cui Susskind risponde ad alcune domande sul principio olografico.

A parte il paradosso dell’informazione, da quando è stato enunciato il principio olografico ha scatenato un putiferio di speculazioni scientifico – filosofiche. Tra le altre la seguente: se l’universo coincide con il suo contenuto informativo, i fenomeni che osserviamo corrispondono in qualche modo a processi software, in cui l’informazione stessa viene rielaborata. Vorrei riportare due citazioni a proposito, prese dal libro Menti, macchine e multiverso di Julian Brown (Einaudi 2003):

…Fredkin si domandò dove potesse portare tale tendenza [la quantizzazione]. La sua risposta fu radicale: tutto – pensò – deve essere quantizzato. Lo spazio, il tempo e tutte le proprietà della materia, nel suo schema, sono necessariamente composte da singole unità indivisibili, di modo che nulla è continuo. […] Fredkin capì che un universo in cui tutto fosse quantizzato sarebbe analogo a un computer digitale, perché in entrambi tutto sarebbe discreto e finito. In effetti, la differenza tra la visione dell’universo di Fredkin e la concezione tradizionale è simile alla differenza tra i computer digitali e quelli analogici. L’idea che l’universo sia un gigantesco computer digitale che elabora informazione è una concezione per la quale Fredkin è diventato famoso, o forse tristemente famoso.

…Anche se i computer e gli automi cellulari possono modellare diversi aspetti della fisica, Toffoli e Margolus vedono la connessione come una via a doppio senso. Anche se si astengono entrambi dall’appoggiare le tesi più ardite di Fredkin, per il quale l’universo è un computer, poi predicano la stessa dottrina descrivendo la fisica come un processo computazionale. Toffoli, per esempio, ha scritto in un articolo che “la natura ha continuato a calcolare lo stato successivo dell’universo per miliardi di anni…”

La domanda (ovvia) è la seguente: nel caso dell’applicazione del principio olografico al paradosso di Hawking, per lo meno ci viene detto che l’informazione è conservata sulla superficie del buco nero (anche se, in realtà, non si sa come). Andando oltre, e supponendo che l’universo abbia “ricalcolato il suo stato” per miliardi di anni, dov’è la memoria su cui si è appoggiato? Dove sta il processore?

Non vorrei sembrare distruttivo. Quando Copernico pubblicò il De revolutionibus orbium celestium, la domanda (ancora più ovvia) era: se è vero che i pianeti ruotano intorno al Sole, qual è la forza che li trattiene, e che impedisce loro di disperdersi nello spazio? Ai tempi di Copernico questa domanda era del tutto priva di risposte. Qualcosa di simile potrebbe capitare nel caso dell’idea dell’universo – computer. Ho il sospetto che la risposta (se c’è) non possa essere cercata se non in quel livello irraggiungibile della realtà da cui emergono lo spazio, il tempo e le leggi fisiche (ammesso, naturalmente, che questo livello esista).

Non potendo andare oltre questo punto, mi limito a pubblicare sul blog un racconto di fantascienza intitolato Backdoor, in cui l’idea dell’universo computer viene garbatamente presa in giro. Non me ne vogliano Fredkin, Toffoli, Margolus e tutti gli altri sostenitori di questo interessante punto di vista.