Saturday, September 05, 2009

Caso, caos, casualità e causalità

Ecco un altro caso in cui è impossibile fare una citazione parziale. Quello che segue è il testo del capitolo "Parole a caso" tratto dal libro Un Matematico Impertinente di Piergiorgio Odifreddi (2005, Longanesi Editore)

"Il 9 Ottobre 1967, il rivoluzionario argentino Ernesto Che Guevara è stato assassinato per ordine del dittatore boliviano Barrientos, su diretto suggerimento telefonico del presidente statunitense Lyndon Johnson. Era stato arrestato il giorno prima a Valleverde e in tasca gli era stato trovato un foglio con una lunga sequenza casuale di numeri, senza alcun ordine apparente.
Come lo stesso Che racconta nel Diario di Bolivia, la sequenza gli serviva per codificare i messaggi scambiati con Castro secondo il classico metodo Vernam. Il testo da cifrare veniva anzitutto tradotto, secondo una tabella fissa, in una sequenza di numeri che veniva poi appaiata, cifra per cifra, alla sequenza casuale che costituiva la chiave. Il messaggio codificato consisteva della sequenza di numeri ottenuti sommando il messaggio originale e la chiave, cifra per cifra e senza riporti.
Il metodo era, e rimane, perfettamente sicuro: se la chiave è effettivamente casuale, lo diventa anche il messaggio codificato, che può essere decodificato soltanto possendendo la chiave stessa. Il problema sta, appunto, nel «se»: esistono sequenze di numeri veramente casuali? E, più in generale, esiste il caso? Naturalmente, per poter rispondere alla domanda, bisogna prima capire cosa significhino «caso» e «casualità»: un compito reso arduo dalla pericolosa assonanza di queste parole con altre dal significato apparentemente lontano.
Per caso, ammesso che qualcosa possa essere casuale, «caso» e «casualità» si trasformano infatti, per metatesi, in «caos» e «causalità»: due opposti che richiamano, rispettivamente, l'assoluta imperfezione del disordine totale e la totale perfezione dell'ordine assoluto. Una simile divergenza ricorda la rottura di un equilibrio instabile, come quello in cui si trova un masso sulla sommità di una collina, che può casualmente cadere da una parte o dall'altra e finire in due vallate completamente diverse fra loro.
Non a caso, ammesso che qualcosa possa non essere casuale, la parola «caso» deriva poi dal Latino casum, «caduta» o «accadimento» e traduce l'analogo greco ptòtis. Lo stesso significato aveva cadentia, «cadenza», che poi è diventata cheance in Francese e chance in Inglese. E lo stesso vale per randomness, che deriva dal Francese arcaico randon: «cascata», «impeto» o «precipizio». Insomma, il caso è assimilato a eventi come l'inciampo, la scivolata o la caduta, che rompono il naturale decorso della necessità, alla quale il caso si opponeva nel titolo di un best-seller di Jacques Monod.
Sembrerebbe dunque che «casualità» e «causalità» siano due corni di un dilemma, due opposizioni che si interdefiniscono per negazione reciproca. Ma la supposizione è solo una mancanza di fantasia, analoga alla restrizione a due soli valori di verità (vero/falso) effettuata dalla logica classica: Carl Gustav Jung e Wolfang Pauli hanno più inventivamente postulato, nel loro libro Sincronicità, la possibilità di eventi collegati da relazioni non casuali e non causali, e John Bell ne ha dimostrato l'esistenza nel mondo quantistico in un famoso teorema, confermato sperimentalmente in una saga descritta da Amir Aczel in Entanglement (Cortina 2004).
Casualità e causalità non esauriscono dunque lo spettro delle relazioni che si aggirano per il mondo: in altre parole, non sono concetti complementari fra loro. E che non siano neppure contrapposti, lo dimostra il gran parlare che da qualche decennio si fa di caos deterministico: di comportamenti, cioè, la cui apparente completa casualità è determinata non tanto dalla mancanza di leggi che li governano, quanto piuttosto dalla loro estrema sensibilità alle condizioni di partenza, che li rendono appunto imprevedibili in un senso più sottile di quello dei sistemi che si evolvono senza leggi apparenti.
Che, comunque, casualità e causalità non fossero contrapposte, lo si sapeva ormai da alcuni secoli. Da quando, cioè, la teoria delle probabilità aveva scoperto ossimoriche leggi del caso per quei paradigmi di casualità che sono i fenomeni «aleatori»: un termine che deriva da alea, «dadi», e che si riferisce appunto allimprevedibilità che ne regola i tiri, quando i dadi siano non truccati.
I primi fondamenti della probabilità erano stati posti da Cardano nel 1526, in un testo significativamente intitolato Liber de ludo aleae (Libro del gioco dei dadi), ma soltanto nel 1933 Kolmogorov è riuscito ad assiomatizzare in maniera soddisfacente la nozione di probabilità. Tra i due estremi, si sono scoperte interessanti proprietà del caso, prima fra tutta la famosa distribuzione a campana che va sotto il nome di curva di Gauss: la stessa, cioè, che si forma automaticamente ai caselli autostradali, quando la maggior parte delle auto si assiepa al centro e la minor parte si distribuisce ai lati.
Le sorprendenti applicazioni della teoria della probabilità alla descrizione dei fenomeni naturali, dalla meccanica statistica a quella quantistica, suggeriscono che il caso la fa da padrone nell'evoluzione dell'universo. Addirittura, e qualunque cosa questo significhi, le costituenti «elementari» della materia non sarebbero altro che onde di probabilità, che si evolvono deterministicamente nel tempo in un'ossimorica combinazione descritta dalla famosa equazione di Schrödinger.
Ma non c'è bisogno di scendere a livello subatomico per sperimentare l'incessante attività del caso: basta osservare in un microscopio il moto browniano delle impurità dell'acqua, scoperto nel 1827 da Robert Brown e spiegato nel 1905 da Albert Einstein come risultato del moto spontaneo delle molecole del liquido. La stessa cosa succede con il movimento del pulviscolo atmosferico o l'andirivieni della folla o le serpentine di un ubriaco: le quali gli permetteranno sorprendentemente, in base al teorema del cammino casuale, di arrivare alla lunga con certezza alla porta di casa, anche se non necessariamente al proprio appartamento (perché la probabilità di raggiungere un qualunque punto muovendosi casualmente in una o due dimensioni è uno, ma in tre dimensioni è solo un terzo).
L'identificazione dell'aleatorietà con la casualità permette di generare intuitivamente una sequenza casuale di numeri mediante ripetuti tiri di dadi non truccati. Ma definire precisamente una sequenza casuale è un altro problema, che si può risolvere in vari modi. Il più semplice è di identificare la causalità con la programmabilità informatica: in questo caso, una sequenza è casuale se non può essere generata da un computer. E poiché, in un senso matematico preciso, le sequenze sono tante ma i programmi pochi, esistono certamente sequenze casuali: anzi, quasi tutte le sequenze lo sono, benché nessuna di quelle che possono venire in mente lo sia.
Naturalmente, la definizione di casualità che abbiamo appena dato funziona solo per sequenze infinite: ogni sequenza finita, infatti, può ovviamente essere generata da un computer. Per definire la casualità di una sequenza finita, bisognerà dunque guardare altrove e l'idea viene dall'osservazione che ciò che distingue le sequenze infinite casuali da quelle che non lo sono, è che queste ultime possono essere descritte in maniera radicalmente più compressa delle prime, attraverso programmi finiti.
È stato ancora Kolmogorov, questa volta negli anni '60, a definire come casuale una sequenza finita che non si possa descrivere in maniera radicalmente più compressa della sequenza stessa. Ad esempio, una sequenza formata da un 1 seguito da un milione di 0 non è certo casuale, perché l'abbiamo appena descritta in maniera molto più corta della sequenza stessa, che consiste di un milione di simboli (più uno). Analogamente, quasi nessuna delle sequenze lunghe che ci possono venire in mente è casuale, perché esse saranno in genere descritte in maniera più o meno compressa.
Può venire persino il dubbio che sequenze casuali finite non ce ne siano proprio: e invece, ce ne sono infinite, benché siano molto difficili da scovare. Ad esempio, qualunque sistema matematico ne può identificare soltanto un numero finito, perché «l'n-esima sequenza casuale nel sistema» è una descrizione compressa, che può descrivere soltanto le poche sequenze casuali più corte di essa. E questo fatto, che le sequenze casuali siano difficili da scovare, è un bel teorema di limitatezza della teoria della complessità, analogo a quelli trovati negli anni '30 da Gödel per la matematica e Turing per l'informatica: anzi, in un senso preciso, è una generalizzazione e un rafforzamento di quei risultati.
Quanto alla definizione di Kolmogorov, essa porta alla luce un inaspettato aspetto della casualità: che la si può ottenere in due modi contrapposti, attraverso la mancanza o l'eccesso di pianificazione. Il primo tipo corrisponde al vecchio concetto di aleatorietà, cioè appunto al tiro di dadi. Il secondo tipo, invece, è esemplificato da quelle opere d'arte moderne, dal Finnegans Wake di Joyce ai Sei pezzi per orchestra di Webern, la cui estrema complessità le rende indistinguibili, o quasi, dal rumore.
È certamente possibile che oggetti casuali interessanti, impossibili da descrivere più efficacemente che esibendoli, esistano in natura: von Neumann, ad esempio, suggeriva come possibile esempio il cervello umano. Ma che un'intera poetica della modernità si sia dedicata alla loro produzione artistica, è certamente una «caduta» di tono degna del significato originario della «casualità»".