Come fa l'uomo a conoscere
James Gleick, L'informazione. Una storia. Una teoria. Un diluvio, Feltrinelli, 2012, brossura, pagg. 457, 35 euro.
Il primo capitolo è sui "tamburi parlanti" africani. Il suono dei tamburi non è come l'alfabeto Morse, un suono = una lettera, ma si basa anche su toni. Se da un messaggio in alfabeto Morse togliamo alcune lettere, perdiamo tutta l'informazione che esse rappresentavano, mentre con il linguaggio tonale qualche cosa rimane. Tuttavia la povertà di informazione rende i messaggi ambigui o addirittura incomprensibili, perciò, per eliminare l'inconveniente, si aggiungono suoni, cioè si rende il messaggio ridondante quanto basta a rendere univoco il suo significato. Questa è un primo fondamento della teoria dell'informazione. Un secondo fondamento è: la quantità di informazione trasmessa non è in rapporto con il significato del messaggio (il messaggio può essere senza significato ma essere trasmesso correttamente). Terzo fondamento: il linguaggio utilizzato è ininfluente (tamburi, codice Morse, telefono, specchi, bandiere, nuvolette di fumo). Per trasmettere occorre tradurre il messaggio in un codice e per poter ricevere occorre utilizzare lo stesso codice.
Prendiamo un biglietto da 50 euro e osserviamolo dalla parte dell'ologramma: in alto a sinistra vi sono tre segnetti arancione ai quali corrispondono, nella facciata opposta, altri tre segnetti; se guardiamo in trasparenza, vedremo la cifra "50". Sembra una banalità, ma con un solo gesto (guardare in trasparenza) recuperiamo per ogni lato quel 50% di informazione che era andata persa. Per arrivare a detto risultato abbiamo dovuto leggere le istruzioni, le stesse che sono servite a preparare il messaggio.
Claude Shannon settant'anni fa trasformò in matematica i ricordati fondamenti che diventarono principii, e da allora la Teoria dell'Informazione è, sempre di più, diventata parte della nostra vita quotidiana, che lo sappiamo o no. Ecco dunque la spiegazione del titolo: una storia millenaria di comunicazione tra gli uomini attraverso un linguaggio, una "singolarità" dovuta al cristallizzarsi di una teoria suffragata da potenti basi matematiche, un diluvio dovuto al fatto che non appena la teoria si è prodotta, ha "informato" di sé tutto il mondo, cambiandolo. Senza la teoria dell'informazione oggi non potremmo telefonare, non avremmo i CD, non potremmo ascoltare i segnali del Voyager che arrivano ormai dall'esterno del sistema solare, non avremmo Internet. Si potrebbe dire: e allora? L'uomo ne ha fatto a meno per milioni di anni. D'accordo, anche del fuoco abbiamo fatto a meno, anche della ceramica e del ferro. Non siamo amanti del "progresso" nell'accezione borghese. Ma lo "sviluppo della forza produttiva sociale" è l'unica strada che ci permetterà di fare il salto dalla condizione tecno-scimmiesca attuale a quella veramente umana. Perché non stiamo più semplicemente imparando a conoscere, stiamo imparando come fa l'uomo a conoscere. La teoria dell'informazione insegna a decifrare un segnale anche minimo annegato in un mare di disturbo, è la trasposizione in matematica di ciò che fa il nostro cervello nei casi più banali, catalogare oggetti, riconoscere voci e volti, entrare in relazione con altri cervelli e gestire il flusso di informazione in entrata e uscita.
La nostra capacità di memorizzazione ed elaborazione tramite macchine sta ancora aumentando in modo esponenziale. Il sistema che abbiamo costruito intorno a noi sta diventando sempre meno una protesi-macchina che ci asservisce e sempre più un organismo cibernetico in grado di co-evolvere con noi. Ovviamente per liberarne le potenzialità "umane" occorre abbattere la barriera sociale che le soffoca e le rende dis-umane. L'intelligenza artificiale c'è già, ma non è la stupida corsa a replicare le funzioni del nostro corpo, è piuttosto il perfezionamento delle funzioni specifiche dell'intelligenza-macchina. Noi non sappiamo volare, non riusciamo a correre a 100 all'ora e nemmeno a svolgere milioni di operazioni al millisecondo. Finora siamo stati un prodotto dell'evoluzione governata dal "caos deterministico" darwiniano, stiamo adesso incominciando a renderci conto che una ulteriore dissipazione è impossibile, è ormai l'ora di diventare fattori di sintonia con la natura; per cui potremmo anche buttar via un bel po' di quell'hardware che fu utile a raggiungere il livello raggiunto e "rovesciare la prassi", cioè procedere consapevoli.
La teoria dell'informazione ha a che fare con l'umanizzazione della famigerata tecno-scimmia, anche se naturalmente non possiamo pretendere che Gleick ce lo dica. Però, se sappiamo leggere, la risposta la possiamo trovare per conto nostro. L'uomo scientifico, così soddisfatto dei risultati raggiunti, non ha affatto riempito i classificatori delle sue università e i suoi laboratori di cartelle contenenti verità inconfutabili. La teoria dell'informazione ci dice che il segnale è basso e il rumore ancora preponderante. Non sappiamo a tutt'oggi di che cosa sia veramente fatto il 90% dell'universo. Vale sempre la domanda: e allora? Con la risposta: nemmeno l'australopiteco lo sapeva e, leoni a parte, viveva benissimo. Ma se appena ragioniamo un po', vediamo che c'è un nesso materiale indissolubile fra l'evoluzione biologica e quella tecnologica, che non può evolversi l'intelligenza a base carbonio senza che si evolva quella a base silicio (cellule viventi e microchips).
Non sappiamo se la teoria dell'informazione, nata per la comunicazione con strumenti elettromeccanici, sarà ancora valida quando l'uomo imparerà a comunicare ed elaborare per mezzo di tecniche quantistiche. A naso si direbbe di no, anche perché dovrebbe superare la contraddizione irrisolta fra mondo delle particelle e mondo alla dimensione umana. Ma il fatto stesso che oggi si possa pensare a un computer quantistico dimostra che non ci sono limiti alla conoscenza, e la teoria dell'informazione è in un certo senso conoscenza sulla conoscenza.
Il fondamento centrale della teoria dell'informazione, che Shannon reputava un dogma: "Il significato è irrilevante", si rivela in tutta la sua potenza nella capacità di memorizzazione dei sistemi informatici. Forzando un po' il significato originario della teoria, possiamo dire che Wikipedia è un immenso serbatoio di informazione al quale lavorano migliaia di utenti che immettono e gestiscono lemmi, e al quale attingono miliardi di altri utenti. Il significato di ogni singolo lemma può essere sbagliato, ma lo scambio di informazione permette al sistema di auto correggersi, per cui Wikipedia diventa una fonte di informazione di "prima istanza" che obbliga l'utente a lavorare di cervello sia per approfondire, sia per controllare gli errori.
Siamo perciò di fronte a uno scambio di informazione che sconvolge il secondo principio della termodinamica: rapportando l'informazione all'energia, in Wikipedia viene immessa informazione-energia = 1.000 e prelevata informazione-energia = 1.000.000.000. L'esempio classico del potere moltiplicatore insito nella teoria dell'informazione è nella storiella di due individui che si scambiano un dollaro: dopo lo scambio la somma che hanno in tasca è sempre la stessa, e idem se scambiassero un dollaro e una sterlina. Ma se scambiassero una pari quantità di informazione di diversa qualità, la somma darebbe il doppio d'informazione. Gratis.