L'intelligenza al tempo dei Big Data
Grandi dati
Oggi si parla sempre più spesso di grandi sistemi di dati ovvero di big data. Nella nostra quotidianità produciamo dati in enorme quantità, soprattutto quando siamo connessi in Rete. Molto spesso non sappiamo neppure dove questi vadano a finire, per cui adesso la società borghese si è sentita in dovere di introdurre nei siti informative sulla privacy, le quali indicano come un'azienda o un sito Web raccoglie, gestisce ed elabora i dati dei propri clienti e visitatori.
Il capitalismo è sempre più "intelligente" in termini industriali ma non riesce a pianificare sé stesso in quanto sistema:
Il piano di produzione, che riesce così bene al capitalista nella singola fabbrica, riesce malissimo al capitalismo sul mercato internazionale, dove le proprietà private si scontrano al massimo livello di concorrenza e dove gli interessi nazionali bloccano lo sviluppo di strutture esecutive comuni." ("L'uomo e il lavoro del Sole", n+1, n. 5)
Ormai vi è un modello digitale di tutto. Il cyber-spazio diventa una copia digitale del mondo reale. Per Pedro Domingos, autore del saggio L'Algoritmo Definitivo. La macchina che impara da sola e il futuro del nostro mondo, il "gemello digitale" sarà un nuovo subconscio globale, l'ID collettivo del genere umano. È probabile che tutta la conoscenza venga trasferita un domani sul cloud, ma sarà comunque importante conservare il patrimonio librario dell'umanità, in modo che coesistano una Fondazione virtuale e una fisica (Isaac Asimov).
Gli scenari descritti da Domingos destano sia stupore che preoccupazione, ma le trasformazioni tecnologiche in corso vanno viste coerentemente come la continuazione di un processo evolutivo che porta la nostra specie ad andare oltre l'attuale modo di produzione. Non va dimenticato infatti che il potenziamento della macchina attraverso la sua automazione va ad intaccare alla radice il sistema del lavoro salariato.
A proposito di tecno-pessimismo, lo storico Yuval Noah Harari in 21 Lezioni per il XXI secolo, partendo dall'analisi dello sviluppo tecnologico descrive un futuro distopico:
Quella che stiamo vivendo è l'era dell'hackeraggio degli esseri umani. Gli algoritmi vi guardano anche in questo momento. Osservano dove andate, cosa comprate, chi incontrate. Presto saranno in grado di controllare tutti i vostri passi, ogni vostro respiro, tutti i battiti del vostro cuore. Usano i big data e l'apprendimento automatico per conoscervi sempre meglio. E una volta che questi algoritmi vi conosceranno meglio di voi stessi, potranno controllarvi e manipolarvi, e non potrete fare granché per contrastarli, vivrete in Matrix o nel Truman Show. In definitiva, si tratta di un semplice dato di fatto: se gli algoritmi comprendono quanto vi accade meglio di quanto lo comprendiate voi stessi, l'autorità si trasferirà a loro."
Il brano citato è un chiaro esempio di incapacità borghese di vedere un futuro diverso da quello capitalistico. L'approccio abituale della stragrande parte dei ricercatori odierni è quello di proiettare le attuali categorie nel futuro, approdando così alla conclusione che stiamo perdendo il controllo sulle nostre "creazioni". Un altro esempio in tal senso è il saggio Armi di distruzione matematica. Come i big data aumentano la disuguaglianza e minacciano la democrazia di Cathy O'Neil, il cui titolo è tutto un programma.
Il mondo di oggi si basa su sensori sparsi ovunque e sulla produzione di una quantità enorme di dati, che arrivano in volumi crescenti e ad alta velocità. Essi ci stanno sommergendo, e solo per mezzo dei calcolatori è possibile separare l'informazione dal rumore. L'attuale modo di produzione utilizza ovviamente queste tecnologie per i propri fini, ma chi non vede in questo processo una potenzialità evolutiva della specie è obbligato a rimanere entro una concezione meccanicistica di quello che, sia in critica che in apologia, viene chiamato "progresso".
L'andamento del capitalismo non è di tipo gradualistico, ma catastrofico e questo dipende dagli stessi meccanismi di accumulazione. La legge della caduta tendenziale del saggio di profitto agisce inesorabile obbligando i capitalisti ad accontentarsi dell'aumento della massa a scapito del saggio. A lungo andare però deve intervenire una crisi per riequilibrare il sistema. Se non ci fosse distruzione ricorrente di lavoro morto non ci sarebbe capitalismo e cioè valore che si valorizza (D-M-D'). La Tavola II ("Interpretazione schematica dell'avvicinamento dei regimi di classe nel marxismo rivoluzionario") di "Teoria e azione nella dottrina marxista" (1951) ci suggerisce che non c'è una lenta discesa dell'attuale modo di produzione (fatalismo, gradualismo), ma un accumulo di contraddizioni che a un certo punto trova una soluzione di tipo discontinuo (cuspide, biforcazione, singolarità).
La rivoluzione dei big data è stata resa possibile dall'avvento della Rete che, come abbiamo visto, è diventata Internet delle cose, per cui tutti gli oggetti possono essere connessi a centri di accumulo ed elaborazione dati.
Grandi masse di dati hanno dovuto dunque essere trattate adeguatamente. Quando il cervello umano non ce l'ha più fatta a supportare la velocità e la quantità, si è affidato a strumenti già disponibili come il computer e i suoi programmi o algoritmi.
Ma cos'è un algoritmo? Questa la descrizione che ne fa Domingos:
Un algoritmo è una sequenza di istruzioni che dice a un computer cosa fare. I computer contengono miliardi di minuscoli interruttori, i transistor, che gli algoritmi accendono e spengono miliardi di volte al secondo. L'algoritmo più semplice che si possa immaginare? Far scattare un interruttore. Lo stato di un transistor corrisponde a un bit di informazione: vale 1 quando il transistor è acceso, 0 quando è spento... Il secondo algoritmo più semplice è il seguente: combinare due bit. Claude Shannon, più noto come il padre della teoria dell'informazione, fu il primo a capire che i transistor, con il loro accendersi e spegnersi in risposta ad altri transistor, non fanno altro che ragionare (la tesi che scrisse per il master al MIT parlava proprio di questo: fu la più importante tesi di master mai scritta). Se il transistor A si accende solo quando entrambi i transistor B e C sono accesi, ciò che sta facendo non è altro che un piccolissimo ragionamento logico. Se A si accende quando B o C sono accesi, abbiamo un'altra minuscola operazione logica. Se A si accende quando B si spegne, e viceversa, le operazioni diventano tre. Che lo crediate o no, ogni algoritmo, per quanto complesso, può essere ricondotto a queste tre sole operazioni: AND, OR e NOT." (L'Algoritmo Definitivo)
Tutta la complessità dei computer può essere ridotta a dei minuscoli interruttori che si accendono e si spengono a seconda del passaggio o meno di corrente.
Noi siamo collegati a una Rete che è basata su questo meccanismo binario. Individualmente siamo come dei transistor che sono in uno stato oppure in un altro (ad esempio: dormiamo oppure siamo svegli). La società, al pari di un cervello, è un insieme complesso di interruttori che si accendono e si spengono. Tutta la complessità del mondo è basata fondamentalmente su questo meccanismo elementare.
Processo decisionale automatizzato
L'intelligenza artificiale ha sviluppato una sua branca specifica, il machine learning, ovvero sistemi che apprendono in base ai dati che utilizzano, ma in cui l'intervento umano è ancora decisivo, e una sotto-branca, il deep learning (composto da reti neurali profonde, da molti strati di neuroni artificiali), che simula il funzionamento dell'apparato cerebrale umano, elaborando dati grezzi e organizzandoli autonomamente.
Uno degli scopi del machine learning è quello di utilizzare gli algoritmi di apprendimento automatico per l'analisi accurata dei big data. La sua caratteristica è quella di trovare schemi e regolarità nella grande massa di dati a disposizione. Non tutti i parametri di questi algoritmi sono stati generati dai loro progettisti, essi hanno la capacità di trovare da sé delle ricorrenze, di adattarsi ai dati che gli vengono forniti (ovviamente nell'ambito delle conoscenze delle quali il capitale si è impadronito):
Se, ad esempio, voglio ottenere un software che sappia distinguere i pazienti sani da quelli ammalati sulla base dei risultati di alcuni esami diagnostici, fornisco all'algoritmo di machine learning un gran numero di diagnosi già verificate che contengono anche i risultati degli esami associati a quelle diagnosi. L'algoritmo impara come associare i risultati degli esami clinici alle diagnosi finali e quindi, dopo aver analizzato un gran numero di esempi, sarà pronto ad analizzare nuovi dati diagnostici dello stesso tipo ma mai visti prima, e a distinguere tra pazienti sani e malati sulla base dei loro esami di laboratorio. Naturalmente, il software non sarà preciso al 100%, ma se è capace di esserlo nel 90% dei casi potrà costituire un grande supporto per il medico che dovrà alla fine decidere la diagnosi e la cura. Si consideri che algoritmi di questo tipo sono capaci di analizzare i dati di migliaia di pazienti impiegando pochi minuti." (L'impero dell'algoritmo, Domenico Talia)
L'intelligenza delle macchine non è uguale alla nostra intelligenza, è l'esteriorizzazione di una parte di essa, e retroagisce su quella biologica. Come ci spiega la cibernetica, quando c'è feedback vuol dire che si è stabilita una doppia direzione, e quindi si è formato un qualche tipo di sistema. Queste due forme di intelligenza (uomo e macchina) fanno parte di due insiemi differenti, ma i due insiemi possono essere contenuti in un unico insieme di natura superiore.
Con lo sviluppo della nanobiotecnologia è nato un nuovo settore di ricerca, il "biological computing": i computer utilizzano molecole derivate biologicamente, come DNA o proteine, per eseguire dei calcoli. Esiste anche una branca di ricerca definita "biorganic computing", che ha come oggetto l'accorpamento tra mondo biologico e digitale.
A proposito di linguaggio, alcuni ingegneri informatici preferiscono che al posto di intelligenza artificiale, si parli di processo decisionale automatizzato; in effetti non è molto corretto parlare di "artificiale" dato che le macchine, al pari dell'uomo, fanno parte della natura.
Volendo schematizzare al massimo, ci sono due grandi periodi in cui si può suddividere la storia dell'intelligenza artificiale. Il primo è quello in cui si cerca di riprodurre il funzionamento del cervello in una macchina, e gli ingegneri si sono trovati di fronte a dei limiti insormontabili. Il secondo periodo, quello in cui si otterranno i maggiori successi scientifici, è quello che il professore di intelligenza artificiale Nello Cristianini definisce in un suo recente libro come la "scorciatoia", ovvero il puntare tutto sulla potenza del calcolo. Il sogno di costruire un'intelligenza artificiale che somigli in tutto e per tutto a quella umana è stato da tempo abbandonato a favore dell'uso della "forza bruta" nel trattamento dei big data attraverso gli algoritmi.
Cristianini sente innanzitutto la necessità di dare una definizione di intelligenza: essa, sostiene, non è una qualità tipicamente umana, come invece ci hanno inculcato secoli di religione e filosofia, secondo le quali l'evoluzione cosmica è una piramide con al vertice l'uomo, fatto a immagine e somiglianza di un qualche Dio. All'immagine della piramide noi sostituiamo quella della rete, ovvero tanti moduli connessi che interagiscono tra di loro.
Manifestare intelligenza non vuol dire essere per forza degli animali "superiori", come i mammiferi. Per affrontare scientificamente questi problemi è d'obbligo togliersi di dosso gli occhiali dell'antropocentrismo e adottare una logica sistemica, come direbbe Gregory Bateson (Verso un'ecologia della mente).
Tutti gli organismi, anche quelli molto diversi da noi, manifestano forme più o meno sviluppate di intelligenza, come ad esempio le piante o le colonie di formiche. Anche i software, che non sono propriamente biologici, manifestano a modo loro delle forme di intelligenza. George B. Dyson, nel saggio L'evoluzione delle macchine, afferma che "l'intelligenza, comunque la si misuri, si basa sulla capacità di compiere scelte: di riconosce i segnali in mezzo al rumore, di distinguere ciò che è giusto da ciò che è sbagliato, di individuare la strategia migliore per arrivare a una soluzione."
Agenti biologici e digitali
Cristianini, ampliando il ragionamento, nota che sarebbe meglio parlare di agenti, mettendo sullo stesso piano esseri biologici e macchine, che possono manifestare intelligenza in ambiti e modi diversi.
Organismi "elementari" come, ad esempio, l'ameba hanno comportamenti intelligenti, rispondono agli stimoli che arrivano dall'ambiente. Dirigersi verso il cibo, in particolar modo, vuol dire adottare un comportamento finalizzato. Quando un coniglio vede una volpe istintivamente fugge (l'istinto biologico è, secondo una bella definizione della nostra corrente, "conoscenza ereditaria di un piano specifico di vita"). Mette in atto un comportamento che anticipa uno stato futuro (la salvezza). Ci sono innumerevoli comportamenti in natura che sono volti all'anticipazione di stati futuri. L'ameba è un organismo unicellulare in grado di reagire alle sollecitazioni che provengono dal mondo circostante. La sua "preoccupazione" è muoversi verso la fonte di cibo, il suo comportamento è dunque teso ad uno scopo. Tale organismo funziona con gli stessi meccanismi dei supercalcolatori d'oggi. Entrambi operano secondo la logica "se, allora" (0, 1).
Vediamo che a tutti i livelli ci sono comportamenti intelligenti, calibrati alle necessità dell'organismo o dell'agente preso in esame.
Per Cristianini possiamo chiamare apprendimento qualsiasi modificazione dell'ambiente dovuta all'esperienza. Altra definizione di intelligenza è l'abilità degli agenti di comportarsi in modo efficace in situazioni nuove. Perché vi sia intelligenza c'è bisogno di una certa regolarità, altrimenti l'anticipazione diventa impossibile, ma grazie ad essa è possibile anche affrontare situazioni nuove. L'intelligenza è appunto la capacità di modificarsi rispetto alle novità che si presentano, e l'adattamento è dovuto all'esperienza, cioè all'esistenza di schemi pregressi.
In cibernetica si studiano agenti capaci di comportamento teleologico, ovvero intenti a raggiungere un obiettivo. Quando si parla di teleologia (telos vuol dire scopo) il riferimento d'obbligo è quello all'opera di Aristotele:
La causa finale viene individuata da Aristotele attraverso il confronto tra la natura e l'arte. Nell'arte appare evidente che tutto ciò che viene prodotto è prodotto in vista di un fine: per esempio la casa è costruita per fornire un riparo, la sedia o il tavolo per fornire un sostegno, ecc. Ora, argomenta Aristotele, poiché l'arte imita la natura, se esiste una finalità nell'arte, a maggior ragione essa esisterà nella natura, quindi anche nella natura tutto ciò che si genera, o si muove, si muove in vista di un fine […] Per Aristotele non esiste un'unica causa finale, ma ogni sostanza ha un proprio fine, diverso da quello delle altre e consistente nella realizzazione perfetta della propria forma: fine dei minerali è raggiungere il proprio luogo naturale, delle piante e degli animali raggiungere il proprio sviluppo completo e riprodursi, degli uomini realizzare la propria felicità." (Enrico Berti, Profilo di Aristotele)
Tutti gli agenti che hanno la capacità di anticipare scenari futuri hanno un comportamento teleologico, cioè finalizzato. Sia la volpe che il coniglio hanno dei comportamenti teleologici, finalizzati alla sopravvivenza e quindi alla propria riproduzione.
Per avere un comportamento teleologico bisogna avere un corpo, ovvero un substrato materiale necessario per interagire con l'ambiente. Tutti gli organismi hanno un corpo e attraverso esso interagiscono con il mondo circostante. Nel caso degli agenti digitali, a primo acchito, viene da pensare che essi non abbiano un corpo, e per certi versi questa osservazione è vera, ma allora diventa necessario definire cos'è un corpo. Per Cristianini, nel caso dell'agente digitale, esso non ha bisogno di un corpo fisico simile a quello di un essere biologico. Il corpo dell'agente digitale è un qualcosa che è influenzato dall'ambiente e che a sua volta lo influenza. Un congegno cibernetico di qualsiasi natura è formato da un ingresso dati, input, da una qualche forma di elaborazione (black box), e da un'uscita, output.

I software hanno capacità che noi non abbiamo, e viceversa.
Quella del software è forse un'intelligenza aliena? Difficile dirlo, anche quella di organismi come i cefalopodi (seppie, calamari, ecc.) potrebbe esserlo, essendo molto diversa da quella dei mammiferi. Nel film di fantascienza Arrival (2017), gli alieni sono degli eptapodi (sette-piedi), una specie di polpi che comunicano con gli umani con scrittura semasiografica.
Nell'albero dell'evoluzione la biforcazione con i cefalopodi avviene 700 milioni di anni fa. L'intelligenza del polpo sembra sia paragonabile a quella del cane (hanno più o meno lo stesso numero di neuroni), ma è completamente diversa da quella dei vertebrati. Il polpo ragiona con tutto il corpo, due terzi dei suoi neuroni si trovano nei tentacoli, definiti anche dei mini-cervelli (Altre menti. Il polpo, il mare e le remote origini della coscienza, Peter Godfrey-Smith.).
Le due stagioni dell'IA
Ritornando alle due stagioni dell'intelligenza artificiale (in realtà ce ne sono più di due, ma per comodità di esposizione le tralasceremo) ci si è resi conto che la riproduzione integrale del linguaggio umano tramite macchina era impossibile. Gli ingegneri informatici hanno studiato come trasformare le regole grammaticali dal linguaggio umano (alfabeto) al linguaggio macchina (0, 1), e si sono trovati di fronte un problema che non sono riusciti a risolvere: ogni regola grammaticale ne tira in ballo un'altra, e così si accumulano le eccezioni.
Nell'estate del 1956 un gruppo di una decina di ricercatori, tra cui nomi famosi come Marvin Minsky, Nathaniel Rochester e Claude Shannon, si riunirono presso il Dartmouth College, nel New Hampshire (l'evento era finanziato dalla Fondazione Rockefeller).
Erano passati sei anni dalla pubblicazione dell'articolo "Macchine calcolatrici e intelligenza" di Alan Turing, in cui egli chiedeva: "Possono pensare le macchine?" Di qui il famoso test di Turing volto a stabilire un criterio per determinare se una macchina è in grado o meno di esibire un comportamento intelligente (sembra che ChatGPT4 sia la prima macchina in assoluto ad avere superato tale test).
L'organizzatore dell'evento, John McCarthy, professore a Dartmouth, propose che il titolo della conferenza facesse riferimento diretto all'intelligenza artificiale. Si voleva capire se fosse possibile riprodurre in una macchina la facoltà di pensiero e l'intelligenza propria dell'essere umano. La conferenza non portò a dei risultati tangibili, ma da quel momento in poi prese avvio uno specifico ambito di ricerca, quello sull'intelligenza delle macchine.
Alcuni continuarono a puntare sulla "intelligenza artificiale simbolica", ovvero sulla possibilità di fare apprendere alla macchina l'uso e la manipolazione dei simboli che gli uomini utilizzano per comunicare, ma alla fine si comprese che era impossibile far ragionare il computer come l'uomo. Per un paio di decenni non si fecero grandi passi nella ricerca, ma nei primi anni Novanta, complice la grande quantità di dati generati dal Web e l'aumentata potenza di calcolo dei computer, gli studi sulle reti neurali ripresero. Prese corpo così la branca dell'intelligenza artificiale dedicata specificamente all'apprendimento automatico, branca che si basa sulla statistica computazionale, per migliorare la performance di un algoritmo nell'identificare schemi ricorrenti nei dati.
Gli algoritmi imparano dai dati, e ricavano modelli di conoscenza utili per la classificazione dei dati stessi. È grazie alle connessioni tra dati operate dagli algoritmi che si riesce ad arrivare ad un buon livello di simulazione del funzionamento del cervello. Si passa dunque dal programmare algoritmi da parte di un operatore umano ad algoritmi che apprendono automaticamente.
Viene introdotta la statistica per ovviare ai limiti riscontrati nella ricerca. Acquista fondamentale importanza la teoria dell'informazione, che studia l'entropia del messaggio. Si scopre che i messaggi sono corrotti da rumore ma che attraverso l'analisi statistica si può rivelare ciò che del messaggio è corrotto e lo si può "riparare".
Pensiamo ai motori di ricerca che suggeriscono la parola che l'utente sta per digitare prima che egli abbia completato la frase: dietro a questo processo che velocizza le nostre ricerche sul Web c'è un meccanismo statistico. Al motore di ricerca non interessa conoscere la grammatica di una lingua, è programmato per individuare delle regolarità.
La "scorciatoia" consiste dunque nell'eliminare la grammatica e sostituirla con la statistica. Noi impariamo la grammatica, la struttura del linguaggio, leggiamo i libri per trovarne un senso, ma il suddetto tipo di sistemi statistici non ragiona in questo modo. Essi hanno degli elementi in comune con la nostra intelligenza, dato che siamo noi ad averli generati, ma anche delle diversità. Ricordiamo che per conoscere dobbiamo operare sulle differenze. In un primo tempo si applicò la conoscenza statistica per individuare il problema: quante volte deve essere ripetuto un segnale che si "sporca" a causa della sua trasmissione da A a B perché si possa ricostruire, tramite una pulizia algoritmica, il segnale originale privo di errori? Quando leggiamo estensioni di file come .jpg, .gif, .avi, .mp3 ecc. abbiamo sotto gli occhi non solo la storia dell'affinamento del setaccio con il quale trattiamo i dati, o la storia di qualche espediente per compattarli; ma abbiamo trovato il modo di togliere ciò che non serve, affiancando un elenco statistico nuovo a quello che avevamo creato per confrontare le differenze. Abbiamo, insomma, creato un gemello digitale che rende possibile tradurre un file di partenza A, confrontarlo con un file di arrivo A+B e fare la sottrazione.
Ci sono delle garanzie che le previsioni dei motori di ricerca siano esatte? No, però statisticamente funzionano. Sono approssimativamente corrette, come dicono gli esperti.
Una fonte di informazione esemplare sull'utilizzo della statistica è Amazon. All'inizio della sua attività, per testare le preferenze dei clienti rispetto agli acquisti, le raccoglieva facendo compilare dei fogli-intervista; oggi le ricava raccogliendo i dati relativi ai loro acquisti e alle sue ricerche sul sito. Gli algoritmi sfruttano le relazioni statistiche esistenti in questi dati e le trasformano in informazioni utili. Un algoritmo suggerisce al cliente il tipo di prodotti che gli possono interessare. Recentemente è stato annunciato il lancio di un nuovo assistente virtuale per lo shopping alimentato dall'intelligenza artificiale.
Già a metà degli anni '90 fu progettata la Non stop logistics, che aveva come obiettivo il pronostico del volume di un insieme di prodotti di largo consumo richiesti in una certa zona (per esempio una metropoli) e periodo (per esempio un fine settimana). L'idea di base è che le previsioni aggregate per una certa area saranno sempre più precise delle previsioni di dettaglio per un negozio singolo. Amazon ha ripreso questa modalità logistica organizzando spedizioni preventive verso determinate regioni o città, basandosi sulle informazioni rilasciate da appositi software. Insomma, con questo sistema automatizzato la consegna della merce avviene prima che parta l'ordine, cioè prima che il cliente abbia pensato all'acquisto di quella merce; e sebbene sia controintuitivo, l'anticipatory shipping sembra funzionare. Se si dovesse descrivere con una sola frase il carattere peculiare di Amazon si dovrebbe dire che essa è ad approccio attivo e passivo nello stesso tempo: il venditore non solo viola gli ipocriti regolamenti universali sulla privacy ma si impadronisce oggettivamente della volontà del compratore.
Sempre Amazon, ha sviluppato la tecnologia Monitron, cioè un sistema di monitoraggio basato sull'apprendimento automatico che rileva potenziali guasti all'interno delle sue apparecchiature industriali, e rende possibile una manutenzione predittiva in grado di ridurre i fermi macchina. Amazon Monitron è un elementare apparecchio cibernetico, che include due tipi di dispositivi: un sensore, per la raccolta di dati dalle apparecchiature, e un gateway (o nodo di rete), a cui inviare tali dati.
Armi di distrazione di massa, ma non solo
Anche in seguito a clamorosi fatti di cronaca, il grande pubblico ha scoperto che sui social network si formano dei circoli che si auto-rafforzano, chiamati "bolle di filtraggio". Almeno dal 2009 è cambiato il nostro modo di interagire con i motori di ricerca: non siamo più noi a scegliere cosa vedere, al contrario vediamo i risultati che secondo PageRank (l'algoritmo di Google) sono più adatti a noi, ai nostri gusti ed interessi. Insomma, Google non è uguale per tutti.
Le macchine, programmate a fini capitalistici, sfruttano i nostri bias cognitivi (falle logiche, pregiudizi, ecc.), per attrarre la nostra attenzione verso una particolare merce. L'algoritmo "comprende" che cosa ci interessa studiando le nostre ricorrenze dal punto di vista comportamentale, e così ci suggerisce un acquisto oppure ci propone un viaggio su misura per noi. L'uso dei bias cognitivi lo troviamo anche nel resto del mondo animale: pensiamo al mimetismo. Fenomeno generato da milioni d'anni di evoluzione, non cosciente. Mondo biologico e mondo artificiale hanno allora dei punti in comune, in effetti fanno parte del grande insieme natura-industria.
Come scrive Eli Pariser, nel saggio Il Filtro. Quello che internet ci nasconde, i motori di ricerca non sono neutrali, offrono notizie e contenuti personalizzati. Questo non vale solo per Google: se un utente fa delle ricerche, poniamo caso, sulle biciclette, il social network o la piattaforma di acquisto a cui ha acceduto tende a suggerirgli con una certa frequenza contenuti o prodotti attinenti all'insieme bicicletta, e magari installa dei cookie per l'invio di pubblicità mirata. La pubblicità c'è sempre stata. Anche sui muri di Pompei! Ma l'effetto invasivo di quella odierna permette una modifica della percezione del valore d'uso da parte dell'utente fino a configurare una forzatura della legge di Say (l'offerta crea artificialmente la propria domanda).
Nel tempo, l'intelligenza delle macchine è diventata strategica: ci sono macchine che sono riuscite a battere i campioni del gioco degli scacchi e del Go. Nel 1996, Deep Blue, computer della IBM, ha battuto il campione di scacchi Garri Kasparov. Deep Blue vinse la partita, ma Kasparov vinse le seguenti cinque partite (tre vinte e due patte). Nella rivincita del match, giocata nel 1997, Deep Blue riuscì a vincere per 3,5 a 2,5. Nel 2006, AlphaGo, software per il gioco del Go sviluppato da Google DeepMind, ha battuto 4-1 il campione di Go Lee Se-dol, dimostrando una capacità di lettura delle mosse dell'avversario che ha fatto parlare alcuni di "creatività" della macchina. In realtà, l'algoritmo di AlphaGo è basato su un sistema di apprendimento automatico che è stato addestrato con i dati di centinaia di migliaia di partite e facendolo giocare contro sé stesso milioni di volte. Le sue mosse "creative" emergono dunque dall'addestramento.
Un essere umano non riesce ad immagazzinare tale esperienza in una vita.
AlphaGo non solo ha un comportamento teleologico, ma anche una superiore intelligenza nel gioco del Go rispetto ai suoi costruttori.
La macchina apprende in termini statistici. Ma si tratta veramente di un'altra forma di intelligenza oppure è un nostro prolungamento, una nostra protesi? Oggi la vediamo come aliena perché non ne abbiamo il pieno controllo. Ma questo è un problema legato al modo di produzione vigente.
Come facciamo a controllare le macchine se non riusciamo a controllare la nostra società?
Macchine sociali
Il termine "macchina sociale" (1999) è stato coniato dall'inventore del Web, Tim Berners-Lee, per indicare un sistema composto da macchine ed esseri umani, in cui questi ultimi hanno dei comportamenti mediati da un insieme di regole e vincoli, o fisici o mentali: "I computer possono aiutare se li usiamo per creare macchine sociali astratte sul Web: processi in cui le persone fanno il lavoro creativo e la macchina fa l'amministrazione".
Tale definizione di "macchina sociale" è ancora lontana da quella che potrebbe essere adottata da una "teoria unificata della conoscenza", quella preconizzata dalla Sinistra Comunista, perché vede la facoltà di creare come una peculiarità dell'essere umano, quando invece essa non è una caratteristica della natura ma del divino. La natura (e con essa l'uomo) si limita a trasformare, come ci indicano i principi della termodinamica.
Scrive Cristianini in La scorciatoia:
Chiamiamo 'macchina sociale' ogni sistema che includa esseri umani, in cui ciascuno esegue compiti ristretti e ben definiti e la cui interazione è mediata e vincolata da un'infrastruttura rigida. Oggi tale infrastruttura è tipicamente digitale, ma non è necessario che sia sempre così: una burocrazia fisica che comunica mediante moduli standardizzati, o una catena di montaggio mobile, possono essere entrambe considerate macchine sociali, in cui i partecipanti umani non hanno bisogno di essere consapevoli degli obiettivi complessivi del sistema, perché gli si chiede solo di completare compiti locali e ristretti in maniera standardizzata."
L'autore sostiene dunque che la burocrazia è una specie di macchina, dato che predetermina il compito che svolge ogni lavoratore.
Oggi le modalità di lavoro degli operai sono memorizzate in quanto algoritmi, modificati e utilizzati, in qualsiasi momento. E perciò le stesse modalità vanno a far parte della vita in generale non solo per compiti contingenti. Per questo movimenti che comportano significativi episodi nello scontro tra classi assumono un significato particolare che porta in primo piano il futuro e non il passato come invece succede per le dinamiche del sindacalismo tradizionale (abbiamo analizzato i casi degli scioperi generali dell'UPS e quelli degli scioperi operai all'interno del movimento Occupy Wall Street).
Quindi gli stessi algoritmi adoperati dagli operai nel loro tempo di lavoro possono diventare dei potenti strumenti di coordinamento e potenziamento delle loro lotte. Ma allora se tempo di lavoro e tempo di vita sono così interlacciati vediamo che la concezione attribuita a Marx della vita "sindacale" in quanto momento separato entro lo schema dello scontro di classe assume un'altra luce: la vita rivendicativa dell'operaio non è solo un allenamento per la rivoluzione, secondo un'affermazione un po' sbrigativa di Lenin; ma rivendicazione e rivoluzione sono la stessa cosa.
Da quanto abbiamo detto fin qui è evidente che non c'è un insieme rivoluzionario separato da un insieme rivendicativo, come pretendevano le varie correnti del sindacalismo rivoluzionario. Gli stessi borghesi ribadiscono che, ragionando per insiemi, i grandi raggruppamenti sono fra classi e non tra sottoinsiemi di classi.
Sono "questioni" che sorgono quando le strutture di un modo di produzione entrano in conflitto con quelle di un altro, specie nelle transizioni di fase. Se ci interessa ovviamente lo scontro fra operai e padroni, questo scontro ci interessa ancora di più quando esso si chiarisce, trascende e matura diventando scontro fra proletari e capitalisti.
Come ha affermato un economista, John Womack, citato in un articolo della rivista Jacobin sull'iper-sfruttamento degli operai in Amazon, "ogni prodotto che si muove oggi, ogni persona che si muove, passa attraverso più connessioni in catene e reti rispetto a una generazione fa". Ogni nodo che rende funzionante la grande rete produttivo-distributiva capitalistica può essere bloccato dai lavoratori determinando la formazione di colli di bottiglia che possono rallentare o, addirittura, bloccare i flussi economici.
Soprattutto nel settore della logistica i lavoratori hanno un enorme potere contrattuale nei confronti delle aziende e degli stati (quello che Womack chiama "potere posizionale"). Che siano i picker in un magazzino di Amazon, oppure i driver che consegnano le merci a casa del cliente, oppure i docker che movimentano i container nella banchina di un porto, tutte queste attività sono ormai collegate in/a rete e un loro blocco simultaneo metterebbe in ginocchio il sistema in pochi giorni.
La tecnologia può dunque cambiare di segno: se oggi è finalizzata all'accumulazione di più capitale, domani potrebbe essere diretta dai lavoratori per i loro interessi. Una volta che un sistema di tale natura, integrato in tutte le sue componenti, si estende, vincola il comportamento dei singoli all'obiettivo per cui è prefissato.
Qualche anno fa, l'associazione non sindacale OUR Walmart ("Organization United for Respect at Walmart") lanciò WorkIt, un'applicazione per Android che permette ai lavoratori di attingere e distribuire dati sui loro diritti contrattuali e in genere sindacali.
Fin qui niente di speciale: ma occorre precisare che per un bollettino sindacale si mette a disposizione un'applicazione, Watson, che utilizza la capacità di elaborazione della tecnologia di intelligenza artificiale sviluppata da IBM, a quel tempo il sistema esperto più potente del mondo.
È lo stesso servizio fornito da Internet ma a scala diversa: Internet è il magazzino dinamico dell'informazione mondiale (ricordiamo che sulla Rete passa quasi il 100% del traffico di informazioni generate dal capitale); mentre Watson è un programma specifico per un'attività specifica che evolve tramite apprendimento (machine learning). Internet evolve per addizione di conoscenze, Watson evolve per approfondimento.
Watson per ora può rispondere a una serie limitata di domande, e per i quesiti più complessi si appoggia a una rete di esperti. Il sistema è in grado di auto-apprendere, quindi la capacità di fornire risposte aumenterà nel tempo. Chiunque può usare WorkIt, una sua appendice: è sufficiente inserire nome, e-mail, numero di telefono e codice postale. E chi lo ritiene utile può anche inserire la propria posizione lavorativa e il negozio presso cui è impiegato. Geolocalizzazione e accesso ai contatti personali sono invece disabilitati. Il database di partenza è stato costruito grazie al lavoro volontario di dipendenti di Walmart che hanno individuato una lista di 50 domande frequenti a cui hanno fornito altrettante risposte.
I sensori del sistema Walmart (che è la più grande catena di distribuzione del mondo) acquisiscono informazioni ad ogni livello, dall'indirizzo degli standard di produzione al comportamento dei consumatori e alle giacenze sugli scaffali, dal percorso lungo la rete logistica a quello che porta il prodotto a casa del consumatore.
Di fronte alla immobilità delle organizzazioni sindacali ufficiali, tra i lavoratori nascono dunque organismi autonomi che cominciano a muoversi dotandosi di strumenti cibernetici.
Internet è una "macchina sociale": un insieme di procedure, strumentazioni elettroniche e uomini che interagiscono tra di loro in modo articolato e complesso. È difficile capire dove, in questo macrorganismo, finisce l'azione dell'uomo e inizia quella della macchina.
La Rete ha una capacità di registrazione e di interazione mai vista nella storia. Essa si è formata ed evoluta nel tempo grazie alla sussunzione di altre macchine. Non è la volontà o il presunto libero arbitrio dei partecipanti alla Rete che determina i loro comportamenti, ma lo è l'interazione tra le molecole sociali.
Queste "macchine sociali" manifestano un comportamento intelligente, sono un misto di macchine, di organismi biologici e di algoritmi. Le distinzioni sono importanti: non è corretto paragonare una mandria, un insediamento di castori o uno stormo di storni, cioè un insieme di individui indifferenziati ben organizzati (auto-organizzati) ma capaci di agire e sopravvivere in quanto singoli, a un individuo collettivo le cui molecole differenziate non potrebbero invece sopravvivere senza farne parte.
Esse sono vive, come direbbe il biologo Edward O. Wilson, al pari di un formicaio, di un alveare (o di un termitaio) presi nel loro insieme. Ma negli organismi collettivi naturali gli "individui" non sono liberi e nemmeno coordinati da una struttura superiore. Essi rappresentano effettivamente insiemi di molecole che sono "vive" come sono vive le cellule che si muovono a livello collettivo superiore e formano gli organi degli esseri viventi di altre specie strutturate in modo diverso (lupi, gatti, castori, uomini, ecc.).
Gli organismi singoli (ad esempio le singole formiche) non possono manifestare la loro natura e non possono agire se non coordinati da una struttura superiore, che è la risultante del comportamento collettivo. I macroorganismi non sono diretti da qualcuno, essi sono un'intelligenza emergente. Ce lo spiega una nuova disciplina, la sinergetica, detta anche "scienza degli effetti combinati", che ha formulato i concetti di "ordinatore" e "asservito" in cui le varie parti di un sistema (biologico, fisico o sociale) si ordinano per mezzo del movimento sincrono dei singoli elementi asserviti.
La teoria della simbiogenesi (K. Mereschkowski), vede la formazione delle strutture complesse come frutto di un assemblaggio di parti meno complesse. Il biologo e matematico Nils Aall Barricelli sviluppò la teoria della simbiogenesi sostenendone la applicabilità sia al mondo biologico che a quello fisico, poiché "la distinzione tra un esperimento evolutivo compiuto da numeri in un calcolatore e uno effettuato da nucleotidi in un laboratorio chimico è alquanto sottile".
L'intelligenza nasce dunque dall'interazione delle cellule individuali. Un cervello e una colonia di formiche sono delle entità collettive che hanno un comportamento intelligente. Nel caso delle formiche, esse comunicano tra di loro attraverso la stigmergia, rilasciando nell'ambiente un marcatore, detto feromone (un RFID, Radio frequency identification, ne potrebbe rappresentare un simulacro tecnologico). Il formicaio manifesta un comportamento teleologico, volto alla riproduzione non tanto delle singole formiche ma dell'insieme.
Internet non è la semplice somma dei comportamenti individuali ma un qualcosa di più, un cervello sociale, che adesso usa poco e male le sue potenzialità. La nascita di Internet non è attribuibile a qualcuno, la Rete si è auto-costruita nel tempo per mezzo dell'assemblaggio di varie componenti, e in questa evoluzione sta trasformando la società. Ne stiamo toccando con mano le conseguenze, a cominciare dalla chiusura dei negozi fisici, degli sportelli bancari, delle biglietterie, ecc., a favore dei servizi online, che si centralizzano in sempre meno piattaforme. Un intero mondo sta scomparendo, e con esso le sovrastrutture ideologiche che ne giustificavano l'esistenza. Si tratta di un processo estremamente veloce, che porta a numerose estinzioni, dato che la maggior parte delle strutture economiche e politiche non sono attrezzate a gestire cambiamenti così veloci e radicali.
Il Web è un BLOB (Binary Large Object) che sta inghiottendo ciò che gli sta intorno, agisce come un attrattore legando tutto a sé. Da questo punto di vista svolge un compito storico, lanciando un avvertimento alla società attuale: Attenzione! Rivoluzione in corso. L'esito è materialisticamente determinato. L'incognita è il tempo, ma non è certamente misurabile in secoli. L'alternativa sarebbe una società né capitalista né comunista, ma questo sarebbe in contraddizione con la natura di una società, quella attuale, che ricerca la massima efficienza della forza produttiva mentre dimostra di essere la più dissipativa della storia.
La teoria è ancora utile?
La rivista di informatica Wired ha pubblicato nel giugno del 2008 un articolo intitolato "La fine della teoria: il diluvio di dati rende obsoleto il metodo scientifico". L'autore, Chris Anderson, che fa parte di una corrente ideologica che scaturisce dall'ambiente tecno-libertariano della Silicon Valley, vi affermava che siccome la statistica riesce a rintracciare delle regolarità e degli schemi, nella nostra epoca non ha più senso la teoria:
Oggi le società come Google, cresciute in un'epoca di enormi masse di dati, non devono più accettare dei modelli sbagliati. Anzi, non devono più accettare alcun modello in generale".
Possiamo allora chiederci provocatoriamente: ha ancora senso il marxismo o bastano i big data per "fare" la rivoluzione? A parte il fatto che le rivoluzioni non si fanno ma si dirigono, come diceva la Sinistra Comunista, la teoria è ancora utile, perché senza una comprensione approfondita del funzionamento della "macchina sociale" è impossibile intervenire efficacemente sulla stessa, rovesciando la prassi. L'unico modo che abbiamo per verificare se questa comprensione è corretta è il metodo scientifico.
Il biologico ha avuto molto più tempo per evolversi (4 miliardi di anni) che non il computer (nemmeno un secolo) e perciò è più complesso ed efficiente in termini energetici. Come spiega Thomas Hartung, dell'équipe di scienziati della Johns Hopkins University impegnata nel campo della bioinformatica:
I cervelli hanno una capienza incredibile, dell'ordine dei 2500 terabyte. Stiamo raggiungendo i limiti fisici del silicio, dal momento che non possiamo inserire ancora più transistor sui chip. Il cervello, invece, è 'cablato' in modo completamente diverso: ha circa cento miliardi di neuroni, collegati su un numero enorme di punti di connessione. È una differenza di potenza enorme, comparata alla tecnologia attuale."
Ritornando al problema della validità o meno della "teoria" prendiamo la definizione che di questa ci fornisce il dizionario on line della Treccani: formulazione logicamente coerente (in termini di concetti ed enti più o meno astratti) di un insieme di definizioni, principi e leggi generali che consente di descrivere, interpretare, classificare, spiegare, a vari livelli di generalità, aspetti della realtà naturale e sociale, e delle varie forme di attività umana.
Il matematico Gottfried Leibniz (1646-1716) lavorava alla costruzione di un modello logico-matematico in grado di semplificare lo stesso processo del pensiero. Oggi, sembra che i guru della Silicon Valley riprendano tale ipotesi ponendo la loro fiducia sui dati e sulla loro auto-organizzazione. È un ritorno al "positivismo computazionale", aggiornato al tempo della Rete.
Il matematico Paolo Zellini nel saggio La dittatura del calcolo, sostiene che la società attuale è sempre più succube degli algoritmi, per cui i singoli cittadini rischiano di diventare schiavi di procedure informatiche che non controllano più. Gli algoritmi, secondo Zellini, assommano in sé un valore quasi simbolico, sono delle nuove divinità, dei nuovi oracoli, a cui gli uomini si inchinano.
L'algoritmo valuta gli studenti, come e quanto investire in Borsa, quando ci ammaleremo e di cosa, le nostre prestazioni lavorative. Ci dice che cosa ci piace, quali libri fanno per noi e che musica ascoltare. Il timore di molti è che, visto che ogni cosa è misurabile, e si fa scienza solo quando si misura, l'algoritmo potrebbe sostituirsi al critico, all'esperto e al datore di lavoro.
Una tale visione, senza dubbio, è accompagnata dai sempre più frequenti successi ottenuti nel campo del machine learning. L'algoritmo apprende, elabora, dando vita a una black box capace di fornire risultati senza che il programmatore sia a conoscenza degli specifici criteri che agiscono sul risultato finale.
Per riuscire a far compiere a una macchina ragionamenti "intuitivi", abbiamo costruito macchine capaci di affidarsi a valutazioni probabilistiche, lasciandogli, in un certo senso, la possibilità di sbagliare (cosa che, ad esempio, non è concessa a un algoritmo dedicato al riconoscimento di una password).
Ciò non ci deve spaventare, ma spingere a comprendere quello che sta succedendo. E comprendere, come ci insegna Marx, è tutt'uno con trasformare. Per fare questo non basta leggere molti libri, ci vuole una teoria, che è resa possibile dall'individuazione di leggi. Una legge di natura descrive un comportamento osservato in modo generale e conciso, mentre una teoria scientifica cerca di spiegare e comprendere in modo più completo un fenomeno naturale in base a principi e concetti fondamentali. Facciamo un esempio attinente al campo sociale: Marx individua le leggi che caratterizzano il funzionamento del modo di produzione capitalistico, dalla caduta del saggio di profitto alla miseria crescente. Esse spiegano traiettoria e catastrofe del capitalismo. Se analizziamo queste singole leggi ci facciamo un'idea di come funziona il capitalismo, però per avere una visione generale di tutte le implicazioni sociali e politiche c'è bisogno della teoria. La quale ci dimostra che il sistema è destinato al collasso, e le apparecchiature tecnologiche che usiamo tutti i giorni e che sono connesse alle reti potrebbero collassare con conseguenze sociali catastrofiche.
Detto questo, un paradigma non ne soppianta necessariamente un altro: potenza dei dati e teoria sono due aspetti complementari. Essi si completano a vicenda. La maggiore disponibilità di dati può ispirare progressi nella progettazione di modelli più performanti, rendere le previsioni più precise nel breve e medio termine.
Nel saggio Big data. Come stanno cambiando il nostro mondo di Nicita e Delmastro, c'è un capitolo dedicato ad Anderson:
L'avvento dei big data determina un nuovo approccio al trattamento dei dati, capovolgendo la relazione tra domanda di ricerca e risultati, al punto che alcuni studiosi, come Chris Anderson, si sono chiesti se non siamo giunti 'alla fine della teoria': a che servono, infatti, le teorie se sono ormai i dati a rivelarci correlazioni e causazioni? Il tema è in realtà complesso perché le teorie poste a verifica empirica hanno l'ambizione della generalizzazione del risultato e di indagare regolarità non contingenti."
Correlazioni e causazioni sono certamente rilevate da una metodologia basata sull'elaborazione statistica, ma bisogna considerare che ogni sistema di calcolo adottato per ampliare la nostra conoscenza del mondo è basato su modelli matematici. Ciò significa che la scienza, come afferma il noto fisico Richard Feynman, è la strada per giungere a capire non tanto il "perché" delle cose quanto il "come". Non c'è modo di sapere il perché esista la gravitazione universale ma una teoria su di essa ci illumina sul come si comportano tutti i corpi celesti nell'universo.
Quel che i sistemi di intelligenza artificiale riescono ad individuare tramite la statistica sono certamente correlazioni deterministiche, utili allo svolgimento delle attività contingenti degli uomini, ma essendo il prodotto di una società basata sulla concezione del libero arbitrio necessitano di una motivazione. La creazione è sempre in agguato.
Il secondo documento che prendiamo in esame è stato prodotto nel 2009 da un gruppo di ricerca di Google e si intitola "L'irragionevole efficacia dei dati", e anche in questo viene ribadita l'inutilità di elaborare modelli matematici. Siccome siamo arrivati e forse abbiamo superato, dicono i "googlisti", l'epoca dei petabyte (un milione di miliardi di byte), questi, trattati adeguatamente tramite potenti algoritmi mostrerebbero di per sé delle correlazioni.
I propugnatori della non-teoria hanno dunque sfornato una nuova ideologia, arrivando alla rinuncia dell'idea di costruire modelli in grado di inquadrare tutte le informazioni che escono dai dati in nozioni e principi generali. Dal punto di vista del metodo scientifico, dell'individuazioni di leggi e della formulazione di teorie, è importante che un'ipotesi venga testata da una serie di esperimenti e, a seconda dell'esito di questi esperimenti, venga validata o no. Da Galileo in poi questo è il metodo scientifico: fare modelli, validarli o confutarli. L'individuazione di correlazioni non costituisce l'esito finale ma piuttosto il punto di partenza dell'indagine scientifica, al quale dovranno seguire ulteriori raccolte di dati.
Per gli ideologi della non-teoria non ha più senso la logica deduttiva, basta quella induttiva basata sulla raccolta di dati e sulla statistica. Si tratta di un'auto-limitazione che ha senso solo da un punto di vista ideologico, non pratico del progredire della conoscenza. Questa nuova ideologia ha infatti dei punti in comune con il post-modernismo, la corrente filosofica il cui maggiore rappresentate è il filosofo Jean-François Lyotard. Il suo pensiero si basa sul rifiuto delle grandi narrazioni storiche e nega la validità di criteri di giudizio o di legittimazione universali. Ormai nessuna teoria può rappresentare la società nel suo insieme. Per il filosofo francese non hanno più senso le grandi ideologie o narrazioni, e perciò si devono adottare criteri e giudizi basati sulla situazione contingente.
Un approccio teorico-empirico con i modelli dinamici
Nel nostro articolo sulla "Legge della miseria crescente" (n+1, n. 20) viene analizzato il lavoro sui limiti dello sviluppo del Club di Roma, che abbiamo preso in esame nell'articolo precedente sul "gemello digitale".
Il metodo utilizzato per arrivare alla stesura del Rapporto è un ibrido: da una parte viene impiegato un modello matematico realizzato sulla base delle conoscenze acquisite, dall'altra si usa un metodo empirico statistico. Chi si ponesse nell'ottica di dimostrare che questa società salterà in aria ne troverà in questo modello le ragioni. Ma proprio per la sua struttura il modello rifiuta di contemplare la morte della società, da cui è generato. Di qui vaghe proposte di riforma per salvaguardare il sistema. Lo studio si spinge a dire che, se alla data del 1975 non si fossero presi provvedimenti si sarebbero messi in moto processi catastrofici. L'ottica è corretta anche dal nostro punto di vista: i provvedimenti presi non sono serviti che a rimandare temporaneamente gli irreversibili processi.
Noi abbiamo avuto modo di criticare quel metodo di ricerca perché con esso si ricava una teoria a posteriori dai risultati dell'elaborazione dei dati. Si partiva dai dati per trarne induttivamente delle conclusioni: un metodo opposto rispetto al nostro: noi infatti partiamo da uno schema di riferimento e sulla sua base leggiamo e interpretiamo deduttivamente i dati. Il modello del MIT ci dice che il capitalismo salterà; il nostro modello ce ne ha sempre dato la certezza: salterà. E la nostra certezza deriva non solo dall'algebra, ma dall'essere trascinati e guidati dalla passione indotta dalla forza della società futura.
Diceva Bordiga in una riunione a Firenze il 20 marzo 1960:
Nella parte decisiva della sua dinamica la conoscenza prende le sue mosse sotto forma di una intuizione, di una conoscenza affettiva, non dimostrativa; verrà dopo l'intelligenza coi suoi calcoli, le sue contabilità, le sue dimostrazioni, le sue prove. La novità, la nuova conquista, la nuova conoscenza non ha bisogno di prove, ha bisogno di fede! Non ha bisogno di dubbio, ha bisogno di lotta! Non ha bisogno di ragione, ha bisogno di forza! Il suo contenuto non si chiama Arte o Scienza, si chiama Rivoluzione!" ("III. Dal mito originario alla scienza unificata di domani").
Rivoluzione come fusione di istinto e teoria del cambiamento. Lenin scrisse nel 1902 (Che fare?): "Senza teoria rivoluzionaria non vi può essere movimento rivoluzionario." Confermiamo: la teoria è un'arma di battaglia, una bussola per l'azione, senza di essa ci si perde nell'immediatismo, non si giunge a comprendere quello che succede intorno a noi e quindi si assorbe ideologia altrui, che poi è sempre quella della classe dominante. La "nostra" teoria deriva dal lavoro di Marx e dalla lettura che ne è stata fatta dalla Sinistra Comunista, e rappresenta la continuazione del lavoro di Marx ed Engels.
Ritornando al Rapporto del Club di Roma, esso disegnava un diagramma di flusso tra i nodi dell'economia mondiale che confermavano un determinato andamento, di tipo catastrofico. Non ci può essere una crescita che sia sostenibile, ovvero non ci può essere crescita infinita in un sistema finito. Per gli autori del Rapporto gli stati avrebbero dovuto intervenire radicalmente perché altrimenti sarebbe stata inevitabile una catastrofe ecologica e sociale. La corrente cui facciamo riferimento ha sempre sostenuto che il passaggio dal capitalismo alla società futura sarà di tipo catastrofico, così come descritto in "Teoria e azione nella dottrina marxista", dove troviamo riferimenti alla "teoria delle catastrofi", alle "cuspidi" e ai "punti singolari".
Se l'accumulazione dei dati rappresenta una preziosa fonte di informazioni, che può essere utile per l'elaborazione di previsioni, solo una comprensione teorica frutto di una analisi più profonda può aiutarci ad interpretare il dato stesso. Una teoria basata su un'esperienza di molte generazioni ci spiega che la dissoluzione dell'attuale modo di produzione è, allo stesso tempo, il processo di formazione della sua antitesi.
Oggi nella società predomina il caos, ma al suo interno possiamo intravedere un ordine. Dalla fibrillazione caotica degli atomi sociali sorgeranno nuove strutture, come descritto nello schema di rovesciamento della prassi della Sinistra.
Due che allo stesso tempo sono uno
Analizzeremo due approcci al tema della conoscenza: uno è quello induttivo-statistico e l'altro quello deduttivo-teorico. Abbiamo letto a questo proposito quanto scritto da due ricercatori: Pedro Domingos (ingegnere elettronico portoghese) e Angelo Vulpiani (professore di Fisica alla Sapienza di Roma).
Quest'ultimo, in un articolo intitolato "Perché non possiamo scavalcare le teorie", critica l'idea che la correlazione basti per comprendere la realtà. Grazie alla disponibilità di sempre più informazione, alcuni dicono che siamo di fronte ad una nuova rivoluzione scientifica con la creazione di un quarto paradigma accanto alle tre tipologie esistenti. Il primo è il metodo sperimentale, il secondo quello teorico-matematico, il terzo il metodo computazionale. A queste tre metodologie se ne aggiungerebbe una quarta consistente nel trattamento dei dati alla ricerca di fenomeni ricorrenti. Il metodo "datacentrico" potremmo dire. Ma una correlazione tra dati può non avere alcun senso, e Vulpiani fa alcuni esempi, come la corrispondenza tra il numero di pirati nel mondo e la temperatura della Terra, o quella tra il numero di divorzi nello stato del Maine e il consumo di margarina negli USA. Il metodo esclusivamente induttivo procede alla ricerca di regolarità facendo meno ipotesi possibili, ma non sempre tali regolarità sono significative. Ad una teoria unitaria si sostituiscono micro-teorie contingenti che articolano pseudo spiegazioni locali.
Domingos dice di essere fiducioso nella capacità dei dati di auto-evolvere tramite gli algoritmi:
Con il passare del tempo, gli informatici sono partiti dagli algoritmi esistenti per crearne di nuovi. Gli algoritmi si combinano tra di loro per utilizzare i risultati di altri algoritmi, e i loro risultati finiscono in pasto a ulteriori algoritmi. Ogni secondo, miliardi di transistor in miliardi di computer cambiano stato miliardi di volte. Gli algoritmi formano un nuovo tipo di ecosistema, un'entità che cresce senza sosta, paragonabile per complessità solo alla vita stessa." (L'Algoritmo Definitivo)
L'algoritmo, per l'autore, non è qualcosa di esterno all'uomo, ma è alla base della sua stessa evoluzione (il DNA è un codice), che passa anche attraverso lo sviluppo delle macchine:
L'evoluzione è l'esempio per antonomasia dei risultati ottenibili con un algoritmo di apprendimento semplice, a patto di avere dati a sufficienza. Il suo input è rappresentato dalle esperienze e dai destini di tutte le creature viventi mai esistite (questi sì che sono big data). L'algoritmo, inoltre, è in esecuzione da più di tre miliardi di anni sul computer più potente della Terra: la Terra stessa." (idem)
Se c'è un algoritmo alla base dell'evoluzione biologica, allora gli algoritmi digitali sono una prosecuzione di un'evoluzione pregressa. Tra l'altro, si chiamano algoritmi genetici quelli che sono ispirati alla teoria della selezione naturale: essi fanno evolvere parti di codice alla ricerca della soluzione di un determinato problema. In effetti gli algoritmi non nascono dal nulla, c'è un passato plurimillenario che li ha prodotti e fatti evolvere. La vita stessa è una sorta di algoritmo, per arrivare a determinati risultati come la formazione di un organismo bisogna passare per delle procedure genetiche.
Alcuni fisici sostengono che, se l'universo non funzionasse fisicamente in modo organico, non sarebbe stata possibile la vita organica.
L'algoritmo, come abbiamo visto, non è altro che una procedura di calcolo che serve a risolvere un problema: una procedura basata su una rigida sequenza di azioni finalizzata ad ottenere un risultato. Tutti quotidianamente, anche senza saperlo, eseguiamo degli algoritmi. Questi si combinano tra di loro e sono arrivati a riscrivere le proprie istruzioni, stupendo gli stessi programmatori, che sovente non sanno spiegarsi cosa detti algoritmi stiano facendo e come stiano evolvendo.
Gli algoritmi digitali non rispondono a leggi diverse da quelle cui rispondono gli algoritmi che regolano il resto della natura. Quindi l'approccio induttivo-statistico e quello deduttivo-teorico non vanno messi in opposizione tra di loro, semmai vanno integrati e fatti evolvere insieme.
Un robot delle dimensioni del mondo
In una sua newsletter Bruce Schneier, esperto di sicurezza informatica e crittografia, ha messo in discussione la definizione classica di robot, cioè quella di una unità autonoma che percepisce, pensa e agisce. Non dobbiamo più pensare, egli dice, ad un esercito di robot in arrivo, dato che abbiamo costruito un robot delle dimensioni del mondo.
Viviamo all'interno di una società-robot, ne facciamo parte. La possiamo paragonare alla "macchina sociale" di cui parla Tim Berners-Lee, o ad un mega corpo oppure a un macrorganismo. Le definizioni si sprecano, ma l'importante è capire di che cosa si sta parlando, ovvero della nascita di un grande simbionte (Joël de Rosnay), un insieme ormai inseparabile uomo-macchina.
I modelli di linguaggio di grandi dimensioni (LLM) come ChatGPT hanno stupito il mondo con la loro capacità di simulare il linguaggio umano fornendo risposte credibili agli utenti. Sappiamo che dietro a questi sistemi vi è un meccanismo di tipo statistico, non un sistema che pensa come noi.
I LLM si collegano tra di loro e ad altri sistemi attraverso l'Internet delle cose. Questo insieme di algoritmi può riassumere le nostre e-mail, scrivere risposte per noi, prenotare viaggi, ecc. Sono dei nostri gemelli virtuali che si interfacciano con altri gemelli virtuali e che un domani potranno interagire massicciamente ed autonomamente con il mondo fisico, per esempio con altri sistemi divenuti nel frattempo "intelligenti" come le fabbriche, le abitazioni, i trasporti, ecc.
Il vero cambiamento avverrà quando queste intelligenze si raggrupperanno in un'intelligenza più ampia, l'"algoritmo definitivo" di cui parla Domingos, dando vita ad una vasta rete di generazione e consumo di energia.
Se siamo parte di una "macchina sociale" che noi stessi abbiamo costruito, evidentemente non ha più senso mettere in opposizione la macchina e l'uomo, come invece succede nel capitalismo; così come non ha più senso mettere in opposizione induzione e deduzione, dati e teoria. La rivoluzione comunista è operante quando fonde elementi che esistono già oggi ma che sono separati.
Siamo in prossimità di una singolarità storica: il sistema produttivo è sempre più integrato ma, allo stesso tempo, in preda alla disintegrazione politica e sociale (rivolte, guerre, ecc.). Stiamo attraversando un passaggio molto delicato per la specie umana perché, se non riusciamo a governare il sistema, se noi consideriamo le intelligenze artificiali come aliene, queste si comportano di conseguenza. Un esempio su tutti è quello degli attuali conflitti bellici in cui si sperimenta lo scontro tra sistemi di macchine automatiche.
Come nel caso degli scacchi, ci troviamo di fronte ad un'intelligenza che in quel particolare ambito supera quella umana. Oggi ci sono software che giocano contro altri software. Finché si gioca a scacchi non c'è problema, ma se queste tecnologie vengono usate in guerra, i problemi per la specie umana saranno terribili. Se parte questo tipo di conflitto, chi staccherà per primo la spina alla macchina con il rischio di rimanere in svantaggio rispetto all'avversario?
È urgente trovare il modo di superare l'antagonismo tra uomo e macchina, per fondere teoria e dati. Lo si può fare solo superando la divisione sociale del lavoro, e per arrivare a tanto è necessaria un'opera di chiarificazione teorica, ma, prima ancora, di lotta per l'abolizione del sistema del lavoro salariato.
Verso il superamento dei dualismi sociali
Il superamento dei dualismi era un problema che la nostra corrente si era posta circa un secolo fa, ed è stato da noi affrontato nel numero doppio della rivista "Per una teoria rivoluzionaria della conoscenza" (n. 15-16) dove abbiamo messo a disposizione dei lettori cinque testi inediti di Bordiga sulla teoria della conoscenza.
Ma anche la società borghese, con ritardo, e sulla spinta dello sviluppo delle forze produttive, sentiva il problema. Durante la Seconda Guerra Mondiale nasce la cibernetica (Norbert Wiener), che si propone di studiare il comportamento degli organismi viventi e quello dei computer con le medesime leggi. Elaborando la moderna teoria dei giochi (The Theory of Games and Economic Behavior) John von Neumann e Oskar Morgenstern negli anni '40 stavano lavorando ad una concezione unitaria della teoria dell'informazione, applicabile all'intelligenza, all'evoluzione, all'economia e alla guerra. Negli anni 50' in seguito alle ricerche dello psichiatra William Ross Ashby prese piede il filone di studi che sarà chiamato teoria dell'autorganizzazione, riguardante tutti i sistemi aperti, e che nei decenni evolverà soprattutto con le ricerche sui sistemi complessi.
Ritornando al nostro numero monografico sulla "conoscenza", abbiamo dedicato un capitolo al superamento dei dualismi ("II. Frammento sulla teoria rivoluzionaria della conoscenza") in cui Bordiga afferma che la moderna teoria rivoluzionaria è un monismo, ed è compito del partito dell'antiforma, anticipando la conoscenza di domani, superare le opposizioni tra soggetto e oggetto, quiete e moto, ecc.
Contro quelli che pensano che l'uomo sia diverso dal resto della materia di cui è composto l'universo, lo citiamo direttamente: "Non abbiamo bisogno di risolvere l'enigma se debba prevalere la specie pensante o la materia passiva: sono tutte e due attive, tutte e due collaboranti, sono parte integrante di un unico sistema. L'antico enigma è stato sciolto in una concezione nuova e superiore." (Riunione di Firenze, 20 marzo 1960)
In mancanza di una rivoluzione, il capitalismo stesso sta superando il confine tra mondo del nato e del prodotto, con esiti - come abbiamo detto - problematici per la specie umana (Kevin Kelly, Out of control).
Il comunismo rappresenta la risoluzione dei dualismi sociali; essendo un movimento distruttivo dell'esistente, esso getta le basi per il passaggio ad un'altra forma sociale, che non conosce antagonismi di classe:
Ritorniamo quindi al punto: il comunismo è il risolto enigma della storia e si considera come tale soluzione. Ciò è estremamente importante. Perché, se il comunismo è il risolto enigma della storia, l'umanità, per avere dinanzi ai suoi occhi questi enigmi già risolti, dovrebbe aspettare di essere nel comunismo, nella società comunista. Ma la società comunista per noi esiste fin da ora, essa è anticipata nel partito storico che ne possiede la dottrina. Non la possiede in quel modo completo, in quel modo elaborato [che sarà caratteristico della società futura], la possiede in modo approssimato." ("II. Frammento sulla teoria rivoluzionaria della conoscenza")
Per adesso ci muoviamo dunque in modo approssimato verso questa conoscenza:
La nostra cognizione del mondo non può dunque avere un valore di opera perfetta e conclusa, come nelle pretese di carattere scolastico, accademico, scientifico, pretese che sono sempre state caratteristiche delle ideologie conservatrici e controrivoluzionarie. Essa ha carattere essenzialmente aperto, dinamico; e soggetto di questa posizione che liquida le antiche contese ideologiche è il partito. È il partito che sovrappone ad esse una nuova teoria, una pre-coscienza della società futura; che rappresenta la coscienza soggettiva; che fa del "nostro" soggetto un'essenza non più individuale." (idem)
Abbiamo a disposizione una teoria che spiega il divenire sociale, abbiamo delle certezze, come ad esempio la morte dell'attuale modo di produzione e l'avvento di una nuova forma sociale, ma non possiamo maneggiare in maniera completa la teoria monistica di domani; vivendo in questa società non possiamo non essere "divisi".
Perciò, il nostro lavoro di ricerca ha carattere essenzialmente aperto. Ogni nostro testo è un semilavorato da portare a un livello sempre più compiuto. Oggi possiamo avere solo una conoscenza approssimativa del funzionamento della società futura, siamo ancora all'interno di quel dualismo che vede il partito come un'entità soggettiva separata dalla realtà oggettiva.
Intendiamo ancora la volontà qualcos'altro rispetto alla necessità.
Guardiamo alla macchina con una certa diffidenza, come facciamo con i nostri simili. La causa di tutto ciò è, come abbiamo detto, la divisione sociale del lavoro. Dalla sua negazione bisogna partire per fare chiarezza sul nostro modo di vivere.
LETTURE CONSIGLIATE:
- - Bateson Gregory, Verso un'ecologia della mente, Adelphi, 2000.
- - Berti Enrico, Profilo di Aristotele, Studium, 2012.
- - Clark Andy, Natural-Born Cyborgs: Minds, Technologies, and the Future of Human Intelligence, OUP USA, 2004.
- - Cristianini Nello, La scorciatoia. Come le macchine sono diventate intelligenti senza pensare in modo umano, Il Mulino, 2013.
- - De Rosnay Joël, L'uomo, Gaia e il cibionte. Viaggio nel terzo millennio, Dedalo, 1997.
- - Domingos Pedro, L'algoritmo definitivo. La macchina che impara da sola e il futuro del nostro mondo, Bollati Boringhieri, 2016.
- - Dyson George, L'evoluzione delle macchine. Da Darwin all'intelligenza globale, Raffaello Cortina, 2000.
- - Godfrey-Smith Peter, Altre menti. Il polpo, il mare e le remote origini della coscienza, Adelphi, 2018.
- - Harari Yuval Noah, 21 lezioni per il XXI secolo, Bompiani, 2018.
- - Hölldobler Bert, Wilson O. Edward, Il superorganismo. Bellezza, eleganza e stranezza delle società degli insetti, Adelphi, 2009.
- - Kelly Kevin, Out of control.La nuova biologia delle macchine, dei sistemi sociali e del mondo dell'economia, Apogeo, 1996.
- - n+1," Evoluzione extra biologica", n. 55, luglio 2024.
- - n+1,"Legge della miseria crescente. Verifica sperimentale con un modello di simulazione", n. 20, dicembre 2006.
- - n+1, "L'uomo e il lavoro del Sole", n. 5, settembre 2001.
- - n+1,"Per una teoria rivoluzionaria della conoscenza",n. 15-16, giugno-settembre 2004.
- - O'Neil Cathy, Armi di distruzione matematica. Come i big data aumentano la disuguaglianza e minacciano la democrazia, Bompiani, 2017.
- - Talia Domenico, L'impero dell'algoritmo. L'intelligenza delle macchine e la forma del futuro, Rubbettino, 2021.
- - Parisier Eli, Il filtro, Il Saggiatore, 2012.
- - PCInt., "Teoria e azione nella dottrina marxista", Bollettino Interno, n. 1 del 10 settembre 1951.
- - Poggio Tomaso, Magrini Marco, Cervelli, menti, algoritmi. Il mistero dell'intelligenza naturale, gli enigmi di quella artificiale, Sperling & Kupfer, 2023.
- - Wiener Norbert, Introduzione alla cibernetica, Bollati Boringhieri, 1970.
- - Zellini Paolo, La dittatura del calcolo, Adelphi, 018.
Note
[1] La scorciatoia, Cristianini.
[2] Cit. in La scorciatoia, Cristianini.
[3] "Oltre la produzione snella", Kim Moody, 11 maggio 2024.
[4] "WorkIt: il futuro dell'organizzazione sindacale è un'app", 16 novembre 2016 (www.chicago86.org).
[5] Cit. in L'evoluzione delle macchine. Da Darwin all'intelligenza globale. George Dyson.
[6] "Oltre l'intelligenza artificiale: i biocomputer fatti di neuroni umani", Sandro Iannaccone, 06 marzo 2023 (www.wired.it).
[7] "Quanti sono 4,8 zettabyte? Sono tanti quanto l'intero traffico di dati transitato sulla rete Internet tra il 1984 e il 2016. O, il che è lo stesso, tanti quanti ne transiteranno nel solo anno 2022. A predire questa vera e propria esplosione della mole di dati trasmessa in rete è l'edizione 2018 del Cisco Visual Networking Index. Un report che, ogni anno, fornisce indicazioni sullo sviluppo futuro di Internet, vuoi in termini di infrastruttura, che di velocità, che appunto di traffico". Da "Quanti sono 4,8 zettabyte? Il traffico dati su Internet tra il 1984 ed il 2016", Il Sole 24 Ore online, 13 dicembre 2018 (www.infodata.ilsole24ore.com).
[8] Il manifesto, 20 ottobre 2019.
[9] "La Quarta Guerra Mondiale", 1° maggio 2022 - Supplemento al n. 50 di n+1.