Legge della miseria crescente (4)
Terzo passaggio: ineguaglianza ed entropia del sistema
Ricordiamo per un momento l'introduzione, dove abbiamo definito l'entropia di un sistema economico come il suo grado di "disordine", in grado di causare, con il succedersi caotico delle interazioni fra i suoi elementi, una situazione stabile, di equilibrio, non più modificabile da ulteriori perturbazioni. Al contrario, un sistema che possegga un certo grado di sensibilità al "rovesciamento della prassi", cioè agli interventi che ne potrebbero impedire l'evoluzione verso la curva esponenziale, è neg-entropico, in grado di evolvere, un po' come gli organismi viventi. Nello studio in esame sono riportate le formule per ricavare l'indice di entropia; nelle tabelle che seguiranno fra poco ne riporteremo solo il risultato.
L'indice di entropia corrisponde al grado di dissipazione interna dell'energia sociale. Tale concetto non è per nulla estraneo al nostro programma politico ed è già presente negli appunti di Marx raccolti nel II Libro del Capitale (cfr. anche Scienza economica marxista come programma rivoluzionario, sulla dissipazione capitalistica). L'azione cosciente degli uomini, quando sia tesa a modificare (ordinare) il sistema in cui vivono è la negazione dell'entropia, e ognuno capisce bene perché ciò abbia a che fare con il concetto di "rovesciamento della prassi", cioè dell'azione cosciente da parte dell'organo rivoluzionario quando la situazione maturi le condizioni per il salto verso la società nuova. In assenza di tale rovesciamento, vale la definizione del Secondo principio sintetizzata nel seguente enunciato:
"Secondo principio della termodinamica: qualunque trasformazione spontanea è accompagnata a un aumento dell'entropia dell'universo" (Atkins).
Ovviamente, nell'universo, anche le trasformazioni dal caos all'ordine sono spontanee, ma nel sistema locale in cui si manifestano, possono essere neg-entropiche solo a scapito di energia "esterna". In termodinamica l'entropia indica quanta energia, pur entro il bilancio generale delle leggi di conservazione della stessa, in un sistema locale si trasforma da utilizzabile a inutilizzabile; in teoria dell'informazione (e quasi con le stesse formalizzazioni) essa indica la perdita di ordine in un sistema che va verso il disordine (nell'universo, da una situazione meno probabile a una più probabile). Nel nostro caso l'entropia è massima nel caso del grafico di distribuzione esponenziale e diminuisce quanto più ci si discosta da una situazione di equilibrio stocastico, cioè quanto più il sistema è governato da leggi non casuali, quelle in grado di invertire la "spontaneità" di quel tipo di curva.
L'indice di ineguaglianza ricavato dai precedenti grafici e dal modello al computer è strettamente correlato all'entropia perché ci dà lo stato di un sistema entro il quale le interazioni spontanee fra le molecole sociali portano infine a una condizione stabile, perciò di minore energia dissipata (dissipata in precedenza e non più disponibile); in altre parole, dove al massimo reddito di una esigua minoranza non più riducibile corrisponde il minimo reddito di una maggioranza non più espandibile. L'ineguaglianza sociale si misura per convenzione con l'indice di Gini, un indicatore economico adottato dall'anno scorso anche dal World factbook della CIA (sì, proprio il servizio segreto americano), che prende in esame tutti i paesi del mondo rendendone confrontabili le economie attraverso misure universali di valore.
Questo indice di ineguaglianza è piuttosto interessante dal punto di vista dell'indagine sulla legge della miseria crescente e vale la pena di ricordare la sua origine. Corrado Gini (1884-1965), statistico e demografo, nel 1926 fu il primo presidente dell'ISTAT. Nel 1936 fondò a Roma la facoltà di Scienze statistiche. Fu incaricato dal governo fascista di lavorare intorno al problema demografico per individuare le condizioni economiche favorevoli all'aumento della popolazione italiana. Propose soluzioni per la diminuzione della mortalità infantile, per il risanamento urbano delle città industriali, per un arresto della fuga dalle campagne tramite progetti di nuovo inurbamento dei contadini (le new town mussoliniane), per il miglioramento in generale delle condizioni economiche collegate al concepimento, individuate nella crescita guidata dell'economia. Gini era quindi per definizione un anti-malthusiano, e per di più legava il problema demografico ai caratteri avanzati della società capitalistica. Infatti, l'inurbamento dei contadini in quanto tali fu un progetto specificamente fascista e avveniristico, a quanto ci risulta mai tentato da altri nella storia dell'urbanistica.
La figura 18 rappresenta un sistema economico in cui sull'asse orizzontale sono indicate le percentuali di famiglie con un dato reddito, in ordine crescente mentre sull'asse verticale è indicata la percentuale del reddito totale detenuta da ciascuna percentuale di famiglie. Questo grafico è detto "curva di Lorentz" e richiama nella forma l'esponenziale vista in precedenza, ricavata con il modello semplificato e in via teorico-analitica. Il rapporto tra l'area A e la somma delle aree A e B è l'indice di ineguaglianza o di Gini. Tale indice sarebbe zero nel caso di reddito equamente distribuito fra tutte le famiglie (la curva coinciderebbe allora con la retta diagonale); sarebbe uno nel caso di una sola famiglia che detenesse tutto il reddito. Risulta quindi che la metà delle famiglie possiede il 20% circa del reddito e l'altra metà l'80%; il dato statistico reale per il mondo ci dice che il 20% delle famiglie possiede l'87% del reddito.
Dagli esperimenti con il modello in esame, scaturisce un fenomeno curioso e anti-intuitivo: se si impone lo stesso reddito medio sia nel caso di una distribuzione di Pareto che in una esponenziale, osserviamo che l'ineguaglianza di Gini nel primo caso è sempre maggiore che nel secondo, mentre l'entropia è maggiore nel secondo. Ciò significa che la distribuzione di Pareto, che si discosta di meno dal caso reale, diminuisce la dissipazione del sistema al prezzo di una maggiore ineguaglianza. Infatti, per ottenerla in via teorico-analitica, è stato necessario apportare correzioni al sistema, proprio come si fa nella realtà. Il fenomeno sembra confermare appieno le osservazioni di Forrester basate sulla dinamica dei sistemi: il comportamento dei sistemi complessi, come la società capitalistica, di fronte ai provvedimenti riformistici è anti-intuitivo e può portare a risultati opposti rispetto alle aspettative. Inoltre, siccome Pareto aveva ricavato la sua curva teorica dall'osservazione empirica, la realtà ci indica che gli autoaggiustamenti del sistema ne diminuiscono la dissipazione ma solo a scapito della vagheggiata uguaglianza. E siccome con l'aumentare della complessità del sistema (globalizzazione, imperialismo, autonomizzazione del Capitale, tutti sinonimi) i provvedimenti per la sua salvaguardia dovranno essere sempre più massicci, ecco che abbiamo per altra via un'ulteriore potente conferma della legge di Marx.
Ricapitoliamo i risultati raggiunti con gli strumenti teorici fino a questo punto verificati: 1) le distribuzioni di riferimento, sia dal modello semplificato che dall'analisi matematica, corrispondono a quelle reali; 2) l'indice di ineguaglianza in riferimento alle distribuzioni è quello rilevato nei maggiori paesi capitalistici; 3) l'entropia dei sistemi varia a seconda della distribuzione e c'è la possibilità di abbassarla per mezzo di interventi che conducano alla modifica dei grafici. Soprattutto quest'ultimo punto, il concetto di entropia con il calcolo della stessa, sarà un elemento assai utile per comprendere quanto la stabilità del sistema sia influenzata da leggi economiche e quanto lo sia invece da elementi stocastici incontrollabili.
Quarto passaggio: il vincolo "di classe"
Il modello base analizzato al primo passaggio, si precisa nel testo, è fondato sull'ipotesi che il valore globale esistente nel sistema non cambi con il tempo. In questo modello esistono solo leggi interne elementari di scambio casuale; perciò l'introduzione di leggi diverse, con vincoli che ne rendano più ricca e complessa la struttura, lo porteranno ad essere più aderente alla realtà. Data la natura del programma, cui si possono aggiungere istruzioni ad hoc, sarà possibile, durante il processo di simulazione, verificare il modo di agire dei suddetti vincoli e leggi, valutarne la rilevanza, quantificarne gli effetti, confrontare i risultati con i dati offerti dalle rilevazioni statistiche ufficiali. In ultima analisi si tratta di individuare le leggi "economiche" in un modello che come condizione iniziale realizza semplicemente uno scambio, non importa entro quale tipo di sistema.
Il modello base non è nuovo nella sperimentazione, non solo economica. Ad esempio ne sono stati utilizzati di analoghi per le ricerche sulla teoria delle reti. In campo economico erano comuni a partire dagli anni '70 del secolo scorso, ma i vincoli erano imposti soprattutto da considerazioni di carattere matematico. L'autore considera un vantaggio l'uso del computer come strumento di simulazione, dato che permette non solo di aggirare facilmente le ricordate difficoltà insite nel metodo teorico-analitico ma di adottare vincoli molto più complessi e articolati.
Si parte quindi dal solito modello di 1.000 individui con reddito medio di 10 unità (reddito totale 10.000). Un primo vincolo è introdotto assumendo che nel sistema lo scambio tra individui non sia completamente casuale; vale a dire che si modifica il sistema a livello microeconomico introducendo un meccanismo "non neutrale" ricavato in modo "neutrale". Si parte cioè dall'ipotesi sociologicamente assurda ma formalmente plausibile che il meccanismo di scambio possa essere a favore o a sfavore di chi possiede un reddito superiore alla media.
In una prima simulazione si fa l'ipotesi che in una interazione casuale l'individuo con reddito minore abbia maggiore probabilità di "guadagno" rispetto al suo più ricco interlocutore. Il risultato, prevedibile, è che diminuiscono sia i poveri che i ricchi a favore della fascia centrale di reddito. Se al contrario si parte dall'ipotesi che sia l'individuo con reddito maggiore ad essere statisticamente privilegiato, allora si ottiene una curva che, invece di appiattirsi, si approssima a quella di Pareto; curva che, ricordiamolo, era descritta matematicamente dopo essere stata rilevata empiricamente dai dati statistici reali: aumentano gli individui a basso reddito, aumenta il reddito a pochi individui, si riduce la fascia intermedia.
Dal punto di vista formale non vi sarebbe ragione di scegliere un vincolo piuttosto che l'altro, ogni ipotesi è "neutrale". Dal punto di vista empirico è invece "ragionevole" scegliere un sistema in cui "i ricchi diventano sempre più ricchi", dato che ne abbiamo riscontro nella realtà. Ma ragionevole non vuol sempre dire scientifico, anche se è perfettamente lecito e anzi doveroso, da questo punto di vista, confrontare i risultati teorici con quelli dei dati reali. Dal nostro punto di vista comunque non c'è scelta, per il sistema, ma necessità di imboccare la strada dove "i ricchi diventano sempre più ricchi" piuttosto che l'altra. Siamo infatti in un sistema, quello capitalistico, che soffre della sua contraddizione massima: la produzione sociale e l'appropriazione privata. Il plusvalore deriva dalla differenza fra il valore totale prodotto dall'operaio per il capitalista e il valore che occorre per riprodurre l'operaio stesso. L'appropriazione privata fa sì che il flusso di valore, tenendo conto di tutte le classi e sottoclassi, sia obbligato a dirigersi verso i capitalisti. La legge del valore ha senso solo con la proprietà, quindi introduce un assioma nello scambio e polarizza obbligatoriamente il sistema sull'aggregazione crescente di ricchezza.
Con differenti criteri di vincolo allo scambio si ottengono ovviamente differenti scenari. Togliendo ad esempio la possibilità statistica − peraltro minore − che il reddito di coloro che già l'hanno alto venga decurtato, il fatto di giungere all'accumulo di tutto il reddito sociale nelle mani di un solo individuo sarebbe solo una questione di tempo. Sempre che non esistano nel sistema meccanismi di redistribuzione del reddito (compresi crisi, fallimenti, ecc.). Per quanto in alcuni casi sia scontato il comportamento del sistema a questo livello, è proprio agendo sui vincoli che si comprende già meglio il modificarsi più o meno spontaneo del sistema reale di fronte alla sua crisi. In ogni caso la loro adozione, lasciando da parte quelli che non corrispondono al mondo reale, dà sempre come risultato un aumento della sovrappopolazione relativa, cioè quell'ammasso di individui che nei grafici rappresenta la zona di basso reddito (e anche zero reddito) cui si contrappone la coda, il sottile strato della classe proprietaria.
Quinto passaggio: il vincolo della redistribuzione forzata
La società capitalistica non può permettersi il lusso di accentrare la ricchezza sociale nelle mani di troppo pochi individui: la sovrappopolazione assoluta ha per definizione reddito zero, e se non vi fosse qualche forma di sostentamento che proviene dalla famiglia, dallo Stato, dalle attività improduttive (impiego pubblico, piccolo commercio, artigianato, collaborazione domestica, ecc.) che beneficiano di valore altrui, vi sarebbe un'esplosione sociale di incontrollabile violenza. È quindi il sistema stesso, così come si configura già a livello elementare, a suggerire l'oscillazione fra caso e necessità, cioè fra anarchia produttiva-distributiva e piano sociale (una forma statale di rovesciamento della prassi). Il cosiddetto keynesismo non ha altre origini che il tentativo di evitare la rivoluzione sociale tramite la distribuzione del reddito, per ammissione dello stesso Keynes.
Perciò un secondo vincolo introdotto nel sistema è proprio l'imposta sul reddito e la conseguente redistribuzione al suo interno. L'operazione non serve a "scoprire" che l'imposta modifica la curva di distribuzione statistica, cosa che si sa già; ciò che è utile ottenere è una risposta sugli effetti quantitativi degli interventi fiscali ai fini di stabilità sociale (equilibrio del modello, appiattimento della curva statistica). Anche in questo caso la pubblicistica dimostra come vi siano state difficoltà nel risolvere il problema della previsione per via puramente matematica.
Ad esempio, ogni paese adotta l'anno solare come base per il proprio bilancio contabile e per l'imposizione fiscale, ma nessuno può sapere quale sia realmente il ciclo economico di riproduzione e accumulazione del capitale (è certo meno di un anno, specie nei settori a tecnologia avanzata). Nel modello il tempo non esiste, come non esiste nei grafici di distribuzione ottenuti. L'unico riferimento possibile è la velocità degli scambi, nel senso che occorre un certo numero di scambi per far passare di tasca una certa quantità di reddito. Nel modello si è quindi assunto che un "anno" (arbitrario) equivale al tempo virtuale occorrente per scambiare fra individui l'intera ricchezza del sistema economico (nella realtà lo scambio dell'intera ricchezza prodotta in un anno nel mondo avviene in circa due settimane, specie sui mercati finanziari).
Un altro problema è la fissazione dell'entità del prelievo fiscale diretto sul reddito risolvibile con la sperimentazione di varie opzioni: imposta proporzionale al reddito, crescente col crescere del reddito, crescente per scaglioni con tetto minimo e massimo, ecc., implementando anche un certo grado di evasione fiscale e tralasciando al momento il prelievo indiretto. In ogni caso, per quanto si aumentino le istruzioni al programma, per quanto la struttura dei vincoli sia sempre più articolata, la procedura di simulazione diviene più complessa ma non più complicata o macchinosa, né si modifica l'affidabilità dei risultati. È su questo terreno che i procedimenti puramente matematici pongono problemi spesso insormontabili.
Nel modello in esame, in un primo tempo si procede a un prelievo fiscale semplicemente proporzionale al reddito, con una redistribuzione uguale per ogni individuo, indipendentemente dalla sua ricchezza. Già questo semplice passaggio fa variare la distribuzione dei redditi alti limitandoli, mentre migliora la distribuzione dei redditi bassi, innalzandoli. Ripetendo la simulazione per prelievi fiscali del 5, 10, 15 e 20% si ottengono i grafici della figura 19. Come si vede, anche con una pressione fiscale molto bassa (5%) il numero degli individui con reddito alto risulta sensibilmente ridotto e la curva si discosta di poco da quella esponenziale. Per pressioni al di sopra del 5% si ottiene una curva che si avvicina a quella di Gauss; al 10% la curva si approssima a quella di Pareto; al di sopra del 10% la curva non si modifica quasi più, il sistema diventa insensibile agli stimoli ulteriori.
Con l'intervento dello Stato nella redistribuzione del plusvalore all'interno della società, diminuiscono anche l'indice di ineguaglianza (di Gini) e, fatto notevole, il grado di dissipazione del sistema (entropia):
% Tassazione | 5% | 10% | 15% | 20% |
---|---|---|---|---|
Indice di Gini | 0,451 | 0,310 | 0,261 | 0,248 |
Entropia | 3,39 | 3,12 | 2,97 | 2,92 |
Già a questo livello si dimostra come una società che sia in grado di praticare un minimo di controllo del fatto economico (modificare visibilmente le curve di distribuzione del reddito significherebbe già attuare una pianificazione effettiva) sia avvantaggiata rispetto a quelle che teorizzano e praticano un liberismo senza controlli. È infatti assodato che il motore dell'economia capitalistica è nel consumo di massa, che però è negato dal suo stesso funzionamento spontaneo quando comprime i redditi della massa. La capacità di un minimo di progettazione sociale non è evidentemente da confondere con i "piani" centralizzati e sgangherati dei cosiddetti paesi socialisti, che anzi, erano e sono altamente dissipativi senza cessare di essere generatori di stridenti ineguaglianze. Nei paesi più industrializzati l'indice di Gini oscilla fra lo 0,25 e lo 0,40, con eccezioni ai due estremi. Per quanto riguarda gli Stati Uniti, il paese-paradigma del capitalismo planetario, il dato storico dimostra perfettamente la validità della legge marxiana: l'indice di Gini era dello 0,38 nel 1959, dello 0,36 nel 1969 e dello 0,45 nel 2004. L'americano medio vive, in termini relativi, in uno dei paesi socialmente più miserabili del mondo. Nella tabella qui a fianco riportiamo gli indici di Gini di alcuni paesi significativi.
Paese | Indice di Gini |
Danimarca | 0,23 |
Belgio | 0,25 |
Germania | 0,28 |
PaesiBassi | 0,31 |
UnioneEuropea | 0,32 |
Francia | 0,32 |
India | 0,32 |
Spagna | 0,32 |
Canada | 0,33 |
Svizzera | 0,33 |
Italia | 0,36 |
Regno Unito | 0,37 |
Giappone | 0,38 |
Russia | 0,40 |
Cina | 0,44 |
Stati Uniti | 0,45 |
Nigeria | 0,51 |
Brasile | 0,59 |
Bolivia | 0,60 |
Mondo | 0,87 |
Fonte: CIA, World Factbook 2006. ONU per l'indice mondiale.
Nell'economia reale siamo ormai giunti a un livello di imposta sul reddito (diretta e indiretta) intorno al 50% a scala planetaria, nel tentativo di salvare il sistema tramite la distribuzione del plusvalore nella società. È un dato che fa riflettere. In primo luogo, perché il sistema capitalistico mostra di aver raggiunto il culmine delle sue possibilità di intervento per salvarsi; in secondo luogo, perché a questo livello di imposizione fiscale ogni variazione di qualche punto, in più o in meno, non influisce assolutamente più sulle condizioni di vita della popolazione, come del resto si deduce a livelli molto più bassi anche dai grafici risultanti dal nostro modello. Tornando ai quali, notiamo che essi riflettono un sistema sostanzialmente antiriformista, nel senso di refrattario alle riforme, insensibile a quei cambiamenti che si possono produrre nell'ambito della legislazione corrente. Un sistema che avrebbe bisogno di politiche straordinarie proprio mentre si appiattisce sulle uniche politiche consolidate che conosca: il libero mercato temperato dall'intervento statale.
L'autore ha provato a cambiare il tipo di imposizione fiscale, a introdurre meccanismi via via progressivi, a simulare zone di evasione (quindi simulando di riflesso anche gli effetti di un recupero tramite la lotta all'evasione), stabilire un tetto massimo al prelievo, ecc., insomma, ad articolare in vari modi i meccanismi di scambio in modo da favorire i redditi bassi per mantenere una certa capacità di consumo. Nei vari cicli (esperimenti) di interazione con i diversi parametri, l'effetto è stato di ottenere l'abbandono della curva approssimata a quella di Pareto e l'avvicinamento a una curva esponenziale, che, come abbiamo visto, distribuisce più gradualmente i redditi, acuendo però la distanza fra quelli alti e quelli bassi, più di quanto risulti dalla situazione reale. In sostanza, viene detto, a partire da un valore abbastanza basso dell'imposizione fiscale, i risultati rimangono molto stabili. Gli aspetti qualitativi della curva sono dati più dal prelievo fiscale che dai criteri di scambio, ma oltre un certo limite il sistema non risponde quasi più e la curva subisce variazioni minime anche in presenza di evasione fiscale o del recupero della stessa (figura 20). Rimane il fatto che con due soli parametri vincolanti dello scambio, di chiaro significato economico, si sono ottenuti risultati che non solo simulano abbastanza bene la realtà, ma sono in grado di fornire indicazioni precise sulla sensibilità del sistema alle sollecitazioni volte a riformarlo.
Sesto passaggio: accumulazione e crisi
Nel percorso che rappresenta il ritorno "dall'astratto al concreto", si estende la simulazione modificando il modello fino a che l'accordo qualitativo fra simulazione e realtà non risulti soddisfacente. Occorre forse ribadire che l'indagine statistica sulla realtà, cioè la raccolta dei dati come la potrebbe compiere l'ISTAT, dà indicazioni generali sullo stato dell'economia e della società, in un certo senso ne scatta la fotografia, offrendo poca informazione rispetto ai meccanismi di modifica della realtà. Compito del modello è invece di riprodurre questa realtà come in un laboratorio, con meccanismi predefiniti, quindi in grado non solo di generare conoscenza sul sistema simulato, ma anche di consentire esperimenti, come la previsione sulla sua dinamica futura o la modifica dei parametri necessari ad ottenere un risultato voluto. Il modello in esame permette già di individuare risultati a partire dai meccanismi implementati, specie per quanto riguarda la parte dei redditi al di sotto di quello medio. È però ancora troppo grezzo per riprodurre la realtà e metterci in grado di condurre esperimenti veramente realistici. Ad esempio non è decisiva la differenza fra "reddito" e "ricchezza", i quali ovviamente non sono la stessa cosa, specie per noi, che con Marx riduciamo tutto a solo a valore, cioè salario più plusvalore (e la parte di quest'ultimo che non va ai capitalisti è ripartita fra le mezze classi e gli strati improduttivi, compresi i proprietari fondiari).
A questo punto viene finalmente immessa una differenziazione fra ricchezza e reddito. Lo "stock di ricchezza" (per noi: valore accumulato) varia nel tempo, per cui è possibile stabilire se nel sistema la distribuzione del reddito avviene in presenza di espansione (accumulazione) o recessione (crisi). Poiché si fa l'ipotesi che espansione e recessione siano dovuti alla somma dei bilanci individuali e che vi siano redditi da ricchezza precedente e redditi di sussistenza, abbiamo una certa analogia con lo scenario marxiano: se vi è valore in più e non è generato per sé da chi ha solo reddito di sussistenza (il valore della forza-lavoro equivale appunto alla sussistenza del proletario), allora siamo di fronte a operai e capitalisti, un modello a classi pure senza l'intralcio di quelle spurie. E siccome il modello è costruito per sperimentare gli effetti della variazione delle condizioni iniziali sulla distribuzione del reddito, non ha interesse implementarvi anche una simulazione dei meccanismi di produzione, investimento e consumo: si danno per conosciuti. Ciò è dovuto, viene detto, alla necessità di circoscrivere il problema, non certo a difficoltà metodologiche, dato che, come abbiamo visto, si tratterebbe soltanto di estendere le istruzioni al programma, che si può rendere complesso quanto si vuole senza che ne sia inficiata l'attendibilità.
Stabilito che anche per noi va bene così, dato che stiamo verificando per altre vie la maltrattata legge della miseria crescente, procediamo con lo studio del modello, seguendone l'evoluzione. Gli scambi continuano ad essere casuali, vincolati dall'imposizione fiscale e ora pure dallo scambio differenziato che produce una variazione del valore totale. Si fa quindi evolvere il sistema fino alla situazione di equilibrio: adesso, per quanto gli scambi di valore mantengano un carattere sostanzialmente stocastico, essi producono degli effetti nuovi a causa della differenza fra reddito di sussistenza e da ricchezza pregressa; il valore complessivo può aumentare o diminuire a seconda della quantità di valore prodotto ex novo.
Superati alcuni scogli metodologici, come la presenza di elementi non lineari e la difficoltà di stabilire scale temporali coerenti tra le varie componenti del sistema, la simulazione mostra questo scenario: la distribuzione del reddito avviene 1) attraverso una quota fissa posta uguale per tutti, che nel caso di reddito basso (di sussistenza) è consumata completamente, e 2) attraverso una quota proporzionale al reddito (più è elevato il reddito, più ricchezza confluisce verso di esso). Ciò ovviamente tenderebbe a gettare un numero crescente di redditi bassi o bassissimi nel girone della miseria. Qui entra in gioco il vincolo dell'imposizione fiscale con relativa ripartizione sociale del prelievo e, come nel precedente modello semplificato, si osserva una scarsa sensibilità al cambiamento "riformista". La figura 21 mostra l'andamento della curva di distribuzione in presenza di una imposizione fiscale del 10, 15, 20 e 25%. La figura 22 mostra invece l'andamento della stessa curva in presenza di una variazione del valore globale del sistema a tassi di espansione dell' 1, 2, 3, 4% con una imposizione fiscale fissa del 10%. Permane l'inerzia al cambiamento, anche se con l'espansione economica diminuisce l'indice di ineguaglianza.
Se infatti si calcola l'indice di Gini per le distribuzioni esaminate, si trova un risultato assai interessante: all'aumentare del tasso di espansione da 1% a 4% l'indice assume valori decrescenti, mentre l'entropia aumenta, cioè ha un andamento opposto:
Tasso di espansione | 1% | 2% | 3% | 4% |
---|---|---|---|---|
Reddito medio | 12,2 | 13,2 | 14,2 | 15,1 |
Indice di Gini | 0,345 | 0,318 | 0,303 | 0,291 |
Entropia | 3,35 | 3,41 | 3,48 | 3,54 |
Ciò dipende dal fatto che, con tassi di espansione più elevata, le leggi introdotte nel sistema per modificarlo hanno minor peso: in altre parole, la riduzione dell'ineguaglianza non è necessariamente il risultato di una scelta economica, basta che si passi da un ciclo sfavorevole a uno favorevole. Infatti la distribuzione del reddito, anche in presenza di un maggiore realismo nel sistema simulato, risulta influenzata da due soli parametri: l'imposizione fiscale e il tasso di espansione.
L'esperimento con tassi di espansione negativi offre risultati speculari, ovvero la prova a contrario: l'indice di Gini in questo caso aumenta e assume valori elevati mentre si ha un notevole accumulo di redditi bassi e una diminuzione dell'entropia (vedi Figura 23):
Tasso di espansione | - 1% | - 2% | - 3% | - 4% |
---|---|---|---|---|
Reddito medio | 9,8 | 9,1 | 7,7 | 7,2 |
Indice di Gini | 0,412 | 0,432 | 0,454 | 0,481 |
Entropia | 3,24 | 3,19 | 3,11 | 3,03 |
La "legge assoluta" è confermata
Da quanto abbiamo appreso implementando funzioni successive nel modello di simulazione e osservando la sua dinamica interna, è chiaro che l'introduzione di parametri di sviluppo o di non sviluppo del sistema risulta essere il mezzo più importante sia per verificare come varia la distribuzione del reddito di fronte a movimenti economici spontanei, sia per modificarla intervenendo sul sistema stesso. Lo sviluppo, insomma, modifica la distribuzione più dell'imposizione fiscale volta alla ripartizione sociale del plusvalore. Ma non in modo sostanziale: le curve spostano gli estremi di reddito, ma mantengono comunque sempre la stessa forma.
A prima vista il variare della distribuzione, nonostante l'invarianza dell'andamento generale, sembrerebbe un argomento forte a favore dei keynesiani che, non mettendo in discussione il sistema, si accontenterebbero di un risultato riformista considerato notevole. Ma proprio l'invarianza di fondo dell'andamento delle curve sembrerebbe, al contrario, un argomento forte a favore dei neoliberisti; i quali sostengono che l'intervento dello Stato non "crea" risorse ma le toglie da un'allocazione in cui renderebbero lo stesso servizio in modo spontaneo per spostarle verso un'altra. Dal punto di vista generale secondo cui "nulla si crea e nulla si distrugge" questi ultimi avrebbero ragione, se non fosse per il fatto che essi si fermano − sempre secondo la nostra analogia con la fisica − al primo principio della termodinamica senza prendere in considerazione il secondo.
Infatti l'analogia fra sistema sociale e sistema fisico è sottolineata dal riferimento al secondo principio, che non confuta ovviamente il primo ma lo precisa: l'informazione introdotta nel sistema produce effetti di ordine interno, che equivalgono a un aumento del rendimento, cioè a un miglior bilancio fra energia in entrata ed energia "trasformata" in uscita (ricordiamo che, proprio in base al secondo principio, il rendimento di un sistema può solo essere inferiore al 100%).
Dal punto di vista pratico, dunque, per qualche decennio hanno avuto oggettivamente ragione i keynesiani: la modifica della condizione alquanto spontanea del sistema (anarchico, diceva Marx) e l'introduzione di un intervento statale più o meno in grado di "rovesciare la prassi" economica hanno effettivamente prodotto l'enorme balzo in avanti dello sviluppo capitalistico avvenuto in tutto il mondo dopo la fine della Seconda Guerra Mondiale e di questo balzo ha beneficiato quantitativamente anche la classe operaia. Poi il modello sarebbe entrato in crisi, senza che nessun economista sia riuscito a spiegare perché (cfr. Casarosa e Bennati). Ad un certo punto la politica di intervento statale avrebbe semplicemente smesso di dare i suoi frutti e il sistema si sarebbe dimostrato insensibile al cambiamento proprio come nel modello che abbiamo esaminato.
In realtà il sistema si è come esaurito. Non c'era bisogno di un Keynes per sapere che l'intervento statale e il debito pubblico sono il motore del capitalismo, lo aveva già registrato Montesquieu. E del resto lo sapevano "a naso" i liberi comuni del Nord Italia, le repubbliche marinare e le signorie rinascimentali, che vararono grandi opere pubbliche rendendo ricche le terre entro cui operavano, accumulando capitali in grado di finanziare a loro volta interi regni stranieri. Il keynesismo non solo non fu una novità (a parte la teorizzazione scritta, giunta postuma anche rispetto alle realizzazioni pratiche dei fascismi, veri realizzatori dialettici del vecchio riformismo socialista), ma non soppiantò affatto un liberismo mai esistito sulla faccia della Terra. Perciò si è esaurito il capitalismo, non la teoria di Keynes.
Vi fu comunque un periodo di crescita e di welfare durato qualche decennio, che farebbe sorgere una difficoltà teoretica − per via del comportamento contraddittorio del sistema − se il modello stesso non provvedesse a superarla. Infatti bisogna chiedersi: se la miseria e la sovrappopolazione relative sono causate dall'espansione economica (cfr. Marx, ricordato nella prima parte di questo lavoro), come mai avrebbe potuto l'espansione economica, indotta da politiche atte a "drogare" il sistema, causare a sua volta una diminuzione della miseria e della sovrappopolazione relative? E come può la simulazione dare quel risultato − e quello solo − in presenza di stimolo alla crescita?
La risposta risiede nel fatto che nel modello in esame è implementato solo l'aumento quantitativo della ricchezza, mentre mancano sia l'aumento della forza produttiva sociale, sia gli effetti di una sovrastruttura politica e ideologica che sono caratteri qualitativi (tenendo conto, oltre tutto, che la sovrastruttura politica ha ormai fatto il suo tempo, trasformandosi in una "catena" per l'ulteriore sviluppo). Tutti i grandi rappresentanti del Capitale italiano, Mattei, Vanoni, Carli, Visentini, ecc., avevano perfettamente presenti i guai che poteva produrre un capitalismo lasciato a sé stesso, e si erano adoperati per salvarlo dalle sue proprie contraddizioni, intervenendo appunto sui parametri di distribuzione del reddito e di crescita dell'economia. Ma non poterono certo farlo bloccando la produttività, né lo sviluppo della forza produttiva sociale in genere, né il grado di dissipazione della sovrastruttura, creando cioè le premesse per un futuro aumento della miseria e della sovrappopolazione relativa.
Ovviamente il tipo di modello che abbiamo preso in esame, può essere reso più complesso – lo dice espressamente l'autore – con l'aggiunta di ulteriori vincoli e parametri, come il suddetto aumento qualitativo della ricchezza (aumento della forza produttiva sociale, cioè del rendimento del sistema), oppure con l'introduzione di aree di sviluppo economico differenziato, bacini di attrazione del plusvalore prodotto, parti della popolazione a reddito zero verso le quali si indirizza una parte del valore complessivo, ecc. Ma, già a questo livello di complessità, dato che lo scopo era quello di indagare sui meccanismi fisici soggiacenti alle diverse curve di distribuzione, l'esperimento ha dato i risultati attesi, anche dal nostro punto di vista.
Una dimostrazione parallela
Vilfredo Pareto aveva notato − questa volta senza ricavarne un principio newtoniano per l'economia − che nel suo orto l'80% dei piselli era prodotto dal 20% dei baccelli. Sicuramente al suo tempo non vi erano qualità selezionate come oggi, ma la sua osservazione empirica lo portò a cercare se per caso lo stesso fenomeno comparisse in altri campi, e scoprì che la risposta era affermativa: l'80% delle proprietà apparteneva al 20% della popolazione, il 20% di questa disponeva dell'80% del reddito e così via. Non solo in economia si producevano curve di distribuzione dei redditi simili per tutti i paesi, e curve di distribuzione simili comparivano in molti fenomeni della natura e della società. Altri in seguito estesero le osservazioni sul fenomeno e videro che l'80% dei profitti proviene dal 20% degli occupati, l'80% dei problemi di assistenza tecnica proviene dal 20% dei clienti, l'80% dei crimini viene commesso da un 20% di pluri-criminali, ecc. Qualcuno infine gli trovò un nome: "principio 80/20" (cfr. Barabàsi).
Quando si osserva una regolarità, è quasi certo che c'è una legge soggiacente, anche se l'osservazione è del tutto empirica e non si trova la spiegazione. Che comunque fu trovata con la teoria delle reti. In natura la distribuzione statistica sulla maggior parte dei fenomeni porta, come abbiamo visto, a una curva di Gauss, a campana. Ciò succede quando il sistema è sottoposto a leggi casuali. Ma vi sono dei fenomeni che portano invariabilmente a una curva di tipo esponenziale, simile a quella che si era ottenuta facendo interagire i componenti del sistema economico simulato. Qui ci interessa la similitudine, ma è utile tenere presente anche la differenza: nel caso delle reti di relazioni in cui gli agenti individuali provocano o subiscono pesantemente un effetto di retroazione (come ad esempio nella formazione dei nodi più forti in Internet), abbiamo un comportamento cosciente, non spontaneo, quindi anti-entropico; nel caso invece delle relazioni casuali in una società fondamentalmente anarchica come quella capitalistica, quindi ben rappresentata dal modello di simulazione statistica, abbiamo un comportamento caotico; e, pur se emerge un qualche tipo di ordine, il sistema rimane dissipativo, entropico.
Il tener conto anche della differenza è importante, perché una buona parte dei fenomeni che portano a una distribuzione esponenziale non è naturale, ma prodotta dall'uomo. I matematici e i fisici hanno chiamato questa regolarità "legge di potenza". Tale legge non porta a curve che hanno un picco statistico, un ammassamento numerico in un certo punto della scala, come quelle di Gauss, ma a curve che crescono o decrescono con regolarità, indicando che in un certo sistema convivono molti elementi quantitativamente "piccoli" con pochi "grandi". Ad esempio tanti poveri con pochi ricchi, come nella simulazione precedente. La legge di potenza porta quindi necessariamente ad una curva con "coda", dalla parte del quantitativamente grande e numerariamente piccolo. Anche in questo caso la realtà è meglio rappresentata su una scala logaritmica.
Ad ogni modo abbiamo un risultato certo: quando il sistema capitalistico si dà un assetto liberistico, completamente anarchico e abbandonato alla "mano invisibile" del caotico cozzare di molecole sociali, cresce la dissipazione (entropia), cresce l'indice di Gini e cresce la miseria; quando il sistema si dà un assetto statalistico keynesiano e tenta di governare il caos molecolare, la curva di distribuzione si fa esponenziale secondo le "leggi di potenza", cresce la "coda" del quantitativamente grande e numerariamente piccolo, cresce la miseria lo stesso.
È interessante notare come studi recenti di econofisica siano giunti alla conclusione che le curve di distribuzione del reddito derivano da una struttura sociale a due classi in cui quella "povera" sarebbe sottomessa alla curva esponenziale (entropica), mentre quella "ricca" risponderebbe alla curva di Pareto (legge di potenza):
"La distribuizione del reddito personale negli USA ha una ben definita struttura a due classi. La maggioranza della popolazione (97-99%) appartiene alla classe inferiore, caratterizzata dalla distribuzione esponenziale, mentre la classe superiore (1-3% ) ha una distribuzione di Pareto secondo legge di potenza. Analizzando i dati sul reddito dal 1983 al 2001, vediamo che la parte "esponenziale" è stazionaria nel tempo […], mentre la coda "ricca" si gonfia e si restringe seguendo il mercato. Noi analizziamo il concetto di equilibrio dell'ineguaglianza in una società basata sul principio di massima entropia e mostriamo con metodo quantitativo che esso si applica alla stragrande maggioranza della popolazione" (cfr. Silva-Yakovenko).
Questo riscontro assai significativo ci riporta alla differenza fra le reti di relazioni casuali, che generano curve di Gauss, e le reti rispondenti a leggi interne, che generano curve soggette alla legge di potenza. La scoperta, anche in questo caso, fu dovuta ad una simulazione al computer. Una rete simulata, del tipo di Internet, dove agiscono esseri umani in grado di discernere i nodi a cui collegarsi, genera inevitabilmente una gran massa di nodi di peso quasi nullo e pochi nodi di grande peso, come Google, Yahoo, Wikipedia, ecc. o comunque contribuisce alla loro nascita. È interessante notare, dal punto di vista del nostro studio, che il fenomeno è stato chiamato dagli scienziati delle reti con il nome del primo tra quelli indagati e cioè: "I ricchi diventano sempre più ricchi". Il che, in un sistema come quello capitalistico equivale a: "I poveri diventano sempre più poveri".
Le mappe stradali o ferroviarie rappresentano reti più o meno regolari e tendono a coprire abbastanza uniformemente il territorio, mentre le reti elettriche o quelle dei voli aerei tendono a mostrare grandi concentrazioni nei nodi rappresentati dalle grandi città (figura 24). Le prime sono paragonabili al diagramma di partenza del nostro esempio, le seconde seguono una legge di potenza e presentano tanti piccoli nodi e pochi grandi hub (il mozzo di una ruota a raggi, un punto centrale).
La teoria delle reti ci dice che emerge sempre una legge di potenza quando vi sono fenomeni di auto-organizzazione spontanea in un sistema di relazioni (link) che genera nodi in una gerarchia qualitativa e quantitativa. Ciò non significa affatto che le relazioni siano casuali, anzi la generazione dei nodi più importanti è provocata dal comportamento delle singole cellule del sistema. Ma esse non si muovono secondo un piano, bensì secondo interessi individuali, perciò l'emergere spontaneo di una struttura nelle reti è nello stesso tempo un prodotto dell'anarchia generale e del rovesciamento della prassi individuale. Ovviamente già il conoscere questo tipo di fenomeno permetterebbe di utilizzare assai meglio le potenzialità dei sistemi in cui si manifestano. La teoria delle reti, dunque, è anche una buona base per dimostrare che il rovesciamento della prassi, cioè il progetto al posto della spontaneità anarchica, apporta energia al sistema, che vede così diminuire la propria entropia.
Secondo la teoria delle reti, come nella simulazione delle pagine precedenti, Internet produrrà elementi di auto-distruzione, di soffocamento, se rimarrà legata al funzionamento del capitalismo, dove gli hub sono un tramite di valore esattamente come i capitalisti lo erano nella simulazione. Tuttavia, sempre secondo la stessa teoria, ogni fenomeno che comporti una distribuzione dei suoi elementi costitutivi secondo una legge di potenza dimostra sempre che un sistema è nello stato di transizione di fase.
"Approfondendo le indagini sull'emergenza dell'ordine dal disordine nei diversi sistemi, i fisici scoprirono nelle transizioni di fase ulteriori leggi di potenza… La transizione disordine-ordine cominciava a dare prova di un alto livello di coerenza matematica… Come mai a un certo punto i liquidi, i magneti e i superconduttori perdono i loro tratti specifici e decidono di seguire delle leggi di potenza uguali per tutti?… In prossimità del punto critico gli atomi vanno considerati non più come oggetti separati, bensì come dei pacchetti di atomi, delle comunità dove tutti si comportano come un sol uomo" (Barabàsi).
Riassumendo: i sistemi spontanei, pur con agenti che prendono decisioni individuali in grado di determinare gli stati del sistema (quindi fortemente causali, deterministici), si "termalizzano", cioè aumentano la propria entropia. Tuttavia è proprio in questa condizione che essi giungono ad una fase in cui è sufficiente un evento, anche a bassa energia, che fa scattare il sistema verso uno stadio superiore. Non potevamo assolutamente fare a meno di citare il passo di Barabàsi, tanto è simile alla concezione descritta dalla Sinistra comunista proprio sulla transizione di fase rivoluzionaria, quando le molecole sociali si polarizzano e scatta il rovesciamento della prassi attraverso l'organo politico della classe:
"[Il proletariato è oggi] controllato da partiti che lavorano al servizio della borghesia e gli impediscono ogni movimento classista rivoluzionario, in modo che non si può antivedere quanto tempo possa trascorrere finché in questa situazione morta e amorfa non avvenga di nuovo quella che altre volte definimmo 'polarizzazione' o 'ionizzazione' delle molecole sociali, che preceda l’esplosione del grande antagonismo di classe" (Considerazioni sull'organica attività…).
Nel 1982 a Kenneth Wilson fu conferito il premio Nobel perché era riuscito a dare una spiegazione scientifica ai fenomeni legati al passaggio dalla spontaneità all'ordine nelle transizioni di fase: egli immaginò che in vicinanza del punto critico le leggi della fisica si applicassero a tutte le scale, dai singoli atomi ai corpi contenenti miliardi di miliardi di particelle che agiscono in modo univoco, e diede una rigorosa dimostrazione matematica dell'assunto. A tutte le scale. A quella della società intera come a quella di piccoli raggruppamenti di molecole che si formano e disfano al suo interno, si auto-organizzano prefigurando la società futura. Non ci riferiamo certo ai partiti e gruppi specificamente politici, tantomeno a quelli che si richiamano a un comunismo di maniera, lontani anni luce da questi argomenti. Ci riferiamo alle forze che stanno razionalizzando lo studio dei fenomeni che portano al cambiamento, a partire da qualche modello di simulazione che dimostra gli assunti rivoluzionari di un secolo e mezzo fa, per molti passati di moda. A tutte le scale nel vero senso della parola. Dalla miseria crescente, alle molteplici reti che si formano in questa società, alla rete futura − forse già in gestazione − del partito rivoluzionario, organico.