Scienza e rivoluzione - volume I parte II (16)
Lo sviluppo rivoluzionario della forza produttiva capitalistica, la pretesa conquista del Cosmo e la teoria marxista della conoscenza
5. Spedire manufatti nello spazio
L'epoca pionieristca
Il lancio di un satellite artificiale è essenzialmente un problema di meccanica classica e, ridano pure i critici pretenziosi, si può commentare, conosciuti i pochi parametri, con il regolo calcolatore (oggi una calcolatrice di quelle che i bambini possono trovare nell'uovo di Pasqua). Si esegue imprimendo ad un corpo una velocità adeguata allo scopo di dargli una direzione altrettanto adeguata. Da questi due soli presupposti ne derivano altri due, che sono collegati: bisogna saper sviluppare un'energia sufficiente e possedere gli strumenti di misura per influenzare o verificare il risultato. Tutto qui.
In base a quanto appena ricordato affermiamo, con Bordiga, che Newton sarebbe stato perfettamente in grado, sulla carta, di progettare l'orbita di un satellite artificiale partendo da parametri prestabiliti. Questo è l'argomento fondamentale contro le presunte svolte epocali nella scienza borghese. Un'eventuale critica alla teoria marxista della conoscenza, che Bordiga avrebbe preteso di ricostruire a modo suo, sarebbe stata seria solo se fosse partita da questa premessa e non da filosofie sul progresso.
Se già al tempo di Newton poteva essere calcolata l'orbita di un manufatto virtuale, in che cosa consiste la vittoria conseguita dalla borghesia nel riuscire a mettere in orbita decine di migliaia di satelliti veri e propri? E, per converso, in che cosa consiste veramente la sua disfatta, al di là della facile constatazione che le meravigliose colonie spaziali non sono state realizzate? Le domande non sono banali e la risposta comporta due considerazioni della massima importanza: in primo luogo risulta dimostrato che lo sviluppo delle forze produttive, cui è legato lo sviluppo tecnologico, non si ferma mai e che la borghesia ha il merito storico e rivoluzionario di portare alle estreme conseguenze questo sviluppo durante l'epoca della sua dominazione. E nello stesso tempo risulta dimostrato che il persistere di questo modo di produzione impedisce l'ulteriore sviluppo, perché al progresso tecnologico non si può più accompagnare un'autentica rivoluzione scientifica. La relatività di Einstein dista da quella di Galileo infinitamente meno di quanto disti quest'ultima dalle concezioni aristoteliche, e la meccanica attuale si è infilata, contrariamente a quella newtoniana piena di promettenti sviluppi, in un vicolo cieco. Ciò, nonostante rappresenti un potentissimo strumento pratico, come riconosceva lo stesso Einstein che l'avversava.
L'immissione di un satellite in orbita è dunque semplice. Ciò che lo rese complicato fu il fatto che la tecnologia dovette evolversi fino a superare le difficoltà connesse ad ogni sistema dinamico. I tecnici spaziali erano insomma di fronte ad un campo che, come altri analoghi già ben conosciuti all'epoca, rivelava tanti gradi di complicazione quanti sono i parametri secondo i quali vogliamo compiere la nostra osservazione.
La minima velocità di fuga è fissa e ad ogni quota corrisponde una velocità fissa dei manufatti, quindi in teoria basta lanciare il satellite a una data velocità e a una data quota per ottenere un'orbita fissa, eterna e perfettamente circolare. Potremmo tracciare una tabella con un'infinità di quote e velocità da consultare in caso di bisogno, ed essa non varierebbe mai. La memorizzazione di orbite precalcolate fu un espediente effettivamente utilizzato quando la memoria e la velocità dei computer non permettevano di calcolare i parametri di correzione in tempi rapidi.
Queste orbite platoniche in natura non esistono. Anche le orbite particolarmente stabili di tutti i sistemi planetari e satellitari come il nostro, che presumibilmente sono numerosissimi nell'Universo, non sono circolari e non sono eterne. Le interazioni gravitazionali reciproche di tutti i corpi esistenti nello spazio ci hanno offerto la presente relativa stabilità fatta di orbite che si sono adeguate ad un certo equilibrio in tempi cosmici. Ogni oggetto lanciato ex novo entro questo sistema, deve fare i conti con ciò che già esiste: alcune forze sono di entità trascurabile, e le perturbazioni che provocano sono a malapena avvertibili entro i tempi di vita dell'oggetto stesso o degli umani che l'hanno costruito; altre sono in grado di complicare enormemente le cose. In ogni caso le complicazioni maggiori derivano dalle caratteristiche intrinseche dell'oggetto spedito in orbita, e quindi il primo passo dei tecnici fu quello di riportare le condizioni dei loro imperfettissimi manufatti a quelle della stabilità cosmica, cioè a condizioni keplero-newtoniane.
In questo caso l'uomo si fa natura, ovvero la sua essenza umana cede di fronte alle forze che non riesce a dominare. Già in questo primo approccio al problema vediamo che siamo sul terreno studiato da Marx nei Manoscritti del 1844: l'uomo sarà tanto più uomo quanto più rispecchierà la sua propria natura, che è di staccarsi dalla Natura fisica e sembrare sempre meno agli animali. Nella misura in cui fa l'inverso, cioè rinuncia alla sua vera natura per abbandonarsi alla Natura fisica, egli è meno uomo. Se l'uomo, dice Marx, si sente come una bestia quando lavora, cioè quando fa l'unica cosa che lo distingue dalle bestie, e per converso si sente uomo quando si accoppia, cioè quando fa l'unica cosa che non lo distingue dalle bestie, vuol dire che nella sua condizione c'è qualcosa che non va.
Il paradosso biologico di Marx vale anche per la scienza fisica e Bordiga non fa che applicarlo quando dice ai Von Braun e ai Blagonravov: se per riuscire nel vostro intento dovete ancora copiare la natura, non siete uomini ma Natura fisica; il vostro progresso non è scienza ma mera tecnologia; essa è un risultato imponente, ma non è rivoluzione, non è nuova conquista. Sbagliano grossolanamente coloro che vedono nella presa di posizione del vecchio rivoluzionario una sottovalutazione della scienza borghese o una critica alle sue realizzazioni. Egli non fa che ribadire un concetto che tutti i comunisti dovrebbero avere ben stampato in mente, a partire dalla loro prima lettura del Manifesto: ci possiamo permettere l'apologia dei risultati rivoluzionari borghesi solo se dimostriamo in pari tempo che essi sono la base su cui saranno liberate le forze della società futura, di un superiore modo di produzione. Solo in questo modo ogni comunista può evitare di cadere nella trappola dell'apologia della classe dominante attraverso l'apologia della sua scienza.
Non c'è nulla di meglio della "conquista spaziale" per dimostrare la lotta fra lo sviluppo incessante delle forze produttive e l'attuale modo di produzione che lo frena. Se in questo rapporto la scienza fosse un fattore indipendente, se cioè non fosse anch'essa un freno all'ulteriore sviluppo dell'umanità, tutta la costruzione di Marx verrebbe a cadere.
Per raggiungere l'ipotetico punto in cui applicare al satellite la velocità giusta (non meno di 8 km al secondo) affinché esso entri nell'orbita prevista in una delle righe della tabella che abbiamo immaginato poco fa, occorre tener conto che bisogna oltrepassare l'atmosfera. Questo solo elemento, che incomincia da subito a complicare la vita al nostro satellite, cancella tutte le orbite dell'ipotetica tabella fino ad una quota di circa 250 km. Al di sotto di quest'altezza i satelliti hanno vita breve a causa dell'attrito con l'aria, per quanto rarefatta.
Ciò significa che occorre raggiungere quote relativamente alte; e poiché l'energia dissipata dipende dall'attrito, dalla durata della sua manifestazione e dalla distanza percorsa, ecco che i primi passi del missile nell'atmosfera diventano un grave quanto inevitabile inconveniente. Questo è il primo problema, e non lo si potrà mai eliminare, nemmeno costruendo i vettori nello spazio (occorrerà comunque portarvi i loro componenti, il propellente ecc.). Si deve inoltre raggiungere la velocità necessaria per lanciare in orbita un oggetto: farlo in tempi brevi significa spingere i motori già nell'atmosfera ed avere, a causa dell'alta velocità conseguente, un altissimo attrito. Occorre perciò attraversare gli strati atmosferici nel più breve tempo possibile e per la strada più breve. Ciò si ottiene con una partenza verticale, l'unica che permette di passare in fretta all'aria rarefatta.
Siccome però il satellite va lanciato secondo un angolo di 90° precisi rispetto alla verticale del punto in cui si trova il vettore al momento del distacco, è necessario dotare il missile di un sistema di guida per modificare la direzione durante l'ascesa, cosa che provoca un allontanamento dal punto di partenza e comunque un tragitto sempre più piegato verso l'orizzontale ancora mentre agisce l'attrito dell'aria. Per avere più velocità occorre abbandonare per strada i serbatoi e i motori, la cui dimensione serviva più che altro a sollevare sé stessi, quindi è necessario ricorrere a razzi composti di più stadi. Le complicazioni tecniche e l'implicito spreco di energia sono ineluttabili; lo spreco di materiale anche, dato che i vettori non sono recuperabili.
Alla fine di questa traiettoria ci troviamo con il missile approssimativamente all'altezza voluta, approssimativamente orientato a 90° rispetto alla nuova verticale, la quale si proietta sulla Terra ad una distanza approssimativamente vicina a quella prevista e soprattutto abbiamo una velocità approssimativamente simile a quella rigorosamente stabilita per avere l'orbita cercata. Facile dedurre, anche da parte del profano, che ogni orbita effettivamente realizzata si trova nel regno delle orbite probabili e non in quello delle orbite volute (198). Essa sarà necessariamente ellittica, e più l'errore sarà grande, più sarà ellittica, a meno che non intersechi addirittura la superficie terrestre, e allora il satellite si disintegrerà nell'atmosfera prima ancora di sfracellarsi al suolo. I tecnici tendono quindi ad ottenere una traiettoria che stia nella fascia di probabilità di un angolo leggermente superiore a 90° e una velocità leggermente superiore a quella necessaria per ottenere l'orbita teorica. Con questo si è sicuri di sbagliare ugualmente orbita, ma almeno questa partirà da un punto sul perigeo (quello più vicino al centro terrestre) che produrrà un'orbita più grande. E' infatti molto meglio che l'ellissi sia esterna all'orbita circolare di riferimento e sia più allungata, piuttosto di perdere del tutto il satellite che, in un'orbita interna, cadrebbe inesorabilmente. Una difficoltà in più era un tempo rappresentata dal fatto che si poteva conoscere il risultato esatto del lancio solo quando era compiuta almeno un'orbita. Nel caso del primo Explorer, il comportamento americano, meno riservato di quello dei russi, rese evidente che occorreva aspettare questa prima performance del satellite per essere certi di aver ottenuto un'orbita d'equilibrio, cioè approssimativamente periodica.
Il problema dell'angolazione dell'orbita rispetto all'equatore della Terra è meno grave, ma poteva comportare, specie quando la rete di rilevazione non era ancora molto sviluppata, che a grandi distanze i segnali radio non fossero captati dalle stazioni di ascolto. Il grande osservatorio di Jodrell Bank in Inghilterra non riusciva a captare i segnali degli Sputnik quando il percorso sinusoidale tracciato sulla superficie della Terra dai satelliti aveva uno scostamento troppo grande. Inoltre, specie nei primi tempi, l'errore angolare rispetto all'equatore aveva spesso provocato la caduta dei primi stadi in luoghi non previsti (gli americani fanno cadere in mare i vettori tracciando e comunicando le aree di pericolo per le navi, mentre i russi li hanno sempre fatti cadere sul loro territorio).
Da quanto detto si ricava che, in campo astronautico, il compito di fornire i calcoli per l'ellisse dell'orbita spetta agli astronomi, che ne determinano la forma, la dimensione, l'orientamento degli assi e l'inclinazione del piano rispetto all'equatore della Terra. Finché si tratta di inviare un satellite terrestre sono trascurabili gli effetti gravitazionali di altri corpi celesti e i calcoli sono relativamente semplici, ma abbiamo visto che i problemi non stanno nei calcoli delle orbite. Le cose si complicano enormemente tentando di far corrispondere, con i mezzi conosciuti, la traiettoria reale del manufatto ai calcoli degli astronomi, che a questo punto devono lasciare il posto agli ingegneri.
Nella storia della presunta conquista spaziale gli ingegneri si resero conto ben presto che l'impresa di ottenere orbite volute con i mezzi disponibili era disperata ed entrarono in conflitto con le ottimistiche previsioni pubblicitarie degli enti spaziali. Mentre era possibile anche con i mezzi inerziali di allora conoscere con approssimazione passabile l'assetto del vettore che deve rilasciare il satellite (quindi l'angolazione al punto "O" del nostro schema di figura 1), era assolutamente impossibile conoscerne la velocità e la posizione. A parte il fatto che conoscere l'assetto del vettore non significava ancora saperlo correggere, la questione della velocità e della posizione dipendeva da troppi fattori imponderabili, e soprattutto non poteva essere misurata da terra nei brevi tempi necessari per rilasciare in orbita nel punto giusto un satellite, perché all'epoca occorreva lasciare che il satellite percorresse la già ricordata prima orbita per conoscere lo scarto fra i calcoli e il risultato effettivo (199).
Un'ulteriore complicazione derivava dal fatto che gli ultimi stadi, sia russi che americani, si dovevano sempre indistintamente progettare a propellente solido per evitare di mettere in orbita pesi inutili (motori, pompe, serbatoi, valvole, ecc.) insieme con il carico pagante. Il propellente solido ha una combustione che può essere abbastanza precisa in termini di spinta e di durata, ma ha il difetto che è predeterminata in sede di fabbricazione, perciò non si può né interrompere né modificare nel corso della missione, come già aveva annotato Ziolkovsky alla fine del secolo scorso nei suoi progetti teorici.
La traiettoria del satellite, quindi, dipendeva da troppi parametri. Nonostante il sistema dinamico fosse in teoria perfettamente descrivibile attraverso conoscenze più che consolidate, il suo comportamento reale si dimostrava inconoscibile a priori e incontrollabile a posteriori. Al momento della partenza il missile era fermamente imbullonato alla base per impedire che la spinta iniziale dei motori, non ancora a regime, lo facesse oscillare. I bulloni avevano una sezione di pre-frattura oppure venivano fatti esplodere con piccole cariche. Durante l'ascesa negli strati bassi dell'atmosfera il missile era sottoposto a tutte le sollecitazioni atmosferiche, caotiche per natura, mentre i sistemi inerziali (giroscopi) registravano le deviazioni e mandavano impulsi di correzione ai getti dei motori. L'inclinazione verso l'orizzontale veniva comandata in genere a partire già dal primo stadio, quindi in fase di accelerazione mentre i serbatoi si svuotavano a grande velocità cambiando il baricentro del sistema su cui agisce teoricamente la spinta dei motori. Il distacco degli ultimi stadi (tramite fasce o bulloni esplosivi) avveniva alla fine della combustione del primo stadio, quindi in fase di movimento inerziale, nel passaggio tra la curva imposta dai sistemi di guida agli stadi inferiori e la curva balistica derivata dalla risultante fra la spinta e l'attrazione terrestre. Dopo di che gli stadi superiori riprendevano l'accelerazione sotto la spinta di nuovi getti e curvavano ulteriormente la traiettoria sotto controllo del sistema inerziale (ma nei primi tempi era il solo primo stadio ad essere guidato e tutto il resto si svolgeva in condizioni puramente balistiche).
Schema di lancio per un satellite artificiale
Il vettore parte dalla torre di lancio situata in L sulla verticale A in accelerazione. I sistemi di guida inerziale piegano la traiettoria (in genere verso Est per sfruttar la velocità di rotazione della Terra) e vengono abbandonati gli stadi di accelerazione. L'ultimo stadio porta il carico pagante in O, dove esso viene espulso lungo la direttrice D che deve essere esattamente a 90° con la verticale del punto di espulsione C. La direzione di espulsione e la velocità sono determinanti per ottenere il risultato voluto. Se la velocità e l'angolo di espulsione corrispondono al progetto, il satellite si pone correttamente nell'orbita di equilibrio segnata con l'arco EF il cui punto O rappresenta il perigeo. Se l'angolo o/e la velocità sono inferiori, vi sarà una caduta verso gli strati alti dell'atmosfera e il satellite si disintegrerà in B. Il satellite cadrebbe anche nel caso in cui si ottenesse un angolo superiore a quello voluto ma una velocità inferiore: dato che il maggiore angolo produrrebbe un allontanamento del satellite verso un'orbita più ampia ma la minore velocità significherebbe una perdita d'energia, il corpo si troverebbe in una situazione di apogeo (distanza massima) dalla quale non potrebbe far altro che precipitare, non riuscendo a vincere l'effetto gravitazionale. Se l'angolo e/o la velocità saranno superiori, il satellite si collocherà invece in un'orbita più ampia, errata, ma con maggiori garanzie di equilibrio (nella curva delle probabilità di riuscita, i tecnici preferiscono fare in modo di trovarsi in questa situazione). Se infine angolo e velocità supereranno di molto i dati teorici, si otterrà ugualmente un'orbita di equilibrio, ma con l'asse maggiore sproporzionatamente lungo rispetto a quello inferiore.
Tutte queste fasi, a causa dell'impossibilità di avere sensori che trasmettessero a terra le condizioni del sistema, erano programmate in sede di progetto e quindi non potevano tener conto, se non molto sommariamente, delle inevitabili variazioni subite dal sistema stesso. Quando esso giungeva al punto "O", rilasciava meccanicamente il satellite imprimendogli una piccola spinta supplementare per allontanarlo dall'ultimo stadio che andava ad aggiungersi alla spazzatura spaziale in orbita. A questo punto si sarebbero dovute rispettare con precisione, in cima alla scala di eventi, le tre coordinate spaziali e la velocità. Ma era un'impresa totalmente impossibile, ed era già un miracolo che il satellite, alla fine, si stabilisse in un'orbita qualsiasi. Doveva cambiare qualcosa nell'approccio allo spazio ed era esattamente ciò che Bordiga chiedeva.
L'attivita' spaziale ordinaria di oggi
Quando le prove spaziali degli albori divennero storia vecchia e cadde il segreto, si poté constatare che era esatta la supposizione di Bordiga: per un lungo periodo i dati vennero comunicati a cose fatte. Non si sapeva dove sarebbe finito il satellite dopo il lancio. Paradossalmente ciò succedeva perché Americani e Russi stavano insistendo sulla strada della ricerca di orbite di precisione, strada che stava facendo impazzire gli ingegneri a causa dei troppi gradi di "libertà" del sistema dinamico in questione.
Per i satelliti pionieristici la questione non era molto importante, dato che si poteva rilevare il loro tracciato dopo le prime orbite. Le funzioni a bordo e le missioni erano così semplici da essere compatibili con la grossolanità delle previsioni. Ma la questione cambiò completamente man mano che ai satelliti furono richiesti compiti sempre più complessi e specifici. La correzione delle traiettorie divenne infine un imperativo quando si volle azzeccare un'orbita lunare. Se infatti un satellite terrestre entra in orbita a qualche centinaio di km in un ventaglio di parametri piuttosto ampio, purché vi sia potenza sufficiente, azzeccare i parametri lunari a circa 400.000 km di distanza, dove sono in gioco almeno quattro corpi (Terra, Sole, Luna e manufatto), diventa impossibile con criteri balistici. Lanciata con sufficiente potenza la sonda nei pressi della gravità lunare, occorre lasciare che quest'ultima la catturi e... quel che succede, succede, orbita lunare, solare, impatto o flyby (sorvolo e ricaduta sulla Terra). All'epoca dei primi lanci russi verso la Luna, nel 1959, i matematici russi avevano già assodato che era inutile cercare di far entrare i satelliti e le sonde in orbite prestabilite con estrema precisione. Il problema vero, come aveva rilevato Bordiga, era di sapere dove fosse il manufatto spaziale e come guidarlo su orbite convenienti. Bisognava uscire dal campo puramente balistico ed entrare nel campo delle macchine pilotate. Questo significava scostarsi dalle orbite "naturali" e fare in modo che fossero sviluppate macchine in grado di muoversi nello spazio secondo istruzioni precise o mettere nelle macchine uomini che fossero veramente piloti e non solo pacchetti pubblicitari.
I Russi convennero presto che le macchine potevano fare quanto gli uomini in fatto di guida, e forse meglio. I primi tentativi di automatizzare alcune procedure furono loro e ad essi va riconosciuto il merito di aver intrapreso questa strada, che è quella che dal punto di vista tecnologico-scientifico ha dato i risultati più fertili. In seguito la tecnologia e la produzione altamente socializzata degli Stati Uniti ebbe il sopravvento e le realizzazioni più avanzate furono americane.
Il fatto più interessante in tutto ciò è che i vari problemi connessi alla complessità del metodo per mettere in orbite precise i satelliti furono risolti non dagli astronomi e neanche dagli ingegneri ma dai matematici. Non perché servissero particolari calcoli, ma perché furono i matematici ad accorgersi che sarebbe stata completamente inutile la ricerca ostinata di orbite precise. In un certo senso furono i matematici che suggerirono agli ingegneri come modificare il loro approccio ai problemi e, paradossalmente, agli astronomi di lasciar perdere la matematica utilizzata fino a quel punto. Conoscendo la difficoltà di ottenere traiettorie newtoniane perfette a causa degli scostamenti nelle condizioni iniziali e a causa dei giochi delle gravitazioni su piccoli corpi, i matematici consigliarono di lasciar perdere l'obiettivo delle orbite di precisione e di concentrarsi sulla buona spinta dei razzi, sulla capacità di rilevamento e sulla raggiunta capacità di guida, che avrebbero permesso le correzioni di rotta adeguate (200).
Negli uffici progetti l'approccio cambiò sensibilmente e si incominciò a parlare di sistemi complessi, di probabilità, di entropia. Il caso russo, che vide coinvolta la scuola del matematico Andrej N. Kolmogorov è emblematico. Il matematico russo, fin dalla Seconda Guerra Mondiale, aveva fatto ricerche per modelli matematici legati al rilevamento e al puntamento delle batterie contraeree, cioè legati a sistemi affini a quelli spaziali, dove l'entropia delle traiettorie (cosa che succede ad ogni sistema dinamico) equivale a perdita di informazione sulle stesse. Era quindi uno specialista nel trattare con metodi probabilistici sistemi hamiltoniani perturbati, ovvero quei sistemi dinamici che per qualche motivo ricevono dall'esterno impulsi di forza in determinate fasi e che, modificando continuamente le condizioni iniziali, tendono al caos (201).
Tre anni prima del lancio del primo satellite, nel 1954, Kolmogorov aveva condotto uno studio sulla stabilità del Sistema Solare giungendo alla conclusione che si poteva formulare un teorema. Nel corso di molti anni successivi il teorema fu dimostrato da altri matematici (fino al 1967 vi lavorarono Vladimir Arnold e Jürgen Moser). Si trattava di un problema detto "degli n corpi", derivato da un classico rompicapo che aveva appassionato i matematici tra il XVII e il XIX secolo, e che ancor oggi sembra non abbia soluzione definitiva. Queste ricerche non avevano a che fare direttamente con missili e satelliti, ma l'ambito in cui si svilupparono produsse risultati poi ripresi dagli stessi matematici o da altri in campo spaziale (202). La comprensione dei sistemi meccanici complessi era avviata da tempo, ma fu Henri Poincaré che scoprì un metodo per semplificare l'indagine e costruire modelli su di essi anche se avevano un numero enorme di proprietà. Mentre un sistema si evolve nel tempo, lo si può rappresentare tramite un punto che si muove descrivendo una traiettoria. Per scoprire se la dinamica del sistema lo rende periodico, cioè in equilibrio, è sufficiente che la traiettoria si chiuda. Non ha nessuna importanza la forma della curva, le cui caratteristiche non hanno segreti per la topologia: l'esistenza di soluzioni periodiche dipende esclusivamente da una relazione fra le posizioni del punto in una sequenza di fasi.
Immaginiamo un satellite artificiale che ruota intorno alla Terra. Immaginiamo di porre di traverso alla sua orbita un piano fisso virtuale che ne registri il punto di passaggio ad ogni giro. Se sul piano il punto ricade ad ogni giro nella stessa posizione, la curva si chiude, il sistema è periodico; mentre se viene disegnata sul piano una qualsiasi altra configurazione di punti, il sistema è perturbato. Il piano è oggi chiamato sezione di Poincaré, e da essa si possono ricavare più dati di quanto faccia supporre il nostro esempio semplificato. Se sul piano, invece di un punto, individuassimo, dopo diverse orbite, più punti con passo costante e formanti una fila rettilinea verso il centro della Terra, allora riusciamo a capire anche intuitivamente che ci troviamo di fronte ad una spirale regolare di caduta del satellite. In altre parole, dalla sezione di Poincaré si traggono informazioni sulla dinamica del sistema senza che si debba ricorrere a tutte le caratteristiche del sistema stesso, compito quasi sempre impossibile.
Introducendo un altro corpo (la Luna, per esempio), il modello si complica enormemente. Già a tre corpi, e considerando il terzo (il satellite artificiale) a massa trascurabile rispetto ai corpi celesti, la sezione di Poincaré ci offre un disegno delle orbite assai caotico. Con n corpi entriamo nella dimensione studiata dai matematici partendo dalle prime ricerche di Kolmogorov.
Naturalmente un satellite artificiale può percorrere un'orbita molto stabile intorno alla Terra o alla Luna. Ciò può però avvenire solo se la distanza dalla loro superficie non è molto grande, cioè se il campo gravitazionale del corpo celeste cui gira intorno è di gran lunga predominante rispetto a quello degli altri corpi. Già all'epoca delle prime sonde lunari si dovette constatare che non era semplice calcolare esattamente l'influenza della gravità della Luna su di esse. Nelle traiettorie delle sonde spaziali attraverso il sistema solare vengono sfruttate (o evitate se dannose) le perturbazioni dovute ai campi gravitazionali badando alle posizioni dei corpi nel tempo. Per esempio sono state progettate alcune mirabili sonde che, per raggiungere i loro obiettivi, dovevano essere avviate verso l'incontro col campo gravitazionale di vari pianeti, posizionate in caduta verso di essi per essere agganciate in una traiettoria iperbolica, deviate e quindi rilanciate verso altri pianeti diverse volte. Tutte operazioni che, se non accadono incidenti, possono ormai essere compiute con ottimi risultati proprio sfruttando alcune conseguenze degli studi citati.
Quando un sistema dinamico è abbastanza complesso tende al caos, ma le orbite perturbate finiscono per raggrupparsi disegnando isole di stabilità (ridondanza), mentre le aree di caos si distribuiscono su figure che hanno un perimetro delimitato. Si parla normalmente di orbite, ma si può altrettanto correttamente parlare di traiettorie qualsiasi: in un biliardo ideale (tondo o a forma di poligono regolare) che non abbia attriti e in cui sponde e palle rispondano senza dissipazione di energia, avremo percorsi periodici ad ogni palla colpita con angoli appropriati (per il cerchio, con rimbalzo a 60°, avremo una traiettoria triangolare). Deformando simmetricamente il tavolo potremo avere traiettorie periodiche o quasi-periodiche, mentre deformandolo arbitrariamente avremo traiettorie caotiche. Nel caso del cerchio e della traiettoria-triangolo la sezione di Poincaré presenterà tre punti stabili, nell'ultimo una nebulosa di punti con all'interno strani disegni che rivelano le ridondanze.
Un sistema dinamico limitatamente perturbato, esclusi ovviamente gli incidenti, ha un comportamento deterministicamente prevedibile entro un ventaglio di scostamenti, sia che si tratti di orbite, sia che si tratti di traiettorie. Questa è una conseguenza della ricordata soluzione al problema degli n corpi che si può applicare anche a tutti i sistemi privi di attrito della meccanica classica.
Nel 1959 i lanci dei due Lunik e dell'Orbitnik verso la Luna dimostrarono che i Russi erano ormai in grado di padroneggiare le traiettorie entro limiti abbastanza precisi. I tre satelliti raggiunsero solo parzialmente i risultati; sbagliarono le traiettorie ma, tenendo conto delle nuove distanze raggiunte, gli errori si dimostrarono di gran lunga inferiori a quelli verificatisi in ambito meramente terrestre. Ciò fu ritenuto impossibile dagli osservatori occidentali perché, per stessa ammissione dei Russi, il gioco delle gravitazioni aveva spostato notevolmente la sonda dal percorso teorico. Qualcuno in America parlò addirittura di messa in scena propagandistica, tanto si ritenevano premature simili performances.
La propaganda in effetti fu tanta, come al solito, ma questa volta con un briciolo di fondatezza. Più tardi Kolmogorov ricevette alti riconoscimenti ufficiali per il suo contributo alla ricerca spaziale (203).
Una volta stabilito che era impossibile ottenere orbite precise con sistemi balistici e che tutto sommato non era importante, si puntarono i programmi verso la soluzione definitiva del rilevamento di precisione e dello spostamento correttivo nello spazio. Nuovi misuratori del tempo, i maser all'idrogeno, permisero di conoscere il tempo di andata e ritorno delle onde radio e radar, quindi la distanza, con grande precisione (si tratta dell'effetto Doppler, quello che fa variare la tonalità del classico fischio del treno in arrivo e in allontanamento, applicabile anche alle onde elettromagnetiche e alla luce). Perciò si conobbe con grande precisione anche la velocità. Posizione e velocità sono gli elementi essenziali per stabilire un modello formale di arco la cui estensione conseguente, relativa ai moti dei corpi celesti, fornisce i dati futuri su cui eseguire ulteriori controlli di rotta (204).
Ottenuto il tracciamento preciso, gli ultimi stadi e i satelliti stessi incominciarono a montare motori di guida comandati da terra per correggere la posizione. Questi motori hanno un getto molto calibrato e con essi si riesce, azionandoli per tempi esattamente calcolati, ad imprimere impulsi di forza accuratamente calibrati. In questo modo si poterono correggere anche notevoli errori di traiettoria. Tanto per fare un esempio tipico, la procedura di aborto delle missioni Apollo intorno e sulla Luna in caso di incidente, prevedevano tre opzioni molto differenti: la prima era una traiettoria assistita dalla gravità lunare con "effetto fionda" (flyby), che avrebbe riportato i moduli spaziali verso la Terra e li avrebbe poi, in questa nuova traiettoria, riposizionati in un corridoio idoneo all'ingresso nell'atmosfera; la seconda era un intervento più brutale e consisteva nell'invertire la posizione dei moduli, accendere i motori di spinta per frenare la caduta sulla Luna e ripartire verso la Terra ricalcolando la rotta; la terza era l'aggancio in orbita lunare, il calcolo preciso dell'arco d'ingresso e la sua correzione con i motori di orientamento in modo da avere un arco d'uscita coerente con la traiettoria di rientro. Tutto ciò permetteva di disinteressarsi completamente dei pur notevoli errori e concentrarsi sul rilevamento, sul posizionamento e sulla correzione.
Le Shuttle americane ci offrono un altro buon esempio: essendo progettate per lavori in orbita, hanno un gran numero di motori disposti in coda, sui fianchi e sul muso proprio per dare al mezzo la massima manovrabilità, anche se questa non assomiglia assolutamente a quella di un altro mezzo (aereo ecc.). Il docking (attracco) tra due corpi spaziali di grande massa, una delle operazioni più difficili, può richiedere decine di migliaia di ignizioni dei motori per ottenere un equilibrio stabile, ma ormai l'operazione è controllata da sofisticati sistemi automatici e non presenta più grossi problemi (205).
Per quanto riguarda le comunicazioni, sono anche passati i tempi in cui bastava una rotazione della navicella per nascondere l'antenna e troncare il collegamento a terra. Si è enormemente sviluppata tutta la tecnologia di trasmissione e di ricezione e il software di comunicazione è riuscito ad ottenere un rapporto segnale/rumore tale ormai da permettere di captare messaggi con una irrisoria potenza in arrivo (la stazione di Goldstone, costruita negli anni '70, era già in grado di ricevere ed elaborare segnali con una potenza di 2x10 -19 watt).
E DOMANI?
L'uomo capitalistico sa tanto poco progettare il suo futuro che anche nella vantata conquista spaziale si è già fregato da solo. Una tardiva constatazione pone all'ordine del giorno quello che rischia di diventare uno dei maggiori problemi spaziali. Nel marzo del 1997, duecento ricercatori si sono dati convegno a Darmstadt, in Germania, per una conferenza europea sulla spazzatura spaziale (European Conference on Space Debris). Il problema è che fra qualche anno sarà troppo rischioso inviare oggetti in orbita, perché lo spazio sta diventando saturo di rottami. Vi sono al momento in orbita circa 600 satelliti operativi, altri 2.000 defunti, 1.400 stadi finali, 1.100 oggetti vari entrati in orbita come elementi di servizio di altri satelliti e decine di migliaia di veri e propri rottami causati dall'esplosione di 137 vettori spaziali in altrettante missioni fallite intorno alla Terra. Vi sono progetti per telecomunicazioni che porteranno presto alla moltiplicazione per tre degli oggetti in orbita e i primi incidenti hanno già allertato le compagnie di assicurazione che stanno freneticamente calcolando le probabilità di impatto. La NASA valuta che in questa situazione la probabilità di una catastrofe, già prima del 2000, con veicoli abitati si aggira sul 50% (206). L'alta probabilità di impatto nonostante l'enorme quantità di spazio disponibile, è dovuta al fatto che, per ragioni tecniche e commerciali, i satelliti vengono lanciati in orbite consuetudinarie: intorno ai 200 km i satelliti di ricognizione, fino a 2.000 km gli altri satelliti militari e scientifici, a 36.000 km precisi i satelliti geostazionari. Insomma, anche se per motivi diversi da quelli ipotizzati da Bordiga, il "vicoletto cosmico" esiste davvero.
Quello che sembrava un problema di poco conto, date le quasi nulle possibilità di impatto teorico in uno spazio immenso, sta preoccupando i tecnici. I sistemi di rilevazione più sofisticati riescono oggi ad individuare particolari fino a 10 centimetri di diametro, ma non sono in grado di censire e soprattutto tener d'occhio tutto quello che c'è in orbita. Quando un satellite militare francese fu distrutto dal rottame vagante di un missile esploso, si riuscì a ricostruire l'origine del proiettile solo il giorno dopo e probabilmente solo perché anche il missile esploso era francese.
La spazzatura spaziale dimostra per altra via ciò che i marxisti dicono da sempre a proposito del "progresso" capitalistico a partire dall'economia. L'evoluzione è ancora e sempre di tipo anarchico: prima ci si muove, poi si pensa, infine ci si arrabatta per trovare una toppa ai guai provocati (207). Ovviamente le ditte che potrebbero occuparsi della bonifica spaziale propongono delle soluzioni, che sono di due tipi: il primo, delle ditte "spazzine", contempla la ricognizione dei rottami e la loro deviazione in orbite basse (dove si disintegrano nell'atmosfera) tramite raggi laser; il secondo, delle ditte costruttrici, vale solo da un certo momento in poi perché prevede il montaggio sui sistemi orbitali di apparecchiature supplementari atte a spingerli nell'atmosfera quando non servono più. Ma per ora le proposte cadono nel vuoto per via dei costi e quindi si va avanti così, fino al prossimo incidente.
La moltiplicazione dei satelliti e quindi della spazzatura spaziale è dovuta al cambiamento di strategia dei lanci e delle missioni: abbandonati i costosi progetti dello scorso decennio, quelli nuovi hanno caratteristiche minimaliste, hanno cioè compiti limitati, pesano poco e costano relativamente poco cadauno. Distribuendo gli esperimenti che prima erano raggruppati in un solo vettore, si risparmia nel rendimento energetico dell'intera serie, anche perché si riescono a costruire vettori più semplici e relativamente meno potenti. Insomma, dopo quarant'anni di prove, si è visto empiricamente che il gigantismo non paga e soprattutto è praticamente superflua la presenza umana nello spazio.
I cataloghi delle industrie di apparecchiature spaziali ci mostrano che sono a punto sistemi completamente automatici in grado di compiere la maggior parte degli esperimenti ancora lasciati agli uomini, e quindi il futuro delle sperimentazioni e delle conoscenze deriverà sempre di più dalle macchine programmate e seguite da terra. Diventeranno perciò obsoleti anche i progetti più modesti di stazioni orbitali permanenti. I due soli apparati esistenti per la permanenza umana nello spazio sono considerati preistorici e non hanno eredi, nel senso che non sono state progettate macchine sostitutive. La Mir ha già iniziato il ciclo di autodistruzione che terminerà intorno al 2000 con lo smembramento e la disintegrazione nell'atmosfera, e non ci sarà una Mir 2. La navetta Atlantis, ultima della serie Shuttle, è ideata per permanenze temporanee e non può permettere la sopravvivenza nello spazio per più di un paio di settimane alla volta.
La Stazione Spaziale Internazionale, in progetto da anni, che dovrebbe essere collegata a terra tramite l'Atlantis americana e la Progress russa, è già vecchia prima ancora di nascere. Nel novembre del 1998 è stato lanciato il primo modulo, cui ne seguiranno, entro pochi mesi, altri tre, fino al completamento nel giro di quattro o cinque anni, di una specie di duplicato della Mir, solo molto più grande.
L'ulteriore esplorazione dello spazio si presenta problematica. Vi è ormai attività di routine nel campo dei satelliti commerciali, spionistici e geofisici; vi è ormai routine anche per quanto riguarda i robot per l'esplorazione lontana; vi è un completo disinteresse per la Luna e non si riesce a recuperare un po' d'entusiasmo neppure con le ricorrenti notizie sulla presenza di acqua, la quale permetterebbe l'impianto di stazioni stabili (208). Venere è inospitale e poco telegenica con le sue nebbie perenni; ha temperature troppo alte e un'atmosfera venefica.
Non resta che Marte, ma ci sono problemi non indifferenti. Sull'esplorazione di questo pianeta, come del resto su quella di tutto lo spazio, il mondo scientifico è diviso in due: da una parte vi sono gli "esploratori", cioè coloro che spingono per la continuazione dei voli umani; dall'altra vi sono i "cibernauti", cioè coloro che privilegiano l'utilizzo delle macchine automatiche. I fautori delle imprese con uomini sono decisi a combattere duramente per la sopravvivenza dei loro progetti ma per ora hanno perso la battaglia, dato che i fautori dell'esplorazione con robot sono vittoriosi su tutta la linea e raccolgono quasi tutti i soldi stanziati. Gli "esploratori" sono per la maggior parte americani e si capisce perché: l'esuberanza passata delle risorse disponibili e la necessità della propaganda li ha lanciati in progetti spettacolari che "pagavano" compatibilmente con la iniziale competizione pionieristica e con la situazione internazionale. Oggi quei motivi sono caduti e diventa sempre più difficile dimostrare la necessità di mandare uomini nello spazio e perciò ottenere dallo Stato l'enorme quantità di denaro occorrente. Paradossalmente, a fare questo discorso statalista sono proprio gli americani superliberisti, dato che l'industria preferisce investire in esperimenti robotizzati che costano meno e sono più sicuri. Perciò le missioni manned, "umanate" diventano vitali non tanto per la scienza quanto per la sopravvivenza di quell'apparato tecnico-produttivo che, all'epoca della corsa alla Luna, impiegò mezzo milione di uomini solo negli Stati Uniti.
Dunque non resta che Marte. La NASA sta cercando di convincere il governo americano che sarebbe utile per la nazione disporre di ingenti capitali per finanziare la spedizione umana sul pianeta rosso. Il suo ufficio marketing ha assoldato 60 giornalisti e tecnici specializzati in pubbliche relazioni e psicologia di massa per convincere le lobby a fare pressione sulla popolazione e quindi sul governo. Se nel frattempo le sonde automatiche dimostrassero che la soglia di pericolo per l'equipaggio diventa accettabile almeno quanto quella che ci fu nel caso della navetta Challenger (fino a 2 probabilità di incidente su 100 lanci a seconda di chi fa le stime), prepariamoci a un altro rigurgito di illuminismo in ritardo di due secoli.
Per i sostenitori delle missioni "umanate" le sonde automatiche avrebbero semplicemente il compito di preparare il terreno agli esploratori in carne ed ossa. Ma finora, come marxisticamente previsto, il raggiungimento dei loro obiettivi ha reso inutile la presenza umana: hanno fatto lo stesso lavoro di eventuali "eroi" e meglio, con spesa neppure comparabile. Ogni sonda restituisce informazioni su sé stessa e sull'ambiente, contribuendo a migliorare le prestazioni di quella successiva, perciò, più che preparare il terreno all'uomo, migliorano la ricerca proprio nel campo dell'esplorazione automatica. La sonda Pathfinder ha analizzato l'atmosfera, le rocce ed il terreno senza bisogno di portare campioni a terra, mentre la Global Surveyor, in missione congiunta, cartografava meticolosamente la superficie del pianeta da un'orbita bassa, cioè meglio di quanto si potesse fare dalla superficie con uomini scafandrati. Nello stesso periodo la perdita nello spazio dell'ennesima sonda marziana (la Mars 96, con vettore russo e strumenti europei) ha dimostrato quanto sia ancora lontana la sicurezza per le missioni umane. Le perdite, nel caso dei robot, sono compensate dal basso costo, che ne permette la proliferazione e quindi la probabilità di successo. Nel luglio del 1998 il Giappone ha lanciato il Planet-B, che dovrebbe arrivare su Marte nell'ottobre del 1999. Nel dicembre successivo è partito l'americano Mars Climate Orbiter, la cui missione è specificata dal nome e che dovrà anche fare da ponte radio per missioni successive. Il 3 gennaio 1999 è partita la Mars Polar Lander, anche questa dal nome esplicito; prima di toccare il suolo "sparerà" due sonde in grado di penetrare fino a due metri e l'intera missione avrà il compito principale di trovare l'acqua, se c'è.
Nel 2001 saranno inviati Surveyor Orbiter e Surveyor Lander per confermare i dati delle precedenti missioni e collaudare per la prima volta tecniche orbitali specifiche di missioni con equipaggio. Nel 2003 partirà una sonda europea, la Mars Express (Data relay Satellite), col compito di fare da stazione di collegamento, nel 2003 e 2005, con le sonde successive, le Mars Sample Return, che effettueranno discese al suolo ed esplorazioni con due Lander muniti di automa semovente come l'automobilina Sojourner di Pathfinder; serviranno anche per provare le tecniche di ritorno a terra portandosi dietro materiale del suolo marziano escavato con bracci meccanici. Queste ultime due missioni saranno particolarmente interessanti dal punto di vista degli automatismi controllati a distanza. Infatti è previsto un orbiter che sgancia un lander sul quale sono stivati sia il semovente ruotato per l'esplorazione e la raccolta dei campioni, sia il piccolo razzo di ascesa che dovrà trovare l'orbiter, congiungersi ad esso e ritornare a terra con i campioni. Il tutto coordinato tramite il soprannominato Express. L'arrivo a terra della seconda MSR è previsto per il 2008.
Tutto questo viavai di sonde e satelliti dovrebbe preparare il viaggio umano entro il 2008 o, più verosimilmente, il 2015. Sennonché c'è ancora da risolvere il grosso problema del rapporto fra peso complessivo e carico utile. Infatti le descritte missioni su Marte prevedono un rapporto fisso di circa 280 a 1, cioè per far giungere una tonnellata su Marte e farla tornare indietro, ne occorrono 279 di vettore. Una missione-tipo con quattro o sei uomini di equipaggio dovrebbe portare fin su Marte circa 200 tonnellate, quindi dovrebbero partire 56.000 tonnellate di vettori. Qualcosa come una ventina di Saturno, il vettore delle missioni Apollo verso la Luna.
Per ovviare a questi inconvenienti, un'industria privata, la Martin-Marietta Astronautics, ora fusa con la Lockheed, aveva proposto il progetto Mars Direct, che dovrebbe portare gli uomini direttamente su Marte senza passare attraverso il parcheggio in orbita terrestre di tutto l'armamentario utile allo scopo. La NASA, dopo aver vagliato tanti progetti irrealizzabili, sta prendendo in considerazione anche questo (209). Per noi esso è molto interessante, perché i suoi autori, per dimostrare che è l'unico per cui valga la pena di spendere soldi privati e pubblici, si impegnano a provare che ogni altro progetto avanzato è per ora impossibile. Siamo sicuri che i sostenitori di ogni altro progetto avranno dimostrato a loro volta che invece è impossibile l'operazione Mars Direct. Analizzando i dati abbiamo il sospetto che, riguardo all'impossibilità, possano aver ragione tutti quanti e che ben altre soluzioni dovranno essere trovate.
Nel prospetto riassuntivo dell'operazione diretta su Marte viene prima di tutto sottolineata la contraddizione fra i principii stabiliti dagli enti pubblici spaziali e le caratteristiche dei progetti di esplorazione marziana: gli obiettivi devono essere chiari e plausibili; i mezzi devono essere semplici ed affidabili; occorre un piano realistico dei costi; occorre evitare le complicazioni dovute all'interdipendenza delle varie fasi della missione; si devono impiegare tecnologie versatili abbastanza da essere in grado di giocare un ruolo utile in un vasto ventaglio di obiettivi, in modo da ridurre i costi anche attraverso un hardware in comune.
"Infine, soprattutto, le tecnologie devono essere scelte per massimizzare l'efficacia della missione una volta raggiunta la destinazione planetaria. Non è sufficiente andare su Marte: è necessario essere in grado di fare qualcosa di utile quando ci si arriva. Missioni a capacità zero non hanno senso. Nonostante i principii di cui sopra possano rispondere al comune buon senso, essi sono violati in ogni particolare da molti studi recenti della Space Exploration Initiative e, come risultato, il quadro presentato dalla SEI è così costoso e poco attraente che il finanziamento del Congresso per il programma è decisamente in forse […] Le missioni studiate sono molto vicine alla capacità zero". (210)
L'architettura di Mars Direct è ingegnosa, ma basta considerarla anche all'ingrosso per capire che non ha meno inconvenienti di quelle che vorrebbe aver superato. Un grande missile del tipo Saturno dovrebbe lanciare in una traiettoria diretta verso Marte un carico automatico di circa 40 tonnellate, comprendente un razzo di ascesa a due stadi, con motori a metano-ossigeno ma senza propellente, un veicolo di ritorno a Terra, un serbatoio da sei tonnellate di idrogeno liquido, un reattore nucleare da 100 kW montato su di un piccolo trattore a metano-ossigeno, una serie di piccoli compressori con un laboratorio chimico automatico e alcuni piccoli veicoli per la prospezione scientifica.
Questo carico si posizionerebbe in un'orbita marziana e, sulla base dei dati raccolti dalle sonde automatiche, scenderebbe nel luogo prestabilito. Una volta atterrato, il trattore con il reattore nucleare dovrebbe essere robo-teleguidato a qualche centinaio di metri dal modulo d'atterraggio e da quella posizione incominciare a fornire energia al gruppo chimico con i compressori. In tal modo l'idrogeno liquido portato dalla Terra potrà essere utilizzato in una reazione catalitica con l'anidride carbonica dell'atmosfera marziana per cui si incomincerebbe ad immagazzinare metano e acqua. Il primo sarebbe liquefatto e immagazzinato, mentre la seconda sarebbe a sua volta scissa cataliticamente in ossigeno e idrogeno. L'ossigeno sarebbe immagazzinato e l'idrogeno riciclato nel processo di produzione del metano. In questo modo si potrebbero produrre 24 tonnellate di metano e 84 di ossigeno, di cui 96 tonnellate da utilizzare come bi-propellente per il rientro a Terra e il resto per la permanenza dei futuri esploratori su Marte.
Non appena terminato il ciclo di produzione del propellente, altri due razzi, uno identico al primo, l'altro con quattro membri di equipaggio, provviste per 3 anni, una rover pressurizzata propulsa a metano-ossigeno e un modulo di atterraggio, partirebbero alla volta di Marte. Durante il viaggio di sei mesi, l'equipaggio godrebbe di gravità artificiale spingendo lontani il modulo abitato e l'ultimo stadio inerte trattenuti da un cavo e fatti ruotare l'uno rispetto all'altro.
Nel frattempo, la base robotizzata costituita precedentemente avrebbe inviato in un raggio abbastanza grande i piccoli veicoli ruotati di esplorazione che, una volta scelto il posto migliore, vi lascerebbero un transponder (un po' come uno di quegli aggeggi usati come telepass in autostrada) in modo da permettere all'equipaggio di dirigersi direttamente verso di esso senza dover cercare a vista.
Provvisto di cibo, energia, ossigeno e acqua, l'equipaggio potrebbe rimanere su Marte un anno e mezzo. Con il propellente non utilizzato per il ritorno e fabbricato in continuazione dai laboratori automatici, la rover pressurizzata da esplorazione potrebbe percorrere 22.000 km ad un raggio di 500 dalla base. Infine, dopo aver lavorato in gravità marziana senza aver dovuto lasciare nessuno in orbita come nelle missioni lunari e in quelle studiate dopo di esse per Marte, l'equipaggio ritornerebbe a Terra con il modulo di ritorno di nuovo in traiettoria diretta. Oppure potrebbe ottenere il cambio da parte di un altro equipaggio e così via, costituendo una catena di basi ecc.
Nel progetto è sottolineato con forza che tutti gli elementi utilizzati, razzi, moduli, compressori, laboratorio catalitico, reattore nucleare, sono molto affidabili e sicuri perché non sono frutto di ricerca ma sono tecnologie vecchie e consolidate. In effetti questo è forse il miglior progetto che si sia visto in questi anni, anche perché risponde in modo dettagliato anche a due grossi problemi finora solo parzialmente risolti: l'assenza prolungata di gravità e la lunga esposizione dell'equipaggio alle radiazioni cosmiche. Infine, se i calcoli non sono truccati, tre grandi razzi per inviare 120 tonnellate di materiale su Marte sono in effetti un bel risparmio rispetto alle cifre che abbiamo visto prima, dato che tutto il propellente per il ritorno, l'ossigeno e l'acqua per un anno e mezzo di permanenza sarebbero fabbricati in loco. E anche le dettagliate possibilità di recupero della missione in caso di fallimento sono piuttosto credibili. Tuttavia seri dubbi rimangono sulla sua fattibilità, se non altro perché ci troviamo di fronte alla solita enorme quantità di pezzi che dovrebbero in questo caso funzionare per addirittura tre anni di seguito. D'altra parte non è neppure vero che Mars Direct evita le interdipendenze fra le fasi della missione e neppure fra i vari hardware che entrano in relazione, anche se sono dello stesso tipo e tecnologicamente "vecchi", quindi collaudati. E soprattutto non è vero che il fine ultimo della missione supera lo scoglio della "capacità zero" attribuita ai progetti concorrenti: se gli uomini si fossero fermati sulla Luna per tre anni invece di tre giorni, non per questo avrebbero aggiunto maggiori conoscenze sul satellite o avrebbero dimostrato di aver "conquistato" lo spazio cosmico: anche i batiscafi sono scesi da tempo nelle profondissime fosse oceaniche, ma a nessuno è mai venuto in mente di dire che esse sono state oggetto di conquista.
Note
(198) A complicare le cose, nel caso dei primissimi satelliti balistici con orbita molto bassa, ancora influenzata dall'atmosfera, gli oggetti rotanti intorno alla Terra erano particolarmente soggetti alla "forza di Coriolis", che è ben conosciuta da ogni bigliettaio di giostra per bambini: per andare dai cavalli o dalle automobiline esterne a quelle interne o viceversa, egli sbanda per via della forza componente fra la sua velocità (lineare, fissa) e quella del punto della giostra in cui si trova (angolare fissa ma variabile a seconda della circonferenza percorsa). Le grandi correnti atmosferiche e marine sono soggette a tale forza, che può influire sulla meteorologia. Quando invece l'orbita era molto ellittica e il satellite si allontanava troppo dalla Terra, entravano in gioco altre forze, come il vento solare e le perturbazioni gravitazionali del Sole con i suoi pianeti.
(199) L'assetto del vettore non deve essere confuso con quello del satellite, la cui posizione rispetto ai tre assi era lasciata completamente al caso: i primi vettori rilasciavano satelliti con compiti limitati, che non avevano l'esigenza di essere orientati, perciò ruotavano liberamente.
(200) Non esistendo le grandi reti di rilevamento attuali, nei primi tempi furono utilizzati ampiamente i radioamatori, i quali dovettero essere disciplinati da direttive statali perché per eccesso di zelo finirono per disturbare, con apparecchiature di fortuna, le frequenze su cui trasmettevano i satelliti.
(201) In Russia si era anche tentato di applicare questo tipo di conoscenze alla dinamica della produzione e della distribuzione.
(202) Al IX Congresso di astronautica di Amsterdam nell'agosto del 1958, l'austriaco F. Cap presentò una relazione su "La soluzione Grössner generale ed esatta del problema astronomico degli n-corpi e la sua applicazione all'astronautica"; l'americano S. Herrick su "Orbite possibili contro orbite di precisione"; l'italiano A. Miele su "Teoria generale sulla variazione delle traiettorie di velivoli propulsi a razzo, missili e satelliti". Il problema degli n-corpi e delle perturbazioni solari o planetarie sui satelliti fu affrontato dall'inglese E. V. Stearns e dall'americano E. Levin nel successivo X Congresso, tenutosi a Londra nell'ottobre 1959. In questo congresso furono anche molte le relazioni sugli aspetti relativistici legati all'astronautica e sui problemi di tracking (una sul rilevamento tramite il solo effetto Doppler, citato in seguito). Questi aspetti teorici per il calcolo delle traiettorie e il loro controllo sono per esempio affrontati normalmente nei corsi del Dipartimento di Astronautica dell'Università di Roma (cfr. Bibliografia).
(203) Anche se si potrebbero ottenere orbite molto più precise di un tempo, oggi non si insiste particolarmente su quella strada. Così facendo si risparmia sull'accuratezza dei vettori che vanno persi e si investe su quella delle reti di tracking che sono fisse. Il satellite o la sonda vengono lanciati, "tracciati" e posizionati con precisione in un secondo tempo (la Shuttle è nata apposta per questo). Molti insegnamenti furono ricavati dal fallimento della missione Apollo 13, il cui obiettivo era di portare tre astronauti sulla Luna. Essa fu costellata di incidenti che ne modificarono totalmente i parametri, e tutta l'operazione di salvataggio si basò sulla loro modifica radicale man mano che veniva rilevata la posizione e la velocità del veicolo. In traiettoria verso la Luna esplosero i serbatoi di ossigeno del modulo di servizio e con essi un generatore elettrico. La perdita di gas provocò spinte incontrollate, come se fossero accesi motori impazziti. Siccome la traiettoria non era già più di tipo puramente balistico, ma doveva essere corretta per centrare il cratere scelto come obiettivo, il modulo non si stava dirigendo verso un'orbita lunare da cui potersi staccare e "ricadere" sulla Terra. L'incidente rischiava perciò di spedire l'equipaggio a perdersi nello spazio. Al centro di controllo si decise di utilizzare i motori del modulo lunare per correggere la traiettoria invece che per scendere sulla Luna, ma tale modulo era progettato per muovere solo la propria massa e non anche quella del modulo di servizio, molto più grande. Gli astronauti dovettero posizionare entrambi i moduli in un'orbita lunare, attendere che i parametri fossero tutti ricalcolati, quindi sganciarsi dalla gravitazione, trovare una traiettoria di caduta verso la Terra, frenare in modo da non disintegrarsi nell'atmosfera o rimbalzare su di essa e infine cercare di centrare un oceano con la capsula di rientro. Il tutto mentre perdite incontrollate di gas continuavano a produrre spinte casuali. La vicenda dell'Apollo 13 dimostra l'enorme supremazia del rilevamento di posizione e della guida sul tentativo di ottenere orbite precise, ma anche la supremazia del lavoro sociale sulla tecnologia: i tre astronauti salvarono la pelle non tanto grazie alla scienza in generale quanto grazie ad un immenso apparato produttivo e organizzativo che, sotto stress, concentrò il massimo d'informazione sul lontanissimo relitto.
(204) I due metodi più usati per il tracciamento di satelliti e sonde sono il Doppler e il ranging (puntamento); entrambi permettono oggi di determinarne con grande precisione la traiettoria, ma sono poco sensibili agli scostamenti trasversali, i quali necessitano di essere elaborati in differita, cioè mentre l'oggetto si muove a grande velocità e man mano si trova in una sempre nuova posizione. Per questo le sonde per spazi lontani richiedono una robotizzazione spinta, in grado di autoguidarle e autocorreggerle puntando sulle stelle evitando i fenomeni di aberrazione. L'osservatorio Qian Zhihan di Shanghai dell'Accademia Cinese delle Scienze presentò un progetto di tracciamento in tempo reale per astronometria valido anche per sonde lontane.
(205) Nonostante tutto gli incidenti succedono ancora. Il 25 giugno 1997, durante la prova di un nuovo sistema di attracco delle navicelle automatiche di servizio Progress con la stazione orbitale Mir, vi fu uno scontro che distrusse un pannello solare e provocò una falla nello scafo del modulo Spektr, mettendo a rischio l'equipaggio a causa della fuoriuscita dell'atmosfera.
(206) Il calcolo è comprensivo dei difetti di sicurezza intrinseci della Shuttle. I dati sono ricavati dall'articolo "To boldy dump", in The Economist del 29 marzo 1997. Simulazioni al computer di orbite conosciute hanno indicato centinaia di intersezioni al giorno entro distanze a rischio; e la situazione peggiorerà quando nuovi paesi, come la Cina e l'India, lanceranno i loro satelliti per le telecomunicazioni. Attualmente (1999) vi sono almeno tre consorzi occidentali, uno giapponese e uno cinese in procinto di realizzare coperture satellitari con migliaia di ripetitori in orbita. Ricordiamo che un rottame spaziale può avere una velocità relativa di 20 o 30 volte quella di un proiettile, quindi un'energia cinetica devastante. Prove empiriche eseguite con satelliti-cavia hanno dimostrato che le probabilità di impatto sono molto più ampie di quelle ipotizzate con i calcoli.
(207) La stessa cosa, ad un livello forse più banale ma di significato identico, è successa con il "bug 2.000", la data a due cifre nel software dei computer.
(208) L'acqua sarebbe un elemento essenziale per la futura "colonizzazione" della Luna. La probabile presenza di acqua ghiacciata sulla regione polare meridionale fu rilevata nel 1994 dalla sonda Clementine, durante una prospezione orbitale durata 70 giorni ed effettuata con segnali radar. Siccome la strumentazione a bordo della sonda non era specifica per tale ricerca, lo scetticismo dei planetologi ebbe il sopravvento sulla "notizia". Mentre scriviamo una sonda specificamente studiata, la Lunar Prospector, è in orbita intorno alla Luna ad un'altezza di 100 km. Tramite uno spettrometro a neutroni essa dovrebbe eseguire la mappatura chimica della superficie lunare. Dai primi dati sembra che l'acqua ci sia effettivamente e ne è persino stata stimata la quantità in 6 miliardi di tonnellate. Siccome è da escludere che la Luna abbia mai avuto acqua nel suo processo di formazione, i propugnatori della colonizzazione lunare pensano che, se c'è, possa essere dovuta al residuo di una cometa precipitata. Il ghiaccio sarebbe stato intrappolato nei recessi più profondi dei crateri polari, che rimangono sempre in ombra e mantengono una temperatura di 150 gradi sotto zero. I tecnici sono più cauti dei giornalisti e uno di loro, dopo aver detto che i dati sono molto chiari ma ancora da elaborare aggiunge: "Siamo contenti se la gente dimostra interesse per questa informazione, ma non possiamo ancora avere risultati conclusivi neppure su basi preliminari. So che ci sono tutti questo rapporti, le chiacchiere si diffondono e la gente vorrebbe avere una risposta, ma non è il modo di lavorare. Potrebbe risultare vero, ma potrebbe anche essere di no. Per ora non lo sappiamo" (Frank Sietzen, "NASA Says Ice Rumors Wrong" in SpaceCast News Service, 10 febbraio 1999). Come nel caso della meteorite marziana con tracce di vita (e non era vero), la propaganda è più forte delle basi scientifiche.
(209) Robert M. Zubrin, David A. Baker e Owen Gwynne, Mars Direct: A Simple, Robust, and Cost Effective Architecture for the Space Exploration Initiative. Il progetto, accompagnato da chiari schemi illustrativi e da una completa bibliografia, fu pubblicato per la prima volta nel 1991 dall'American Institute of Aeronautics and Astronautics Inc. a cura della Martin Marietta Corporation.
(210) Robert M. Zubrin e altri, Mars Direct cit.