Macchine che addestrano sé stesse

Dopo l'iniziale ondata di entusiasmo per ChatGPT, ora l'attenzione verso l'innovativo modello di Intelligenza Artificiale Generativa sta scendendo, ma in questi ultimi mesi non sono mancati avanzamenti tecnologici e novità.

OpenAI ha annunciato un aggiornamento nelle applicazioni mobili di ChatGPT per iOs e Android, che renderà la chatbot capace di adattare la traduzione alla tipologia di utente e di rispondere alle domande anche tramite una funzione di sintesi vocale. La nuova versione del programma sarà potenziata anche nel campo visivo, con la possibilità di riconoscere immagini e trarre informazioni da un dato. I ricercatori dell'azienda americana stanno sviluppando un sistema "multimodale" che assomiglia sempre più al modo in cui gli esseri umani si interfacciano con la realtà.

I big tech (OpenAI, Google, Apple, ecc.) investono massicciamente nel settore, dato che i loro sistemi devono aumentare la potenza di calcolo per reggere la sfida con la concorrenza. Cresce anche la quantità di dati necessaria, e gli esperti stimano che le fonti presenti su Internet siano prossime all'esaurimento. Perciò le grandi aziende si stanno rivolgendo ad agenzie stampa e fotografiche per reperire nuovi dati da dare in pasto ai loro modelli intelligenti, e sembra che qualcuno stia addirittura pensando allo sviluppo di informazioni sintetiche, ovvero testi, video e foto sviluppati da altri sistemi di IA, in modo che le macchine addestrino altre macchine.

Per processare l'enorme massa di dati è necessaria una quantità sempre maggiore di energia. Una ricerca ha dimostrato che l'addestramento di GPT-3, il modello linguistico che utilizza l'apprendimento profondo per generare testi simili a quelli prodotti dall'uomo alla base di programmi come Chat-GPT, ha portato al consumo di più di tre milioni di litri d'acqua, utilizzati per raffreddare il data center e per far funzionare l'intero impianto. Il cervello artificiale sta crescendo e acquisendo caratteristiche sempre più analoghe a quelle del cervello umano, ma a fronte di un impatto crescente sulle risorse del pianeta. Nel testo Mai la merce sfamerà l'uomo , la corrente cui facciamo riferimento affronta il problema dello scambio di materia ed energia tra ambiente e specie umana, arrivando alla conclusione che se l'umanità non sarà in grado di raggiungere un equilibrio dinamico con la biosfera, si andrà verso un divenire insostenibile che porterà a conseguenze catastrofiche. Non è dunque la tecnologia a risolvere tutti i problemi dell'umanità, è necessaria una rivoluzione che capovolga la prassi vigente, permettendo di affrontare in maniera sistemica il rapporto tra uomo e natura attraverso un piano di specie che riguardi gli spostamenti, la produzione, i consumi, ecc.

HeyGen, una piattaforma di IA che traduce il parlato nei video modificando anche il labiale di chi sta parlando per conformarlo con il tipo di lingua selezionata, sta praticamente risolvendo le difficoltà legate alle traduzioni dei messaggi vocali. Ovviamente, rimane il problema delle fake news : con tali sistemi diventa facile falsificare i dati digitali che si tratti di immagini, audio o altro, rendendo al contempo più complicato distinguere ciò che è reale da ciò che è falso, tanto più se consideriamo la velocità con cui si propagano le notizie sul Web. Man mano che la tecnologia avanza il sistema ad essa legato diventa sempre meno controllabile. Basti pensare a quanto accaduto con la foto di un finto attacco al Pentagono, generata tramite un programma di IA, la cui diffusione in rete ha avuto ripercussioni in borsa causando una caduta di 85 punti del Dow Jones Industrial Index. Siccome gli algoritmi che governano i sistemi finanziari rispondono agli input che arrivano dalla società, e lo fanno molto velocemente, notizie false possono produrre circolarità auto-rinforzanti.

Gli appelli firmati dai grandi del mondo tech, a cominciare da Elon Musk, per una moratoria sullo sviluppo dell'IA nascono dalla preoccupazione di non poter distinguere il contenuto generato dalle macchine dal contenuto umano. Nella lettera-appello uscita qualche mese fa si legge: "I potenti sistemi di IA dovrebbero essere sviluppati solo quando saremo certi che i loro effetti saranno positivi e i loro rischi saranno gestibili". Gli avvertimenti degli esperti lasciano il tempo che trovano, dato che ogni Stato difende i propri interessi e non accetta limiti alla ricerca, soprattutto in campo bellico.

Note

  • * Pochi giorni prima che questo numero andasse in stampa, è scoppiato il caso del licenziamento di Sam Altman da parte del consiglio di amministrazione di OpenAI, la start up americana all'avanguardia nella ricerca nel campo dell'IA, artefice di ChatGPT. Nei giorni frenetici che sono seguiti, prima si è fatta avanti Microsoft che ha tentato di tenersi stretto il prezioso informatico integrandolo direttamente nelle proprie fila (Microsoft è il principale finanziatore di OpenAI), poi il 95% del personale (più di 700 dipendenti) della start up ha minacciato di andarsene per seguire l'ex capo, e infine Altman ha annunciato il proprio ritorno alla guida di OpenAI. Secondo quanto riportato da Reuters, dietro all'improvvisa estromissione di Altman ci sarebbe uno scontro interno legato ad un nuovo progetto di IA denominato Q* (Q-Star), e più in generale alla direzione da imboccare nella ricerca in questo campo. Indipendentemente dalle cause che per qualche giorno hanno messo in agitazione il mondo dell'IA, rimane il fatto che lo sviluppo dell'Intelligenza Artificiale sta facendo passi da gigante scombussolando lo stato di cose presente.

Rivista n. 54