Prologo (1)
Lex Fridman apre il dialogo con Sam Altman sull’IA e afferma che ci troviamo nel punto più alto di una profonda trasformazione sociale, di cui nessuno, incluso lui stesso, conosce gli esiti a priori. In molti percepiscono che il cambiamento si propaghi all’interno delle nostre vite.
Il passaggio cruciale avviene, quando nel novembre 2022, un’azienda californiana chiamata OpenAI, il cui CEO è Altman, ha lanciato ChatGPT, una chat capace di conversare con i suoi utenti con la stessa naturalezza di un essere umano.
La macchina simula il ragionamento umano e genera un testo scritto, connesso con le nostre richieste.
Che cos’è ChatGPT? Che cosa la rende appetibile?
Tale chatbot fa parte dei modelli GPT (Generative Pre-trained Transformer), tecnicamente chiamati LLM (Large Language Model) e basati sul machine learning. I LLM sono algoritmi di deep learning addestrati generalmente su milioni di testi provenienti da varie fonti: libri, articoli di giornale e siti web. La tecnica del deep learning consiste nell’utilizzare una rete neurale artificiale, cioè un modello matematico che si ispira al funzionamento delle reti neuronali biologiche, per comprendere il significato di un testo e generare un output, in base al modo in cui formuliamo le domande.
In che modo s’addestra la macchina ad apprendere?
Il processo prende corpo dal RL-HF, ossia Renforcement Learning whith Human Feedback, cioè le macchine imparano attraverso i riscontri umani che funzionano come rinforzi.
RL-HF è il modo in cui noi allineiamo il modello a fare quello che noi umani gli chiediamo di fare, dice Altman, addestrandolo su una quantità enorme di dati. Rispetto ai modelli precedenti ChatGPT, prosegue Altman, è più facile da usare ed ha aumentato le prestazioni e la macchina ha come la sensazione di capire quello che stiamo cercando.
ChatGPT è la forma più sviluppata dell’IA, il suo modello linguistico permette di imparare e di fare citazioni, tuttavia, questa strabiliante invenzione, richiede anch’essa, come ho appena accennato, una gigantesca mole di dati, che vengono raccolti dai lavoratori e lavoratrici delle piattaforme dei cosiddetti paesi emergenti. Un esercito di precari sta contribuendo in modo determinante allo sviluppo dell’IA, filtrando i dati, cioè gli ingredienti fondamentali, attraverso piccoli progetti online che durano pochi minuti. Si tratta di persone che vivono il problema della disoccupazione e quindi si adattano allo svolgimento di micro-task a cui corrispondono micro-lavori, dalla durata brevissima e pagati pochi centesimi, per ogni micro-attività realizzata. OpenAI, come ha rilevato la rivista Time, nello scorso mese di gennaio, ha utilizzato centinaia di micro-lavoratori della compagnia kenyota Sama, per addestrare il modello ChatGPT, ma nulla di tutto ciò vien fuori dal dialogo fra Altman e Fridman. Nondimeno vale la pena continuare l’analisi della loro lunga conversazione, in quanto potrebbe essere indagata come un luogo di apprendimento, su questioni che ci riguarderanno sempre di più e per le quali non possiamo fare a meno di essere coinvolti.
Punti salienti del dialogo
Uno dei principali problemi, che sorge con i sistemi AGI, è quello dell’allineamento di un dispositivo super intelligente ai valori umani. Pertanto, Fridman chiede al suo interlocutore: «In che cosa consiste e come state affrontando la questione?».
Altman, nell’esprimere il suo punto di vista, afferma: «penso che abbiamo fatto ragionevoli progressi nella direzione di ottenere un sistema allineato, rispetto a quelli precedenti. ChatGPT ha una buona capability, quindi ci troviamo di fronte al più allineato modello che abbiamo prodotto finora. I due concetti sono molto vicini. Una migliora capability implica un miglior allineamento e viceversa.»
L’allineamento rimanda alla sicurezza del sistema e dunque a far in modo che il modello non imbocchi percorsi randomici, i quali potrebbero contrastare i principi etici degli umani.
Su questo punto Altman tende a precisare che ci troviamo davanti a qualcosa che presenta una serie di criticità, non sappiamo come evolverà, ma non possiamo sapere cosa succederà tra vent’anni. Dunque, egli restringe il campo dell’indagine, asserendo che: «Non abbiamo ancora scoperto il modo di allineare un sistema super potente, per la scala corrente chiamata RL-HF».
Riprende la parola Fridman e pone un altro interrogativo: «ChatGPT4 è la versione più avanzata del modello, è possibile chiedere alla macchina di generare un codice sul come fare qualcosa e se poi non ci soddisfa gli si ordina di aggiustare il tiro?»
La risposta di Altman è articolata: «in realtà, si! La prima versione del sistema era una sorta di one shot (un solo colpo), tu dicevi cosa volevi, scrivevi qualche codice e finiva così. Adesso puoi avere qualcosa indietro, una risposta, un riscontro, una sorta di dialogo in cui puoi dire ho imparato questo, non fare questo, eccetera. Naturalmente, la nuova versione potrà ottenere ancora di più, il sistema può cogliere gli errori ed effettuare gli aggiustamenti. Ma quest’idea di interfacciarsi con il computer come uno strumento creativo che ci assiste e ci fa compagnia, sarà un grande problema, sarà una sfida avvincente, sarà il tema del prossimo futuro».
Fridman fa scivolare di nuovo il discorso sulla sicurezza del sistema, ovvero sulla necessità di produrre dei comandi che pongano un freno alle vanità umane e con l’obiettivo di restringere le ricerche che esulino da un contesto civile. Egli, quindi, si rivolge ad Altman ed esplicita il suo pensiero in questi termini: «Possiamo, per esempio, evitare che ChatGPT4 venga utilizzata per seminare l’odio tra i popoli?»
Io direi che la domanda di Fridman, nello specifico, è mal posta, se non addirittura sbagliata, in quanto egli sorvola sul fatto che l’odio tra i popoli è divampato ogni qualvolta che ci sono stati gruppi di individui pronti a soffiare sul fuoco delle differenze, al di là della tecnologia di cui disponevano. Tant’è vero che Altman non riesce a districarsi molto bene, all’interno di questi tentacoli. Infatti, quest’ultimo afferma: «Nel dirigere l’attenzione, allo scopo di tracciare dei limiti reali a una tecnologia che sta avendo un grande impatto, qualsiasi tentativo di creare il giusto equilibrio tra le persone che interagiscono, si scontra con la probabilità che ci siano alcuni di loro che si offendano, per varie ragioni, ma questo non significa attizzare l’odio tra i popoli. Tuttavia, per controllare eventuali harmuful outputs (prodotti nocivi) è necessario seguire un processo democratico attraverso il quale si definiscono le regole e le overrules, cioè ciò che sta sopra quelle regole».
In seguito i due s’attorcigliano in più perifrasi, che non hanno molta rilevanza, a mio parere, quindi Fridman sposta il ragionamento e imposta una sentenza dichiarativa: «Sembra che tutta la conoscenza, tutta la tecnologia sin qui prodotta dagli esseri umani sia confluita nell’IA, in una sorta di compressione del sapere, senza l’esperienza».
Altman annuisce: «Si è vero, tutti i dati testuali che l’umanità produce».
«Allora – replica Fridman, rimanendo sulla stessa lunghezza d’onda –, quanto pesa la dimensione del modello, quanto conta in numero dei parametri?»
Il CEO di OpenAI, dopo un breve sospiro, spiega: «penso che molte persone si siano fatte prendere dalla gara di contare i parametri, così com’è accaduto con la gara dei gigahertz. Il punto non è aumentare la velocità del sistema, ma ottenere la migliore prestazione. Coloro che lavorano bene in OpenAi, provano ad essere autentici nel ricercare e nel fare giusto quelle cose con le quali si ottengono le migliori prestazioni, al di là del fatto che siano le più eleganti soluzioni».
Fridman, va avanti e apre un altro snodo: «L’IA avrà un corpo e potrà esperire il mondo direttamente?»
Ma Altman non si sbilancia e chiude la questione, senza girarci attorno: «Ci muoviamo dentro l’ignoto, siamo profondamente dentro l’ignoto».
A questo punto, Fridman cambia la traiettoria e incalza il suo interlocutore con una domanda che, a mio avviso, ha una valenza economico-sociale: «Siamo un po’ terrorizzati dall’IA, c’è un meme che ho visto oggi e che sta andando a ruba, esso sta mandando fuori di testa (freaking out) molte persone e veicola il messaggio che ChatGPT ci priverà dei nostri lavori. Il meme comunica che, nel breve termine, l’IA prenderà il lavoro dei programmatori e di conseguenza essi si sentono dei shity programmers (programmatori di merda). C’è qualcosa di vero in questo?»
Qui Altman è colto di sorpresa, prova ad abbozzare una risposta, ma fondamentalmente evade la domanda e si limita a riconoscere che: «Molti programmatori hanno un senso di ansietà, sono ansiosi riguardo a quello che ci riserva il futuro, questo è sorprendente, in quanto significa che siamo più produttivi».
Su questa scia, Fridman non solo ritira la domanda, ma si allinea al pensiero di Altman, evidenziando solo gli aspetti positivi dell’IA e quindi formula un’espressione idiomatica, per esprimere lo stupore di coloro che non credono, ai progressi lineari della scienza, ai benefici che l’IA porterà nelle relazioni lavorative e della vita quotidiana: «Il caffè è troppo buono! (the coffee tastes too good!)».
La convergenza di Fridman permette ad Altman di riprendere fiato e d’aggiustare il tiro sulla risposta precedente, tralasciando, ovviamente, le implicazioni e le contraddizioni relative agli aumenti di produttività, per via dell’introduzione dell’IA nei processi produttivi e la conseguente perdita di molti posti di lavoro. Nel riprendere il filo del discorso, dice: «Quando Kasparov ha perso con Deep Blue, qualcuno ha detto (e forse è stato lui): chess is over now! Il gioco degli scacchi è finito, non ha più futuro! Se l’IA può battere un umano a scacchi, nessuno continuerà a giocare, vero? Questo è successo 25 anni fa e sembra che gli scacchi siano diventati più popolari rispetto a prima, le persone continuano a giocare e a vedere le partite. Insomma – precisa Altman, con tono fiducioso – non vorrei sembrare un utopic tech bro (un utopico fratello della tecnica), ma penso che l’IA possa apportare straordinari miglioramenti nella nostra qualità della vita»
Infine, uno degli aspetti più controversi dell’IA, durante il dialogo, prende forma, quando Fridman pone ad Altman una domanda secca, su una questione molto complessa : «Pensi che CharGPT4 sia cosciente?»
Altman, dapprima, risponde in modo reattivo: «Penso di no!» Per poi rivolgere a Fridman la stessa domanda, con tono di sfida. Quest’ultimo sottolinea che: «L’IA sa come imbrogliare ed aggirare la coscienza». Tuttavia, il conduttore del podcast ha bisogno, in qualche modo, della conferma di Altman, infatti affina il registro investigativo, precisando: «Ma ciò accade, quando forniamo alla macchina la giusta interfaccia e gli appropriati comandi».
Altman concorda: «Si, in questi casi è come se fosse cosciente». Quindi, per sviluppare questo punto racconta ciò che Ilya Sutskever, il cofondatore e capo del team scientifico di OpenAI, ha detto a tal proposito: «Stavamo parlando del come potevamo capire se un modello era cosciente o no. Ho sentito molte idee intorno a quest’aspetto, ma credo che il suo ragionamento sia molto interessante. Il mio socio sostiene che se noi addestriamo un modello su un determinato data set (insieme di dati) e se siamo molto attenti a non far riferimento, a non menzionare la parola coscienza o qualsiasi cosa ad essa vicina, nel processo di addestramento; dunque, facciamo di tutto per non nominare qualsiasi esperienza soggettiva, ma poi ci rivolgiamo al modello e affermiamo che ci sono delle cose sulle quali non è stato addestrato, allora è molto probabile che esso replichi: non ho idea di cosa stiate parlando. Successivamente, se ordiniamo al modello di descrivere l’esperienza soggettiva della coscienza e il modello risponde che sa di cosa stiamo parlando, ciò equivarrebbe a qualcosa di nuovo, cioè produrrebbe un aggiornamento». (io direi, forse, un “cambiamento soggettivo”)
Fridman sembra che non sia soddisfatto dal modo in cui Altman ha espresso il pensiero del proprio socio, cosicché fa una virata e afferma che: «La coscienza abbia a che fare con le emozioni». Ovviamente, Altman è in disaccordo e di conseguenza sembra che i due stiano procedendo a ruota libera, su quest’ultimo punto.
Qualche anno prima di ChatGPT
In realtà, dal mio punto di vista, penso che Altman si trovi immerso in un processo in cui la capacità di fare è così elevata, al punto che gli viene difficile riflettere su quello che sta facendo e sulle sue implicazioni. In qualche misura, è come se fosse preso in controtempo. Ma non potrebbe essere altrimenti! A ciò si aggiungono le vaghe conoscenze di entrambi su concetti come coscienza e consapevolezza.
Tanto per fare un esempio, una dozzina di anni prima di ChatGPT4, J. Kevin O’ Regan aveva già affrontato il tema della coscienza dell’IA da diverse angolazioni e si era posto interrogativi del tipo: «Possono essere costruiti, programmati dei robot in grado di ragionare su se stessi come entità distinte dall’ambiente circostante, allo scopo di pianificare, giudicare e decidere cosa fare? (2)
La sua risposta è: «Sembra di si!» A quanto pare, secondo O’ Regan, costruire macchine che hanno una cognizione di sé richiede del tempo, ma è possibile. Egli, per esplicare la nozione di sé, rispetto alla miriade di interpretazioni, elabora il sé cognitivo e quello sociale, individuando tre categorie: a) Distinzione di sé; b) Conoscenza di sé; c) Conoscenza di conoscenza di sé.
Il sé ha come pilota l’io, esso è costituito da un insieme di sotto sé, O’ Regan cita David Hume, il quale sostiene che non c’è un singolo sé, io sono un insieme composto da diverse capacità ed entità. “Io sono una Repubblica”.
Il sé cognitivo esprime le modalità attraverso cui un individuo utilizza le proprie capacità cognitive per interagire con l’ambiente, mentre «l’interazione comporta una dimensione sociale». (3)
Ci sono macchine intelligenti – come delinea O’ Regan – che sono capaci di individuare il comportamento della persona che interagisce, osservano lo sguardo e quindi intuiscono il movimento, cioè la direzione, l’orientamento di chi interagisce con loro.
Del resto, tali macchine non hanno una nozione simile all’io, che gli esseri umani utilizzano per riferirsi a se stessi, così come esse presentano delle limitazioni della coscienza cognitiva. Infatti, una macchina, che gioca a scacchi con un essere umano ben allenato, non riesce a capire le emozioni che prova durante la partita. Essa, perlopiù, può acquisire una coscienza di ordine gerarchico superiore ovvero diventa pratica delle mosse del giocatore. In base ai suoi movimenti sulla scacchiera, l’IA può capire le caratteristiche del suo modo di giocare.
Come per i replicanti di Blade runner, di Ridley Scott – avverte O’ Regan: «Sembra inconcepibile che un robot possa in alcun modo sentire realmente il dolore». (4)
Anche se si programma una macchina che sia in grado di sentire realmente il dolore, la maggior parte di noi pensa che stia fingendo. Quando tagliano il braccio al Terminator, interpretato da Arnold Schwarzenegger, lo spettatore è convinto che quel robot stia fingendo, non sia in grado di provare dolere.
Insomma, sembra che il provare delle emozioni sia una caratteristica dei soli esseri umani e che le macchine non siano in grado di percepire delle sensazioni, poiché non riescono a provare qualcosa.
Ecco perché si è affermato il principio che le sensazioni debbano esistere, altrimenti non ci sarebbe nulla che si provi.
note
———–
1) ChatGPT and the future of AI, Podcast: https://youtu.be/L_Guz73e6fw
2) J. Kevin O’ Regan, Perché i colori non suonano. Una nuova teoria della coscienza, Raffaello Cortina Editore, Milano, 2012, p. 116.
3) Ibidem p. 118.
4) Ibidem p. 140.