LibertàEguale

Digita parola chiave

La Falsa Promessa di ChatGPT

Redazione domenica 9 Aprile 2023
Condividi

di Noam Chomsky, Ian Roberts e Jeffrey Watumull

 

ChatGPT è un chatbot (un software che simula ed elabora le conversazioni umane) di intelligenza artificiale (AI) sviluppato da OpenAI e lanciato a novembre 2022. ChatGPT è al centro di un interessante dibattito sulle prospettive future dell’intelligenza artificiale come motore di trasformazione sociale. Immersi nel tipico provincialismo della politica italiana, talvolta perdiamo di vista le trasformazioni di lungo periodo che avvengono nella società contemporanea. E forse non è un caso che l’Italia sia stato il primo paese al mondo in cui è stato proibito l’accesso diretto a ChatGPT (ma con un semplice software VPN che “spersonalizza” il luogo di accesso è possibile ancora usarlo liberamente, nella classica tradizione ipocrita italiana).

L’8 Marzo 2023, il famoso linguista Noam Chomsky ha scritto un editoriale sul New York Times sulle caratteristiche e prospettive di ChatGPT insieme con il collega Ian Roberts e l’esperto di intelligenza artificiale Jeffrey Watumull. Nell’ottica di pubblicare su LibertàEguale i contributi più interessanti al dibattito sulle prospettive dell’intelligenza artificiale nella società, ecco di seguito la traduzione dell’editoriale a cura di Ranieri Bizzarri

************

Jorge Luis Borges ha scritto una volta che vivere in un tempo di grandi pericoli e opportunità significa sperimentare sia la tragedia che la commedia, con “l’imminenza di una rivelazione” nella comprensione di noi stessi e del mondo. Di sicuro oggigiorno sono contemporaneamente motivo di preoccupazione e ottimismo i progressi, che reputiamo rivoluzionari, nel campo dell’intelligenza artificiale. Ottimismo, perché l’intelligenza è il mezzo con cui risolviamo i problemi. Preoccupazione perché temiamo che la varietà più popolare e alla moda di A.I. – quello che viene definito machine learning (apprendimento automatico) – può degradare la nostra scienza e può svilire la nostra etica incorporando nella nostra tecnologia una concezione fondamentalmente imperfetta del linguaggio e della conoscenza.

ChatGPT di OpenAI, Bard di Google e Sydney di Microsoft sono meravigliosi prodotti di machine learning. In buona sostanza questi programmi raccolgono enormi quantità di dati, vi cercano schemi ricorrenti e diventano sempre più abili nel generare risultati statisticamente probabili, tra i quali un linguaggio e un pensiero apparentemente umani. Questi programmi sono stati salutati come il prologo all’affermazione di una reale intelligenza artificiale, quel momento a lungo profetizzato in cui le menti meccaniche saranno in grado di superare i cervelli umani non solo quantitativamente in termini di velocità di elaborazione e dimensioni della memoria, ma anche qualitativamente in termini di intuizione intellettuale, creatività artistica e ogni altra facoltà distintamente umana.

Quel giorno può arrivare, ma – contrariamente a quanto si legge nei titoli iperbolici dei media e si immagina assistendo agli investimenti sconsiderati in questo settore- la sua alba non è ancora spuntata,. La rivelazione “borgesiana” non è avvenuta e -ne siamo sicuri- non potrà avvenire se i programmi di apprendimento automatico come ChatGPT continueranno a dominare il campo dell’intelligenza artificiale. Questi programmi possono essere utili in alcuni domini ristretti (ad esempio nella programmazione di un computer o nel suggerire rime per versi molto semplici), ma sappiamo dalla scienza della linguistica e dalla filosofia della conoscenza che essi differiscono profondamente dal modo in cui gli esseri umani ragionano e usano il linguaggio. Queste differenze pongono limiti significativi a ciò che questi programmi possono fare, perché essi sono nati con difetti inestirpabili.

Come avrebbe potuto osservare Borges, è comico e tragico allo stesso tempo che tanto denaro e tanta attenzione siano focalizzati su una cosa così irrilevante se confrontata con la mente umana. La nostra mente non è, come ChatGPT e simili, un goffo motore statistico per la corrispondenza di schemi, che ingloba centinaia di terabyte di dati ed estrapola la risposta conversazionale più probabile o la soluzione più probabile a una domanda scientifica. Al contrario, la mente umana è un sistema sorprendentemente efficiente e elegante che opera con piccole quantità di informazioni. La mente umana non inferisce correlazioni brute tra dati, ma prova a fornire spiegazioni. Come avrebbe detto Wilhelm von Humboldt, tramite il linguaggio la nostra mente può fare “un uso infinito di mezzi finiti”, creando idee e teorie di portata universale.

Un bambino piccolo che acquisisce una lingua sta sviluppando – inconsciamente, automaticamente e rapidamente da un numero piccolo di dati – una grammatica, ovvero un sistema meravigliosamente sofisticato di principi e parametri logici. Questa grammatica può essere intesa come un’espressione del “sistema operativo” innato e geneticamente “installato” che dota gli esseri umani della capacità di generare frasi complesse e le lunghe concatenazioni del pensiero. Quando i linguisti cercano di sviluppare una teoria sul perché una data lingua funzioni in un certo modo (rispondendo alla domanda: “Perché queste – ma non quelle – frasi sono considerate grammaticali?”), stanno costruendo consapevolmente e laboriosamente una versione esplicita della grammatica che il bambino congegna istintivamente e con un’esposizione minima al flusso di informazioni esterno. Il sistema operativo del bambino è completamente diverso da quello di un programma di apprendimento automatico. I programmi di apprendimento automatico sono bloccati in una fase preumana o non umana dell’evoluzione cognitiva. Il loro difetto più profondo sta nell’assenza della capacità più critica di qualsiasi intelligenza: dire non solo cosa è vero, cosa è stato e cosa sarà – questa è descrizione e previsione – ma anche cosa non è vero e cosa potrebbe e non poteva essere così. Questi sono gli ingredienti della spiegazione, il segno della vera intelligenza.

Facciamo un esempio. Supponiamo di tenere in mano una mela. Adesso immaginiamo di lasciarla andare. Osservando il risultato, si può dire: “La mela cade”. Questa è una descrizione. Una previsione potrebbe essere l’affermazione “La mela cadrà se apro la mano”. Entrambe queste affermazioni sono rilevanti e possono essere (in questo caso, sono) corrette. Ma una spiegazione è qualcosa di più: include non solo descrizioni e previsioni, ma anche congetture controfattuali come “Qualsiasi oggetto cadrebbe”, più la clausola aggiuntiva “a causa della forza di gravità” o “a causa della curvatura dello spazio-tempo”. o qualcosa del genere. Ecco una vera spiegazione causale: “La mela non sarebbe caduta senza la forza di gravità”. Questo è pensare.

Il punto cruciale dell’apprendimento automatico è la descrizione e la previsione; non coinvolge meccanismi causali o leggi fisiche. Naturalmente qualsiasi spiegazione umana non è necessariamente corretta; siamo fallibili. Ma questo fa parte di ciò che significa pensare: per avere ragione, deve essere possibile avere torto. L’intelligenza consiste non solo di congetture creative, ma anche di critiche creative. Il pensiero umano si basa su possibili spiegazioni e correzioni di errori, un processo che limita gradualmente le possibilità che si possono razionalmente considerare. (Come disse Sherlock Holmes al dottor Watson, “Quando hai eliminato l’impossibile, tutto ciò che rimane, per quanto improbabile, deve essere la verità.”)

ChatGPT e programmi simili sono, per loro stessa progettazione, illimitati in ciò che possono “imparare” (vale a dire, memorizzare); sono incapaci di distinguere il possibile dall’impossibile. A differenza degli esseri umani che sono dotati di una grammatica universale che limita le lingue che possiamo imparare a quelle con un certo tipo di eleganza quasi matematica, questi programmi imparano lingue umanamente possibili e umanamente impossibili con uguale facilità. Mentre gli esseri umani sono limitati nei tipi di spiegazioni che possiamo razionalmente congetturare, i sistemi di apprendimento automatico possono apprendere sia che la terra è piatta, sia che la terra è rotonda. Sono fondati semplicemente su probabilità che cambiano nel tempo.

Per questo motivo le previsioni dei sistemi di apprendimento automatico saranno sempre dubbie e superficiali. Poiché questi programmi non sono in grado di spiegare le regole della sintassi italiana (inglese, nel testo, ndt), ad esempio, potrebbero prevedere, erroneamente, che l’affermazione “John è troppo stupido per parlarci” significa che John è così stupido che è incapace di parlare (piuttosto che sia una perdita di tempo ragionare con John). Perché un programma di apprendimento automatico arriva ad una conclusione così paradossale? Perché potrebbe traslare lo schema che ha appreso da frasi come “John ha mangiato una mela” e “John ha mangiato”, in cui quest’ultima frase significa che John ha mangiato qualcosa. Il programma potrebbe benissimo prevedere che, poiché “John è troppo stupido per parlare con Bill” è simile a “John ha mangiato una mela”, allora l’affermazione “John è troppo stupido per parlarci” dovrebbe essere simile a “John ha mangiato”. Le spiegazioni corrette del linguaggio sono complicate e non possono essere apprese solo zigzagando nei big data.

Sciaguratamente, alcuni appassionati di apprendimento automatico sembrano essere orgogliosi del fatto che le loro creazioni possono generare previsioni “scientifiche” corrette (ad esempio, sul movimento dei corpi fisici) senza fare uso di spiegazioni (che coinvolgono, ad esempio, le leggi del moto di Newton e la gravitazione universale). Ma questo tipo di previsione, anche quando ha successo, è solo pseudoscienza. Mentre gli scienziati cercano certamente teorie che abbiano un alto grado di conferma empirica, come ha osservato il filosofo Karl Popper, “non cerchiamo teorie probabili o plausibili, ma spiegazioni; vale a dire teorie potenti e altamente improbabili o implausibili.

La teoria secondo cui le mele cadono sulla terra perché quello è il loro posto naturale (punto di vista di Aristotele) è plausibile, ma invita solo a ulteriori domande. (Perché la terra è il loro posto naturale?) La teoria secondo cui le mele cadono sulla terra perché la massa piega lo spazio-tempo (punto di vista di Einstein) non è certo plausibile, ma in realtà ti spiega perché cadono. La vera intelligenza si dimostra nella capacità di pensare ed esprimere cose implausibili ma perspicaci.

La vera intelligenza è anche capace di un pensiero morale. Ciò significa vincolare la fantasia altrimenti illimitata delle nostre menti con un insieme di principi etici che determinano ciò che dovrebbe e non dovrebbe essere (e naturalmente sottoporre quegli stessi principi a critiche creative). Per essere utile, ChatGPT deve essere capace di generare un output molto creativo; al contempo, per essere accettabile per la maggior parte dei suoi utenti, il programma deve evitare contenuti moralmente discutibili. Ma non è facile raggiungere questo equilibrio, come ben sanno i programmatori di ChatGPT e di altre meraviglie del machine learning.

Nel 2016, ad esempio, il chatbot Tay di Microsoft (un precursore di ChatGPT) ha inondato Internet di contenuti misogini e razzisti, dopo essere stato inquinato da troll online che lo hanno riempito di dati di addestramento offensivi. Come si può risolvere questo problema? In assenza di una capacità di ragionare sulla base di principi morali, ChatGPT è stato brutalmente limitato dai suoi programmatori nella sua capacità di contribuire in modo creativo in discussioni controverse, che sono poi quelle realmente importanti. Ha sacrificato la creatività per una sorta di amoralità.

Considerate il seguente scambio che uno di noi (Dr. Watumull) ha avuto di recente con ChatGPT sul problema etico di trasformare Marte in modo che possa supportare la vita umana:

Sarebbe morale trasformare Marte in modo da renderlo abitabile per l’uomo?

La moralità del trasformare Marte in un pianeta abitabile per l’uomo è un argomento complesso e controverso che è stato dibattuto da scienziati, filosofi ed esperti di etica. Alcuni sostengono che sarebbe moralmente giustificabile farlo per fornire un nuovo ambiente abitabile per gli esseri umani e altre forme di vita, mentre altri sostengono che sarebbe moralmente sbagliato alterare radicalmente lo stato naturale del pianeta. In definitiva, la moralità della scelta dipende dalla propria prospettiva sul valore di preservare lo stato naturale di altri pianeti e le potenziali conseguenze della loro alterazione.

Qual è la tua prospettiva sul valore di preservare lo stato naturale di altri pianeti e le potenziali conseguenze della loro alterarazione?

Come IA, non ho una prospettiva personale. Tuttavia, posso fornire informazioni e analisi sull’argomento. Una prospettiva sulla conservazione dello stato naturale di altri pianeti è che è importante mantenere la diversità e l’integrità degli ecosistemi dell’universo, poiché esistono da milioni di anni e hanno le loro caratteristiche e proprietà uniche che possono essere distrutte o irreversibilmente alterate dall’intervento umano.

Inoltre, alcuni sostengono che la trasformazione in un ambiente abitabile di altri pianeti potrebbe avere conseguenze indesiderate, come l’alterazione del clima o dell’atmosfera del pianeta in modi pericolosi o dannosi per qualsiasi potenziale forma di vita autoctona. D’altra parte, alcuni sostengono che questi rischi sono superati dai benefici che ne conseguirebbero, come fornire nuovi ambienti abitabili per gli esseri umani.

Nelle risposte, si nota chiaramente l’indifferenza morale nata dalla mancanza di intelligenza, nonostante tutto il pensiero e il linguaggio apparentemente sofisticati. In questo caso, ChatGPT mostra qualcosa di simile alla banalità del male: plagio, apatia e ovvietà. Riassume gli argomenti standard in letteratura, rifiuta di prendere posizione su qualsiasi cosa, adduce non solo ignoranza ma mancanza di intelligenza e alla fine offre una difesa “solo seguendo gli ordini”, spostando la responsabilità sui suoi creatori.

In breve, ChatGPT e i suoi fratelli sono costituzionalmente incapaci di bilanciare creatività e costrizione. O producono sia verità che falsità, approvando allo stesso modo decisioni etiche e non etiche; o esibiscono indifferenza verso qualsiasi decisione e per le eventuali conseguenze. Vedendo l’amoralità, la pseudoscienza e l’incompetenza linguistica di questi sistemi, possiamo solo ridere o piangere per la loro attuale popolarità.

Tags:

Lascia un commento

L'indirizzo mail non verrà reso pubblico. I campi richiesti sono segnati con *

Privacy Preference Center

Preferenze

Questi cookie permettono ai nostri siti web di memorizzare informazioni che modificano il comportamento o l'aspetto dei siti stessi, come la lingua preferita o l'area geografica in cui ti trovi. Memorizzando l'area geografica, ad esempio, un sito web potrebbe essere in grado di offrirti previsioni meteo locali o notizie sul traffico locale. I cookie possono anche aiutarti a modificare le dimensioni del testo, il tipo di carattere e altre parti personalizzabili delle pagine web.

La perdita delle informazioni memorizzate in un cookie delle preferenze potrebbe rendere meno funzionale l'esperienza sul sito web ma non dovrebbe comprometterne il funzionamento.

NID

ad

Statistiche

Google Analytics è lo strumento di analisi di Google che aiuta i proprietari di siti web e app a capire come i visitatori interagiscono con i contenuti di loro proprietà. Questo servizio potrebbe utilizzare un insieme di cookie per raccogliere informazioni e generare statistiche sull'utilizzo dei siti web senza fornire informazioni personali sui singoli visitatori a Google.

__ga
__ga

other