Cerca
Cerca
+

Lo spiazzante dialogo filosofico tra Chomsky e l'intelligenza artificiale

ChatGPT, il software di dialogo robotico che sembra scritto da Asimov tiene botta col noto linguista. Il che è molto preoccupante...

Francesco Specchia
Francesco Specchia

Francesco Specchia, fiorentino di nascita, veronese d'adozione, ha una laurea in legge, una specializzazione in comunicazioni di massa e una antropologia criminale (ma non gli sono servite a nulla); a Libero si occupa prevalentemente di politica, tv e mass media. Si vanta di aver lavorato, tra gli altri, per Indro Montanelli alla Voce e per Albino Longhi all'Arena di Verona. Collabora con il TgCom e Radio Monte Carlo, ha scritto e condotto programmi televisivi, tra cui i talk show politici "Iceberg", "Alias" con Franco Debenedetti e "Versus", primo esperimento di talk show interattivo con i social network. Vive una perenne e macerante schizofrenia: ha lavorato per la satira e scritto vari saggi tra cui "Diario inedito del Grande Fratello" (Gremese) e "Gli Inaffondabili" (Marsilio), "Giulio Andreotti-Parola di Giulio" (Aliberti), ed è direttore della collana Mediamursia. Tifa Fiorentina, e non è mai riuscito ad entrare in una lobby, che fosse una...

Vai al blog
Chomsky contro Gpt Foto: Chomsky contro Gpt
  • a
  • a
  • a

Nel possente egocentrismo di categoria –assai superiore alla norma- abbiamo sempre affermato che si sarebbe smesso di fare i giornalisti quando avremmo trovato un computer in grado di scrivere con l’anima, come Truman Capote, o di dialogare a colpa di pensieri laterali come Noam Chomsky.

Poi è accaduto davvero che, sul New York Times dell’8 marzo scorso, lo stesso Chomsky abbia resocontato di un suo serrato dialogo filosofico con l’“intelligenza artificiale ChatGPT che già, prima, aveva cominciato a scribacchiare quasi come Capote; e il risultato è stato formidabile quanto spiazzante. Chomsky è un filosofo ma soprattutto uno scienziato cognitivista che parte dall’idea wittgensteiniana che stia nel linguaggio il limite del nostro mondo. E, affrontando ChatGPT col pregiudizio dell’incapacità delle macchine di “pensare e di esprimere cose improbabili ma perspicaci” (se una mela cade, la macchina dice “la mela cade”, ma non gli verrebbe mai da aggiungere “non sarebbe mai caduta senza la forza di gravità”) è giunto alla conclusione che l’intelligenza robotica non sarà mai quella di Einstein o di Newton. I pensieri laterali fanno la differenza. Ed è vero. Com’è vero - fa notare Franco Lo Piparo sul Foglio- che però nessuna delle ordinarie intelligenze umane è come quella di Einstein o di Newton. Da lì il report dell’inquieto dibattito fra il linguista e la macchina. Col primo che stimolava la seconda su temi filosofici; e quest’ultima che rispondeva, con onestà molto umana: “Come intelligenza artificiale, sono un modello di apprendimento automatico addestrato su grandi quantità di dati di testo e non ho esperienze o sentimenti personali. Non sono cosciente, autocosciente o capace di avere prospettive personali. Posso fornire informazioni e analisi basate sui dati su cui sono stato formato, ma non ho la capacità di formarmi opinioni o convinzioni personali”. Alché Chomsky insisteva: “E’ morale per un essere umano chiedere assistenza a un’intelligenza artificiale amorale per prendere decisioni morali?”. E ChatGPT, elencando le diverse ottiche sull’argomento, concludeva “che la decisione ultima spetta all’uomo e alla sua capacità di sapere discernere “sulle potenziali conseguenze del suo utilizzo”. Come dire, evocando le leggi della robotica di Asimov: “Ciccio, io sono una macchina, certo molto in gamba, che ti prospetta varie soluzioni; ma la responsabilità finale della scelta spetta a sempre a te”. Finora, almeno. Cioè: la macchina riconosceva di avere quei limiti che Chomsky riguardo se stesso dava la sensazione di occultare.

Da questa conversazione quasi fantascientifica sono fioriti i dibattiti più disparati. Specie tenendo conto della strana contemporaneità, di questi tempi, nel lancio sul mercato di intelligenze artificiali linguistiche tra le più disparate da OpenAl a Bard “chatbot” di Gooole, da Nvdia, di Adobe e di altri software già in grado di manipolare i volti, le voci e la realtà come DeepFace. E, naturalmente in questo enorme e movimentato simposio consumato tra social e articoli di stampa, si sono levate varie voci. C’è chi ha richiamato il famoso “test di Alan Turing”, matematico che inventò The Imitation Game da cui fu tratto l’omonimo film: il computer viene promosso se un interlocutore umano conversandoci in modo remoto riguardo qualunque argomento, non sa dire se si tratta di una macchina o di un conversante in carne e ossa. Il gioco di Turing, proposto nel 1950 in un articolo, Computing Machinery and Intelligence, apparentemente era una provocazione. Ma finì per diventare un traguardo del machine learning, ossia della capacità delle intelligenze artificiali di progredire in rapporto ai colloqui, all’esperienza con esseri umani e ai propri errori. Poi c’è anche chi, alla domanda specifica sulla pericolosità di trovarci, alla fine e all’improvviso, davanti a tanti Hal 9000, il computer senziente e spietato di 2001 Odissea dello spazio, be’, risponde che non c’è “alcun rischio diretto per la sicurezza informatica. Tuttavia, potrebbe esserci il rischio che informazioni sensibili vengano condivise con me durante le interazioni, quindi è importante essere consapevoli delle proprie azioni e prendere le precauzioni appropriate per proteggere i propri dati. Inoltre, quando si utilizza una tecnologia basata su intelligenza artificiale, è importante considerare anche i rischi associati alla sua impiegabilità o alla sua eventuale utilizzo improprio”. Ora, la risposta è inappuntabile: gli algoritmi vanno manipolati con attenzione. Il problema è che questa risposta artocolata, così come molte altro a sostegno delle AI (artificial intelligence, intelligenze artificiali) proviene dalla stessa ChatGTP. In un incredibile cortocircuito, il dibattito molto democratico attorno alle AI viene alimentato proprio dalle AI, e senza che gl’interlocutori umani se ne accorgano.

Come siamo arrivati a questa abnormità oramai data per scontata dai cibernetici e dai neuroscienziati, meno da noi intelligenze medie?  Non ne ho idea, ma mi spaventa molto. Lo scienziato Ray Kurtzweil, ex Mit inventore di Text –to-speech uno dei migliori sintetizzatori di musica al mondo, nel libro di Melanie Mitchell L’intelligenza artificiale- Una guida per esseri umani pensanti (Einaudi, pp 334, euro 26) raccontava la famosa “favola dell’esponenziale”, quella della moltiplicazione tracimante dei chicchi di riso sui quadrati di una scacchiera che un vecchio saggio chiese come ricompensa al suo re. E la paragonava al processo esponenziale dell’apprendimento di un computer che “raggiungerà le capacità di un cervello umano del 2023”. Eravamo alla fine degli anni 90.  Per i suoi coevi la sua previsione era “nulla di più di una fede in un’estasi tecnologica”. Bene. I coevi avevano torto, e Kurtzweil –a questo punto- ragione. E, a questo punto, anch’io tra poco dovrò chiamare “Truman” il mio pc; e, se fossi di parola, dovrei mollare il colpo…

 

Dai blog