Cerca
Logo
Cerca
+

Hinton, il Nobel "pentito" sull'intelligenza artificiale: "Saremo sottomessi. E non sappiamo come andrà a finire"

  • a
  • a
  • a

Ha appena vinto il Premio Nobel per la Fisica, I'informatico britannico-canadese Geoffrey Hinton, ,per aver creato "i fondamenti dell'apprendimento automatico". Lo hanno definito giustamente il "padrino dell'intelligenza artificiale", ma è un padrino pentito che oggi mette in guardia dai rischi e dai pericoli di questa rivoluzione tecnologica, sociale, politica e culturale.

"Sono innanzitutto meravigliato e molto sorpreso dal Nobel, perché non mi aspettavo un premio del genere, e non lo dico da falso modesto - spiega lo studioso in una intervista a Repubblica -. Allo stesso tempo, sì, sono preoccupato che tutta questa roba un giorno sfugga al nostro controllo. Il problema è semplice: l’IA sarà molto positiva per la medicina, l’ambiente, i nanomateriali… Ma non c’è modo di fermarne lo sviluppo. E un giorno diventerà più intelligente di noi". "Senza regole - sintetizza in modo tanto efficace quanto inquietante - saremo sottomessi".

 

 

 

"A quel punto, piomberemo in uno scenario assolutamente inedito e non so come gli umani potranno rimanere al potere. Per questo bisogna agire il prima possibile", è lo scenario ai limiti dell'apocalisse cyberpunk disegnato da Hinton. "Penso che il nostro futuro sia estremamente incerto. Non abbiamo idea di cosa succederà, nemmeno noi scienziati. Nella storia umana, non abbiamo mai avuto a che fare con entità più intelligenti di noi. Al momento, nessuno sa come queste potranno essere controllate. La ricerca scientifica dovrà capire in maniera urgente come noi umani possiamo restare al timone delle nostre esistenze".

Di fronte alla domanda se noi possiamo davvero controllare l’IA, la riposta è questa: "Sarò franco: non lo so". L’unico modo "è incoraggiare i migliori scienziati al mondo a dedicarsi alla sicurezza dell’IA e spingere i governi ad assistere le grandi aziende tecnologiche affinché immettano sempre più risorse in questo obiettivo. Purtroppo, non è quello che sta accadendo. Serve che i governi intervengano per costringere le big tech a cambiare corso".

Sul tema è intervenuto anche padre Paolo Benanti, teologo francescano e consigliere di Papa Francesco sul rapporto tra etica e tecnologia. "Fino a oggi si è discusso se le Intelligenze artificiali fossero una bolla oppure no - riflette su La Stampa -, questi Premi Nobel in Fisica confermano che c'è stato un passaggio epocale, e lo consolidano. Allo stesso tempo non va trascurato che è stata costruita una macchina cercando di imitare l'uomo. E ora la macchina mette in dubbio l'uomo stesso. E condiziona pesantemente i rapporti di potere geopolitico".

 

 

 

Padre Benanti analizza il valore dei riconoscimenti assegnati a Hinton e all'americano John J. Hopfield: "Ci sono due storie interessanti. La prima è che Hinton prima ha venduto a Google e poi ha pubblicato: è un'inversione del paradigma scientifico, prima diventa tecnologia e poi diventa scienza. L'altra è l'età dei due studiosi, non sono propriamente ragazzini: 91 e 76 anni". Benanti parla di "reti neutrali" che "cambiano la quotidianità dell'umanità" in modo "ambiguo non meno della dinamite, non meno della radio che potrebbe essere usata in ambito bellico come per la pace. Sarà rilevante andare a osservare tutti gli usi che queste reti neurali presentano: dai più pacifici fino ai più eticamente problematici". E ancora: "Qui c'è tutto quello che rende Hinton un Nobel, come Alfred Nobel che ha fatto la dinamite e poi è sfuggita di mano. Di punto in bianco i contemporanei di Hinton hanno notato che la sua invenzione non è 'solo' un elemento nuovo che serve per costruire device più forti, ma è anche qualcosa che può essere usato per discriminare le persone, aggirare sistemi legali e quant'altro di illecito o deplorevole. Che cosa veramente una black-box di questo tipo è giusto che faccia o non faccia non è più semplicemente un tema di dibattito tecnico, adesso è una questione sociale, politica ed etica decisiva". 

Dai blog