AI
L’intelligenza artificiale corre troppo veloce: fra pochi anni potrebbe controllarci
Se il mondo deciderà di ascoltare Eric Schmidt, che di Google è stato prima amministratore delegato e poi presidente esecutivo, si tratterà del primo caso di intellectus interruptus: il momento in cui l’intelligenza artificiale diventerà così avanzata, e quindi così potente, da renderne necessario, lo stop sul più bello. Ospite al programma This Week dell’emittente Abc News, Schmidt ha spiegato che presto le macchine saranno in grado di funzionare da sole, capaci di decidere che cosa fare: «E quando i sistemi saranno in grado di migliorarsi autonomamente – ha proseguito – avremo bisogno di qualcuno che sia sempre pronto a spegnerli». Il conduttore, George Stephanopoulos, lo ha incalzato: «Ma queste macchine avrebbero le capacità di contrastare i nostri sforzi per scollegarle?». «Beh, metaforicamente, sarebbe bene che ci fosse qualcuno con la mano sulla spina...», ha risposto l’ex Ceo.
«Questa intelligenza consentirebbe a ogni persona di avere in tasca l’equivalente di un genio universale» - ha aggiunto - «Non sappiamo che cosa significhi dare questo genere di potere a ciascun individuo (...) Faccio questo lavoro da cinquant’anni. Non ho mai visto un’innovazione di questa portata». Il pericolo più grave, ha detto, arriva da Est: «Pensavo che fossimo un paio d’anni avanti rispetto alla Cina, ma ha recuperato terreno negli ultimi sei mesi. E questo nonostante gli straordinari sforzi fatti dalle amministrazioni Trump e Biden per non esportare i chip più avanzati». Se lei fosse l’imperatore del mondo per un’ora, ha chiesto il giornalista, quali sono le tre cose che ordinerebbe di fare per controllare tutto ciò? «Prima di tutto – ha risposto Schmidt – mi assicurerei che sia l’Occidente a vincere questa battaglia, il che significa più soldi, più hardware, più manodopera. La seconda cosa che farei sarebbe identificare i peggiori casi possibili e infine costruire una seconda IA che controlli la prima, perché l’umanità non sarà in grado di controllarla».
Leggi anche: La crisi di Stellantis zitterà gli ultrà green
Mentre le istituzioni arrancano nell’imporre vincoli legali ai fornitori di intelligenza artificiale (perché non capiscono o perché non c’è consenso, come d’altronde su nulla in questo campo), Schmidt si inserisce nel coro di voci che danno l’allarme sulle imponderabili conseguenze dell’IA. Anche Geoffrey Hinton, pioniere dell’IA e padrino di ChatGPT, l’anno scorso lasciò Google per poter parlare liberamente dei rischi della nuova tecnologia. Ancora più allarmante è stato, poche settimane fa, Dario Amodei, Ceo di Anthropic, start up di intelligenza artificiale che vale circa 40 miliardi e che produce Claude, la rivale di ChatGPT. Amodei è un entusiasta prudente: l’IA sconfiggerà il cancro, ne è certo. Ma proprio per questo, ha detto in un’intervista fiume a Lex Fridman Podcast, bisogna concentrarsi su ciò che può andare storto. Ovvero CBRN, sigla orrorifica che sta per Chemical, Biological, Radiological and Nuclear Risks: ben oltre gli attacchi informatici, le truffe, Meloni che limona Musk, esiste la possibilità che la macchina lanci autonomamente attacchi chimici, biologici, radiologi e nucleari. Amodei paventa un futuro in cui macchine costruiscono macchine sempre più potenti che alterano il mondo fisico e ne prendono il controllo. Data la velocità delle scoperte e della capacità di apprendimento dell’IA, quando potrebbe verificarsi, chiede l’intervistatore. «Nel 2026 o nel 2027, anche se è possibile che ci siano lievi ritardi». Praticamente domani, tutt’al più dopodomani.