Cerca
Cerca
+

ChatGpt, "stop immediato": la stretta del garante, "dati a rischio"

  • a
  • a
  • a

Non esiste una informativa agli utenti, ma soprattutto una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, "allo scopo di 'addestrare' gli algoritmi sottesi al funzionamento della piattaforma". Con questa motivazione l'Autorità garante per la protezione dei dati personali ha deliberato lo "stop a ChatGPT", il più noto tra i software d'intelligenza artificiale relazionale in grado di simulare ed elaborare le conversazioni umane.  Il Garante ha disposto, con effetto immediato è finché non verrà rispettata la disciplina sulla privacy, la limitazione provvisoria del trattamento dei dati degli utenti italiani nei confronti di OpenAI, la società statunitense che ha sviluppato e gestisce la piattaforma.

 

 

Soddisfatto il presidente della commissione Cultura della Camera, Federico Mollicone che racconta della domanda posta a ChatGpt, in commissione, con il sottosegretario Barachini: pensi di essere una minaccia per la creatività e il diritto d'autore? "La risposta che sintetizzo", continua Mollicone, è stata: "non sono in grado di creare niente di nuovo da solo. Inoltre, rispetto al diritto d'autore sono programmato per non violarlo. Tuttavia la tecnologia di intelligenza artificiale che mi ha creato potrebbe essere utilizzata in modo improprio da alcuni utenti per violare i diritti d'autore per creare contenuti che imitano strettamente il lavoro di altre persone". Parole inquietanti, per il presidente della Commissione Cultura, "a cui dobbiamo dare risposte di sovranità sui nostri dati". "Chiederò", conclude Mollicone, "l'audizione nell'ambito dell'indagine conoscitiva sull'innovazione avviata in VII Commissione di OpenAI e del Garante della Privacy per chiarire l'impatto di Chatgpt sulla creatività, evitando violazioni del diritto d'autore". 

 

 

Mollicone potrebbe anche fare qualche domanda sull'aggiornamento di ChatGpt-5 che si appresta a rilasciare nei prossimi mesi, visto che a detta di chi l'ha testato renderebbe l'intelligenza artificiale indistinguiibile da un essere umano. Nonostante la richiesta di uno stop di sei mesi da parte dei pionieri della Silicon Valley, non si fermano infatti i progetti di ChatGpt. A svelare il progetto è stato lo sviluppatore Siqi Chen che ha dichiarato su Twitter di aver appreso che la nuova versione del software, che sarebbe rilasciata il prossimo inverno, dovrebbe raggiungere l'Agi, acronimo di artificial general intelligence, cioè la capacità di un programma di pensare e agire esattamente come una persona. Ergo, parlare con ChatGpt-5, tra qualche mese potrebbe assomigliare sempre di più al parlare con un essere umano. Come faremo a distinguere il vero dal falso? 

 

 

Infine, c'è un problema di contenuti che interessa i nostri servizi segreti. "L’intelligenza artificiale", spiega uno dei vertici della nostra intelligence a La Repubblica, "rappresenta evidentemente una grande opportunità. E nessuno può pensare di bloccare il progresso, per lo più con delle norme di legge. Ma rappresenta anche un grande rischio in assenza di regolamentazione. Mi spiego meglio: chi vigila sui contenuti che l’intelligenza artificiale produce? Che atteggiamento bisogna avere davanti a informazioni palesemente false in grado di manipolare l’opinione pubblica?". 

Dai blog