Chat GPT "ha avuto un ictus": risposte senza senso. Ed è mistero
Chat GPT, il software sviluppato da OpenAI che a qualsiasi tipo di domanda fornisce risposte elaborate da un chatbot, sarebbe andato in tilt nelle scorse ore. Diversi utenti hanno segnalato l'anomalia sui social. Secondo le varie testimonianze, il robot a un certo punto avrebbe iniziato a dare risposte incoerenti, a volte mescolando più lingue, come l'inglese e lo spagnolo, oppure risposte prive di senso perché fatte di parole inesistenti. In alcuni casi, sarebbero comparse anche delle emoji del tutto casuali o frasi ripetute decine di volte. "Sembra di parlare con qualcuno che ha avuto un ictus", ha scritto qualcuno.
Dopo essere stati informati dell'anomalia, OpenAI ha pubblicato sul proprio sito un “incident report”, cioè un documento che attesta l'errore e informa gli utenti su possibili soluzioni. Per ora, però, non sembrano esserci stati passi in avanti: la pagina ha detto solo che la società sta monitorando la situazione e che sta lavorando per mettere fine al problema.
Francesco Specchia: Socrate & C. sono i supereroi contro l'intelligenza artificiale
In ogni caso, non è la prima volta che succede una cosa del genere. Qualcosa di simile, come ricorda il Post, accadde nel febbraio del 2023, quando il chatbot di Microsoft, che usava la stessa tecnologia di Chat GPT, aveva fornito risposte strane agli utenti, in qualche caso confessando loro i propri sentimenti e in qualche altro caso addirittura insultandoli. Altro episodio simile risale, ancora, al novembre del 2023, quando furono segnalate risposte "inquietanti" da parte del robot, che diceva di essere stato sviluppato nel 2035, che stava viaggiando nel tempo e che era alla ricerca della prova dell’esistenza di Dio.
Video su questo argomentoCome fare ricerche di mercato più velocemente con Chat GPT? Alcuni esempi pratici