ChatGPT sotto accusa: quando l’AI diffonde informazioni false
ChatGPT si è affermato come il punto di riferimento nel mondo dei chatbot AI, proprio come Google lo è per... L'articolo ChatGPT sotto accusa: quando l’AI diffonde informazioni false proviene da Batista70.

ChatGPT si è affermato come il punto di riferimento nel mondo dei chatbot AI, proprio come Google lo è per i motori di ricerca. Il servizio domina le classifiche delle app gratuite più scaricate, ma non è esente da controversie. Un caso eclatante ha portato un uomo a intentare una causa contro OpenAI, dopo che il chatbot lo ha accusato ingiustamente di aver ucciso i propri figli.
Un errore con gravi conseguenze
In passato, ChatGPT non aveva accesso a internet e si basava esclusivamente su un database predefinito, aggiornato periodicamente. Questo significava che, per eventi successivi alla data limite del suo dataset, il chatbot poteva fornire risposte errate o inventate.
Proprio in questo contesto, Arve Hjalmar Holmen ha chiesto a ChatGPT informazioni su di sé, ricevendo una risposta scioccante: il chatbot sosteneva che l’uomo fosse stato condannato per l’omicidio dei suoi figli e il tentato omicidio di un terzo, aggiungendo che stava scontando una pena di 21 anni in Norvegia. Si trattava di un’allucinazione AI, un fenomeno in cui i modelli generativi inventano dettagli falsi presentandoli come veritieri.
Curiosamente, la risposta mescolava informazioni inventate con dati reali: ChatGPT conosceva correttamente la città natale di Holmen, il numero e il genere dei suoi figli, ma ha distorto completamente la sua storia personale.
La denuncia e le accuse
L’associazione austriaca Noyb, specializzata in privacy digitale, ha presentato un ricorso alla Datatilsynet norvegese, sostenendo che OpenAI ha violato il GDPR, il regolamento europeo sulla protezione dei dati.
Joakim Söderberg, avvocato di Noyb, ha dichiarato:
“Il GDPR è chiaro: i dati personali devono essere accurati. Se non lo sono, gli utenti hanno il diritto di chiederne la correzione. Un piccolo disclaimer che avvisa degli errori del chatbot non è sufficiente. Non si può diffamare qualcuno e poi nascondersi dietro un avviso generico.”
Noyb chiede una sanzione per OpenAI, la rimozione delle informazioni diffamatorie e miglioramenti a ChatGPT per evitare casi simili. Intanto, oggi la stessa richiesta fatta da Holmen restituisce solo notizie relative alla causa, segno che OpenAI potrebbe aver già corretto il problema.
Lezioni apprese
Questo caso evidenzia i rischi legati all’affidabilità dell’AI generativa, soprattutto quando diffonde informazioni sensibili. Se da un lato OpenAI ha migliorato il sistema, dall’altro rimane cruciale un quadro normativo chiaro per garantire accuratezza e responsabilità.
L'articolo ChatGPT sotto accusa: quando l’AI diffonde informazioni false proviene da Batista70.