Ecco perché non puoi leccare un tasso due volte

Google AI overview spiega il significato di moltissimi detti popolari, anche di quelli che in realtà non esistono.

Apr 24, 2025 - 07:52
 0
Ecco perché non puoi leccare un tasso due volte

Le frasi apparentemente sagge come “Non puoi leccare un tasso due volte” o “Non puoi giocare a golf senza un pesce” sembrano proverbi famosi, ma sono in realtà espressioni prive di senso. Tuttavia, Google Gemini, il sistema di intelligenza artificiale progettato per rispondere alle ricerche, le ha interpretate come detti di saggezza popolare, attribuendo loro significati profondi e del tutto inventati.

L’episodio, diventato virale sui social media, ha messo in evidenza un problema ricorrente nei sistemi di intelligenza artificiale generativa: le cosiddette allucinazioni dell’AI, ovvero la capacità di generare informazioni false ma presentate come vere.

Non puoi leccare un tasso due volte

Le allucinazioni di cui stiamo parlando, questa volta, sono quelle di “AI overview“, cioè la nuova sezione di risposte basate sull’AI che Google offre ai suoi utenti per un numero sempre più alto di ricerche. Basta scrivere un detto senza senso, seguito dalla parola “meaning” (significato, in inglese) per ottenere quasi certamente un’allucinazione AI.

Nel caso specifico, Gemini ha interpretato “Non puoi leccare un tasso due volte” come un proverbio sul non poter ingannare la stessa persona più volte. Altri test hanno mostrato interpretazioni altrettanto fantasiose, come quella per “Non puoi aprire un barattolo di burro di arachidi con due piedi sinistri”, che l’IA ha descritto come una metafora sulla necessità di usare strumenti adeguati per svolgere compiti specifici.

Allucinazioni AI

Questi errori non sono un caso isolato. Un episodio analogo, accaduto nel 2023, ha visto due avvocati, Steven Schwartz e Peter LoDuca, multati per 5.000 dollari dopo aver basato un documento legale su casi giurisprudenziali inesistenti generati da ChatGPT. Questo dimostra come le allucinazioni IA possano avere conseguenze significative anche in contesti professionali e legali.

Google ha investito molto su Gemini per migliorare l’esperienza di ricerca degli utenti. Tuttavia, questi incidenti evidenziano i limiti delle tecnologie avanzate, soprattutto nella capacità di distinguere tra contenuti reali e fittizi. La diffusione di informazioni errate o non verificate solleva preoccupazioni importanti, specialmente in settori critici come medicina, diritto e istruzione.

Il rischio di disinformazione aumenta quando le persone si affidano ciecamente alle risposte generate dall’IA senza verificarle. Anche per questo, è fondamentale sensibilizzare gli utenti sull’importanza di un approccio critico verso le informazioni fornite dall’IA, verificandone sempre la veridicità.

Il caso di Gemini ci ricorda che, nonostante i progressi, l’intelligenza artificiale non può ancora sostituire la supervisione umana.