L’illusione dell’intelligenza artificiale nei motori di ricerca
Mentre figure di spicco del settore tecnologico continuano a proclamare l’avvento della singolarità — il momento teorico in cui l’intelligenza artificiale supererà quella umana — i limiti attuali dei sistemi basati su IA diventano sempre più evidenti. I generatori di immagini faticano ancora con elementi basilari come mani o bicchieri pieni, mentre i chatbot basati su modelli linguistici di grandi dimensioni (LLM) inciampano su problemi che persino un bambino di otto anni risolverebbe senza esitazione.
Nonostante questi problemi, giganti come Google e Microsoft sono stati rapidi nell’integrare l’IA nei loro prodotti principali, spesso ignorando le allucinazioni che inevitabilmente affiorano: risposte false ma formulate in modo tanto convincente da sembrare vere.
L’effetto della parola “significato” sulle ricerche di Google
Una delle ultime anomalie emerse riguarda proprio l’interazione tra l’utente e l’IA nei motori di ricerca. Vari utenti hanno scoperto che aggiungere la parola “significato” alla fine di una ricerca può generare risposte assurde, ma formulate in maniera plausibile.
Ad esempio, a chi ha digitato su Google la frase “trota arcobaleno in un vulcano di cioccolato significato”, l’IA ha risposto con una spiegazione bizzarra: questa frase descriverebbe una “combinazione sorprendente di elementi contrastanti, come la freschezza della trota arcobaleno e la dolcezza di un vulcano di cioccolato”.
Un altro esempio è stato riportato su Reddit, dove un utente ha chiesto il significato di “Stick it to the diddly time”. L’IA di Google ha suggerito che si tratterebbe di un’espressione gergale per descrivere la ribellione contro l’autorità, nonostante si tratti di un’espressione del tutto priva di senso.
Perché accadono queste “allucinazioni” dell’IA
La radice del problema è strutturale. I chatbot IA non verificano i fatti: essi sono progettati per creare frasi coerenti e piacevoli, basandosi sui dati su cui sono stati addestrati. Quando non trovano informazioni concrete, preferiscono inventare una risposta piuttosto che lasciare il quesito senza soluzione.
Questo fenomeno, denominato allucinazione dell’IA, sottolinea la distanza ancora enorme tra il completamento predittivo di frasi e una vera comprensione critica. Gli LLM, in sostanza, si comportano più come uno strumento di autocompletamento avanzato che come un’intelligenza realmente autonoma, come ben evidenziato anche da analisi condotte da esperti del settore su MIT Technology Review e The Verge.
L’intervento di Google e il futuro dell’IA nelle ricerche
In risposta alle critiche e agli esempi di errori diventati rapidamente virali, Google ha apparentemente modificato il comportamento della sua IA: ora la panoramica automatica si disattiva se si digitano espressioni particolarmente stravaganti seguite da “significato”.
Questo aggiustamento, pur essendo un rimedio temporaneo, evidenzia la fragilità delle attuali implementazioni dell’IA nei motori di ricerca, sollevando dubbi sulla reale prontezza di questi strumenti a sostituire le tradizionali ricerche basate sui dati verificati.