Un confronto tra modelli per evitare il dominio tecnologico
Il premio Nobel Giorgio Parisi, intervenendo nel mese di Febbraio 2025 a Roma, presso l’Accademia dei Lincei, ha sottolineato l’importanza di sviluppare una molteplicità di sistemi di intelligenza artificiale, così da prevenire il rischio che un unico modello monopolizzi il controllo sulla conoscenza. L’idea, secondo lo scienziato, è quella di favorire il confronto tra diverse intelligenze artificiali, affinché possano correggersi reciprocamente, garantendo al tempo stesso una maggiore trasparenza nei processi di apprendimento.
Un centro europeo sul modello del Cern per garantire pluralità e ricerca pubblica
Per affrontare questo scenario complesso, Parisi ha proposto la creazione di un istituto di ricerca pubblico europeo, ispirato al modello del Cern di Ginevra, che potrebbe promuovere lo sviluppo di più sistemi di IA, assicurando l’accesso a dati verificati e una trasparenza totale sull’addestramento dei modelli. Tale struttura sovranazionale, con il coinvolgimento di Paesi Ue e non Ue, eviterebbe che l’Europa resti schiacciata tra Stati Uniti e Cina nella corsa alle tecnologie avanzate.
Il problema della mancanza di controllo sulle fonti delle IA
Durante il suo intervento presso la storica sede romana, Parisi ha evidenziato come oggi sia impossibile verificare l’attendibilità delle fonti utilizzate dai modelli linguistici come ChatGpt o DeepSeeK. Quando un utente effettua una ricerca su Google, può scegliere tra diversi siti e discernere, ad esempio, tra una pubblicazione scientifica e un portale complottista. Con le intelligenze artificiali generative, invece, questa possibilità di controllo si annulla, poiché le informazioni fornite derivano da una sintesi opaca dei contenuti reperiti in rete.
La debolezza teorica delle reti neurali profonde
Nel ripercorrere l’evoluzione dell’intelligenza artificiale, dai primi studi degli anni ’80 e ’90 fino agli attuali modelli di deep learning, Giorgio Parisi ha sottolineato come queste tecnologie siano prive di un impianto teorico solido. Gli attuali grandi modelli linguistici (Llm), pur avendo conquistato l’attenzione del pubblico per la loro capacità di rispondere ai quesiti, rappresentano di fatto un immenso riassunto del web, elaborato però senza un reale metodo scientifico verificabile.
Limiti cognitivi delle IA: il divario tra linguaggio e realtà spaziale
Un altro punto critico, secondo Parisi, riguarda l’assenza di una rappresentazione spaziale del mondo nei modelli di intelligenza artificiale. Questo limite, ha spiegato il fisico, è uno dei motivi principali per cui le IA non sono ancora capaci di guidare in autonomia un’automobile, nonostante gli investimenti di aziende come Tesla e Google nel settore dei veicoli a guida autonoma. Le reti neurali attuali elaborano le informazioni solo a livello linguistico, costruendo una realtà basata esclusivamente sulle parole, priva di una comprensione concreta delle coordinate spaziali e dell’interazione con l’ambiente fisico.
Il cervello umano come modello: memoria ed esperienza oltre i testi
Facendo riferimento ai meccanismi cognitivi della mente umana, Parisi ha ricordato che il cervello non funziona come un archivio di testi memorizzati, ma apprende attraverso esperienze dirette e interazioni continue con la realtà circostante. Questo approccio, secondo il fisico romano, dovrebbe ispirare lo sviluppo di nuovi paradigmi per l’intelligenza artificiale, capaci di superare i limiti dei modelli attuali, basati esclusivamente sull’elaborazione di enormi quantità di dati testuali.
Europa tra Stati Uniti e Cina: l’urgenza di un’autonomia tecnologica
La preoccupazione di Parisi riguarda anche la posizione geopolitica del Vecchio Continente. L’Europa rischia di restare intrappolata nella competizione tecnologica tra Stati Uniti e Cina, entrambi già avanti nello sviluppo di intelligenze artificiali proprietarie. Da qui, l’urgenza, ribadita dal Nobel romano, di costruire un’infrastruttura di ricerca europea capace di garantire indipendenza e pluralità di modelli IA, al fine di tutelare la sovranità culturale e tecnologica dei Paesi europei.
Il futuro delle IA tra teoria e pluralità di sistemi
Concludendo il suo intervento, Giorgio Parisi ha rimarcato l’incertezza sull’evoluzione delle intelligenze artificiali nei prossimi anni. Tuttavia, ha ribadito che la costruzione di modelli diversi e la verifica delle fonti rappresentano gli strumenti essenziali per evitare che il sapere diventi proprietà esclusiva di pochi gruppi privati. Il fisico ha indicato la cooperazione tra Stati europei e un forte investimento pubblico come le chiavi per un futuro in cui le IA possano davvero arricchire il sapere collettivo, senza trasformarsi in strumenti di controllo monopolistico.