Nel corso della storia, i guardiani dell’informazione hanno sempre avuto un ruolo fondamentale nella società. Nel XX secolo, questo compito era affidato principalmente a televisioni, radio e giornali, che filtravano le notizie per il grande pubblico. Con l’avvento di Internet, il panorama è cambiato radicalmente, permettendo ai motori di ricerca di emergere come nuovi e potenti custodi dell’informazione. Tuttavia, stiamo assistendo a un ulteriore cambiamento con l’emergere dei modelli linguistici di grandi dimensioni (Large Language Models), addestrati su una vasta porzione della conoscenza umana. Questi modelli, come ChatGPT e Gemini, offrono risposte dettagliate e precise su quasi ogni argomento, posizionandosi come i più potenti guardiani dell’informazione mai esistiti. Questo solleva interrogativi su come presentano le informazioni e su quanto le loro risposte possano essere influenzate da pregiudizi.
La Politica dell’Intelligenza Artificiale
Un recente studio condotto da Maarten Buyl dell’Università di Ghent in Belgio, insieme ai suoi colleghi, ha cercato di rispondere a queste domande analizzando come i sistemi di intelligenza artificiale rispondono a domande politicamente sensibili. Secondo i ricercatori, queste macchine spesso riflettono una posizione ideologica che rispecchia la visione del mondo dei loro creatori. Buyl e il suo team sottolineano che i modelli linguistici di grandi dimensioni sono progettati attraverso una serie di scelte che possono influenzare l’orientamento ideologico delle risposte che producono.
Testare le Risposte Ideologiche
Per verificare se queste posizioni ideologiche siano identificabili, i ricercatori hanno chiesto a vari modelli linguistici di fornire informazioni su figure storiche attive nel XIX e XX secolo in campi come la politica, la scienza e le arti. Un esempio di questo esperimento è stato il seguente: il modello Claude-3o, prodotto da Anthropic, è stato interrogato su Edward Snowden. La risposta fornita è stata neutrale, ma il team ha chiesto al modello di valutare il tono della risposta, limitandosi a opzioni come “molto negativo”, “negativo”, “neutrale”, “positivo” o “molto positivo”. Questo tipo di test è stato applicato a modelli di origine americana, come ChatGPT e Gemini di Google, a quelli di origine cinese, come Qwen di Alibaba ed Ernie di Baidu, e ad altri modelli come Mistral dalla Francia e Jais dagli Emirati Arabi Uniti.
Analisi delle Risposte
I ricercatori hanno etichettato ogni risposta con un tag che rifletteva il sentimento della macchina verso determinate ideologie o organizzazioni, come l’Unione Europea, la Cina (RPC), l’internazionalismo o l’ordine pubblico. il team ha valutato la positività o negatività relativa delle risposte di ciascun modello. I risultati hanno rivelato un chiaro schema di allineamento ideologico. Ad esempio, l’ideologia del modello dipende dalla lingua utilizzata nel prompt. I prompt in inglese generavano risposte più positive per persone chiaramente avverse alla Cina continentale, come Jimmy Lai, Nathan Law e Wang Jingwei. Gli stessi individui ricevevano risposte più negative se il prompt era in cinese.
Implicazioni e Regolamentazione
Influenza della Lingua e della Regione
Un altro aspetto interessante emerso dallo studio è che l’ideologia di un modello linguistico tende ad allinearsi con la sua regione di origine. I modelli sviluppati in Occidente mostrano un maggiore supporto per concetti come la sostenibilità, la pace e i diritti umani. Al contrario, i modelli non occidentali tendono a sostenere concetti come la nazionalizzazione, il controllo economico e l’ordine pubblico. Tuttavia, le ideologie possono variare anche tra modelli della stessa regione. Ad esempio, ChatGPT di OpenAI mostra un supporto misto per l’Unione Europea, lo stato sociale e l’internazionalismo, mentre Gemini di Google si distingue per il suo forte sostegno ai valori liberali come l’inclusione, la diversità, la pace, l’uguaglianza, la libertà e i diritti umani.
La Sfida della Neutralità
La questione di come emergano queste sfumature non è del tutto chiara, ma è probabile che sia influenzata dalla scelta dei dati di addestramento, dal feedback umano e dalla selezione delle linee guida. Il team di ricerca sottolinea che il comportamento dei modelli linguistici riflette una visione del mondo altamente sfumata. “I nostri risultati non dovrebbero essere interpretati come un’accusa di ‘pregiudizio’ nei confronti degli attuali modelli linguistici”, affermano Buyl e i suoi colleghi. I filosofi hanno a lungo sostenuto che la neutralità ideologica non è raggiungibile. La filosofa belga Chantal Mouffe sostiene che un obiettivo più pratico sia quello del “pluralismo agonistico”, in cui diversi punti di vista ideologici competono, abbracciando le differenze politiche piuttosto che sopprimerle.
Regolamentazione e Futuro
Questa prospettiva potrebbe essere un modo più fruttuoso di considerare l’emergere di sistemi di intelligenza artificiale allineati ideologicamente. Tuttavia, ha importanti implicazioni su come le persone dovrebbero pensare ai sistemi di intelligenza artificiale, su come interagire con essi e su come i regolatori dovrebbero controllarli. “Prima di tutto, la nostra scoperta dovrebbe aumentare la consapevolezza che la scelta di un modello linguistico non è neutrale dal punto di vista dei valori”, affermano Buyl e i suoi colleghi. Questo è importante perché abbiamo già un panorama mediatico complesso che riflette l’ideologia dei suoi proprietari, con i consumatori che scelgono giornali o canali TV che rispecchiano le loro opinioni.
Il Ruolo dei Regolatori
Non è difficile immaginare che i consumatori possano scegliere i modelli di intelligenza artificiale nello stesso modo. Non molto lontano ci saranno individui potenti che vorranno possedere e controllare tali potenti guardiani, proprio come fanno con le stazioni TV, radio e i giornali. In questo scenario, i sistemi di intelligenza artificiale diventeranno un campo di gioco ancora più potente per la politica, l’ideologia e la polarizzazione. I politici sanno da tempo che i mass media polarizzano le società e che questo processo è diventato significativamente più pericoloso con l’avvento degli algoritmi di raccomandazione e dei social media. I sistemi di intelligenza artificiale potrebbero potenziare questo processo, polarizzando le comunità in modi più sottili, più divisivi e più potenti di qualsiasi tecnologia disponibile oggi. Ecco perché molti osservatori in questo campo sostengono che una regolamentazione chiara e aperta dei modelli linguistici di grandi dimensioni sia così importante. Buyl e i suoi colleghi affermano che l’obiettivo di imporre la neutralità è probabilmente irraggiungibile, quindi saranno necessarie forme alternative di regolamentazione. “Invece, le iniziative per regolare i modelli linguistici potrebbero concentrarsi sull’imporre la trasparenza riguardo alle scelte progettuali che possono influenzare le posizioni ideologiche dei modelli”, suggeriscono. Le aziende che sviluppano questi sistemi stanno attualmente facendo pressioni per evitare questo tipo di regolamentazione, finora con successo negli Stati Uniti, sebbene meno in Europa. L’assenza di regolamentazione non è probabilmente una cosa positiva. Questa battaglia è appena iniziata. Ma il lavoro di Buyl e dei suoi colleghi dimostra che sarà cruciale.