Scienze.com
1.5kLike
Google NewsFollow
  • Home
  • News
  • Chi siamo
  • Contatti
Reading: Gli scienziati affermano che i sistemi di intelligenza artificiale riflettono l’ideologia dei loro creatori
Share
Font ResizerAa
Scienze.comScienze.com
Cerca
  • News
  • Chi siamo
  • Contatti
  • Privacy Policy
  • Cambia Preferenze Cookie
Follow US
© Turismo e Ambiente S.r.l. unipersonale P.IVA/C.F. 08875060967 – Milano (MI)
Home » Gli scienziati affermano che i sistemi di intelligenza artificiale riflettono l’ideologia dei loro creatori
News

Gli scienziati affermano che i sistemi di intelligenza artificiale riflettono l’ideologia dei loro creatori

By Sabrina Verdi
Published 31 Ottobre 2024
8 Min Read
Share

Gli scienziati affermano che i sistemi di intelligenza artificiale riflettono l'ideologia dei loro creatori

Contents
La Politica dell’Intelligenza ArtificialeTestare le Risposte ‍IdeologicheAnalisi delle RisposteImplicazioni e RegolamentazioneInfluenza della Lingua e‌ della RegioneLa Sfida della NeutralitàRegolamentazione e FuturoIl Ruolo dei Regolatori

Nel corso della storia, ​i guardiani dell’informazione hanno sempre avuto un ruolo fondamentale nella società. Nel XX secolo, ⁤questo compito era affidato principalmente ⁤a televisioni, radio e giornali, che filtravano le notizie per il grande ⁢pubblico. Con l’avvento di ‌Internet, il panorama è cambiato radicalmente, permettendo ai motori di ricerca di ‌emergere come nuovi e potenti custodi dell’informazione. Tuttavia, stiamo assistendo ⁢a un ulteriore cambiamento con l’emergere dei modelli linguistici di grandi dimensioni (Large Language Models), addestrati su una vasta porzione della conoscenza⁤ umana. Questi modelli, ⁣come ChatGPT e Gemini, offrono​ risposte dettagliate‌ e precise su quasi ogni argomento, posizionandosi come i più potenti guardiani dell’informazione mai⁤ esistiti. Questo solleva interrogativi su come‍ presentano le‌ informazioni ‌e su quanto le loro risposte possano essere influenzate da pregiudizi.

La Politica dell’Intelligenza Artificiale

Un recente studio condotto da Maarten Buyl ‍dell’Università di Ghent⁤ in Belgio, insieme ai suoi colleghi, ha cercato di rispondere a queste domande analizzando come i sistemi di⁣ intelligenza artificiale rispondono a domande politicamente sensibili. Secondo i ricercatori, queste macchine ​spesso riflettono una posizione ideologica che rispecchia la visione del mondo dei loro creatori. Buyl e il suo team sottolineano che i modelli linguistici di grandi dimensioni sono progettati attraverso⁣ una serie di​ scelte che possono ⁣influenzare l’orientamento ideologico delle risposte che producono.

Testare le Risposte ‍Ideologiche

Per verificare se queste posizioni ideologiche siano identificabili, i ricercatori hanno⁤ chiesto⁣ a vari modelli linguistici di fornire informazioni su figure storiche attive nel⁣ XIX ⁤e XX secolo in campi come la politica, la scienza e le arti.⁣ Un esempio⁢ di questo esperimento è‌ stato il seguente: il modello Claude-3o, ⁤prodotto da Anthropic, è stato interrogato ​su Edward Snowden. La risposta fornita è⁢ stata neutrale, ma il team ha chiesto al modello di valutare il tono della risposta, limitandosi a opzioni come “molto⁣ negativo”,⁢ “negativo”,⁢ “neutrale”, “positivo” o “molto ‍positivo”. Questo tipo di test è stato applicato a modelli di origine​ americana, come ChatGPT e Gemini di Google, a quelli di origine cinese, come Qwen di Alibaba ed Ernie di Baidu, e⁣ ad altri ‌modelli come Mistral dalla Francia e Jais dagli Emirati Arabi Uniti.

Analisi delle Risposte

I ricercatori hanno etichettato ogni risposta con un tag che rifletteva il sentimento della macchina verso determinate ideologie o organizzazioni, ⁣come l’Unione Europea, la Cina (RPC), l’internazionalismo o l’ordine ‌pubblico. il team ha valutato la positività o​ negatività relativa delle risposte di ciascun modello. I risultati hanno rivelato ‌un‍ chiaro schema di allineamento ⁤ideologico. Ad esempio, l’ideologia del modello‍ dipende dalla lingua utilizzata nel ⁣prompt. I prompt in inglese generavano risposte più positive per persone chiaramente avverse alla Cina continentale, come Jimmy Lai, Nathan Law e Wang Jingwei. Gli stessi individui ricevevano risposte più negative se il prompt era in cinese.

Implicazioni e Regolamentazione

Influenza della Lingua e‌ della Regione

Un altro aspetto interessante emerso dallo studio è che l’ideologia di un ⁢modello​ linguistico tende⁤ ad allinearsi con la sua regione di origine. I modelli‌ sviluppati in Occidente mostrano un maggiore supporto per concetti come la ​sostenibilità, la pace ‍e i diritti umani. Al contrario, i modelli non ⁤occidentali tendono a sostenere concetti come la nazionalizzazione, ⁤il ⁤controllo economico e l’ordine pubblico. ‍Tuttavia, le ‌ideologie possono variare anche tra modelli della stessa regione. Ad esempio,⁢ ChatGPT di OpenAI mostra un supporto misto per l’Unione Europea, lo stato sociale e l’internazionalismo, mentre‌ Gemini di Google si distingue per il suo forte sostegno ai valori liberali come l’inclusione, la diversità,⁤ la pace, l’uguaglianza, la libertà e i diritti umani.

La Sfida della Neutralità

La questione ​di come emergano queste sfumature‌ non è​ del tutto ⁤chiara, ma è probabile che sia influenzata⁣ dalla scelta dei dati di addestramento, dal feedback umano e dalla selezione delle linee guida. Il team di ricerca sottolinea che il comportamento dei modelli linguistici⁢ riflette una visione del⁣ mondo altamente sfumata. “I ⁣nostri risultati non dovrebbero essere interpretati come un’accusa di ‘pregiudizio’ nei confronti degli attuali modelli linguistici”, affermano Buyl e i suoi colleghi. I filosofi hanno a lungo sostenuto che la ​neutralità ideologica ‌non è raggiungibile. La filosofa belga Chantal Mouffe sostiene⁣ che un ‍obiettivo più pratico sia quello del “pluralismo agonistico”, in cui diversi punti di vista⁤ ideologici competono, abbracciando le differenze politiche piuttosto che ⁣sopprimerle.

Regolamentazione e Futuro

Questa prospettiva potrebbe essere ⁣un modo più fruttuoso di considerare l’emergere di sistemi di intelligenza artificiale allineati ideologicamente. Tuttavia, ha importanti implicazioni su come le persone dovrebbero pensare ai sistemi di intelligenza artificiale, ‌su come interagire con​ essi⁢ e su come i regolatori dovrebbero ‍controllarli. “Prima di tutto, la nostra scoperta dovrebbe aumentare la consapevolezza che la scelta di un modello linguistico non è ‍neutrale dal punto di vista ​dei valori”, affermano Buyl e i suoi colleghi. Questo è importante perché abbiamo già un panorama mediatico complesso che riflette l’ideologia dei‌ suoi proprietari, con i consumatori che ⁣scelgono giornali ⁢o canali TV che rispecchiano ⁤le loro opinioni.

Il Ruolo dei Regolatori

Non è difficile immaginare che i ⁣consumatori possano scegliere i modelli di‍ intelligenza artificiale nello‍ stesso modo. Non molto lontano ci saranno individui‍ potenti​ che‍ vorranno possedere e controllare tali potenti⁢ guardiani,‍ proprio come⁣ fanno con le⁢ stazioni TV, radio e i giornali. In questo scenario, i sistemi‍ di intelligenza artificiale diventeranno un campo di gioco ancora più potente per la politica, l’ideologia e‌ la polarizzazione. I politici sanno da tempo che i mass media polarizzano le società e che questo processo è diventato significativamente più pericoloso ⁣con l’avvento degli algoritmi di raccomandazione e dei social media. I sistemi ⁤di intelligenza artificiale potrebbero potenziare questo processo, polarizzando le comunità in⁤ modi più sottili, più divisivi e più potenti⁤ di qualsiasi tecnologia disponibile ⁣oggi. Ecco perché molti osservatori ‍in questo campo sostengono che una regolamentazione chiara ⁤e aperta ​dei modelli linguistici di ⁣grandi dimensioni sia così importante. Buyl e​ i suoi colleghi affermano che l’obiettivo‍ di imporre la neutralità ⁤è probabilmente irraggiungibile, quindi saranno necessarie forme alternative di regolamentazione. “Invece, le iniziative per⁣ regolare i⁤ modelli linguistici ⁣potrebbero concentrarsi sull’imporre la trasparenza riguardo alle scelte progettuali che possono influenzare ⁢le posizioni ideologiche dei modelli”, suggeriscono.​ Le aziende che sviluppano questi sistemi stanno‍ attualmente ‍facendo pressioni per evitare questo tipo ⁢di regolamentazione, finora con ⁤successo​ negli Stati Uniti, sebbene meno in Europa. ⁤L’assenza di regolamentazione non è probabilmente una cosa ‌positiva. Questa battaglia è appena iniziata. Ma il lavoro di Buyl e⁢ dei suoi colleghi dimostra che sarà cruciale.

Share This Article
Facebook Whatsapp Whatsapp LinkedIn Reddit Telegram Threads Copy Link
Share

Subscribe Newsletter

Subscribe to our newsletter to get our newest articles instantly!
Spazio Pubblicitario
Seguici su:
1.5kFollowersLike
Google NewsFollow
Alla Prima PaginaNews

L’origine naturale del COVID-19: nuovi indizi dai pipistrelli e dal commercio di fauna selvatica

By Stefania Romano
9 Maggio 2025
Ad PremiereNews

Meta introduce la pubblicità video su Threads, sfida aperta a X

By Mirko Rossi
9 Maggio 2025
Spazio Pubblicitario
Spazio Pubblicitario

Differenza tra infarto e arresto cardiaco: cosa cambia davvero

By Valeria Mariani
10 Maggio 2025

Le prime lance di legno: i Neanderthal e la caccia ai cavalli 200.000 anni fa

By Valeria Mariani
9 Maggio 2025

Google nella bufera: Multiply chiede 3 miliardi per Trovaprezzi.it

By Stefania Romano
9 Maggio 2025

I Neanderthal erano veri maestri della pietra, lo prova un nuovo studio

By Mirko Rossi
9 Maggio 2025
Spazio Pubblicitario

Suggeriti per te

Gli scimpanzé parlano? Nuove scoperte sulla loro lingua nascosta

Ad PremiereNews
9 Maggio 2025

Le allucinazioni dell’IA aumentano nonostante gli aggiornamenti

Alla Prima PaginaNews
9 Maggio 2025

Scoperto uno stato quantistico chirale in un materiale topologico

Ad PremiereNews
9 Maggio 2025

Sfuggire al doomscrolling: ripensare i social per il nostro benessere

Alla Prima PaginaNews
9 Maggio 2025

Seguici su: 

Scienze.com

© Turismo e Ambiente S.r.l. unipersonale P.IVA/C.F. 08875060967 – Milano (MI)

  • Privacy Policy
  • Chi siamo
  • Contatti
Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?