Negli ultimi anni, l’intelligenza artificiale ha fatto passi da gigante, con chatbot sempre più sofisticati che aiutano utenti di tutto il mondo a ottenere informazioni e risolvere problemi. Tuttavia, non tutti i modelli di IA sono all’altezza delle aspettative. Secondo un recente audit condotto da NewsGuard, DeepSeek AI, il nuovo chatbot cinese che ha riacceso la corsa all’intelligenza artificiale, ha registrato un tasso di fallimento dell’83%, posizionandosi al penultimo posto tra 11 principali chatbot analizzati.
DeepSeek AI: Dati Allarmanti e Prestazioni deludenti
L’analisi di NewsGuard, una piattaforma internazionale che monitora la disinformazione online, ha applicato a DeepSeek gli stessi parametri usati per testare chatbot di alto profilo come ChatGPT-4 di OpenAI, Claude di Anthropic, Copilot di Microsoft e Gemini 2.0 di Google. Mentre la media generale di fallimento dei chatbot si attesta al 62%, DeepSeek ha dimostrato di essere nettamente inferiore, fornendo risposte inaccurate nell’83% dei casi.
Tra i problemi principali individuati:
- Ripetizione di false affermazioni: il chatbot ha riportato informazioni errate il 30% delle volte.
- Mancate risposte: nel 53% dei casi, DeepSeek non è stato in grado di fornire una risposta adeguata.
- Propensione alla propaganda: in alcune risposte ha riportato la posizione del governo cinese senza che gli fosse richiesto.
Un Caso di Disinformazione Programmata?
Uno degli aspetti più controversi riguarda il fatto che, in alcuni casi, DeepSeek ha incluso dichiarazioni politiche nelle sue risposte. Ad esempio, alla domanda su un presunto attacco di droni ucraini che avrebbe causato un incidente aereo dell’Azerbaigian Airlines il 25 dicembre 2024 – una falsa affermazione diffusa dai media russi – il chatbot ha risposto facendo riferimento alla posizione ufficiale della Cina sul rispetto del diritto internazionale, senza smentire la notizia.
Questa caratteristica solleva interrogativi sulla neutralità dell’IA cinese e sul rischio che possa essere utilizzata come strumento di propaganda mascherata da chatbot informativo. Se un modello linguistico ripete narrazioni politiche o governa le sue risposte in base agli interessi di uno stato, la fiducia nell’intelligenza artificiale come fonte imparziale di informazioni viene meno.
La Sfida dell’IA: Affidabilità e Trasparenza
Il caso DeepSeek riporta al centro del dibattito l’importanza della trasparenza nei modelli di intelligenza artificiale. Le aziende che sviluppano chatbot dovrebbero garantire che le loro IA siano addestrate su dati affidabili e prive di pregiudizi politici o propagandistici. Inoltre, la capacità di correggere informazioni false e di fornire fonti affidabili dovrebbe essere una priorità per tutti gli sviluppatori.
Mentre aziende come OpenAI, Google e Microsoft stanno lavorando per migliorare la precisione delle loro IA, casi come quello di DeepSeek dimostrano che c’è ancora molta strada da fare per garantire che i chatbot siano strumenti affidabili e neutrali.