Conversazioni normali generate dai chatbot possono celare messaggi cifrati
Le intelligenze artificiali come ChatGPT stanno aprendo nuove possibilità per chi cerca di eludere la censura digitale imposta da regimi autoritari. Ricercatori e attivisti per i diritti digitali hanno dimostrato come sia possibile nascondere comunicazioni cifrate all’interno di conversazioni apparentemente innocue, trasformando i chatbot in veri e propri strumenti di resistenza silenziosa.
In apparenza, le interazioni sembrano comuni discussioni su argomenti banali — viaggi, meteo, cucina — ma in realtà celano contenuti criptati, leggibili solo da chi possiede la chiave per decifrarli. Questo stratagemma permette di aggirare i filtri governativi senza attirare l’attenzione delle autorità.
Come i messaggi cifrati diventano invisibili agli occhi della censura
In contesti repressivi, un messaggio cifrato convenzionale — costituito da stringhe casuali di numeri e simboli — può risultare altamente sospetto. Un messaggio mascherato, invece, integrato in un linguaggio naturale generato da un chatbot, si fonde perfettamente nella comunicazione digitale ordinaria.
Studi recenti dell’Università di Washington e del Massachusetts Institute of Technology hanno dimostrato che l’intelligenza artificiale può codificare messaggi segreti nel testo, utilizzando schemi linguistici e semantici riconoscibili solo dal destinatario. Il risultato è un contenuto privo di segnali di allarme per gli strumenti di monitoraggio automatizzati.
Potenzialità e limiti di un linguaggio cifrato invisibile
Questa tecnologia, pur essendo ancora in una fase sperimentale, sta attirando l’attenzione di organizzazioni per la libertà di espressione, come Electronic Frontier Foundation e Reporters Without Borders, che vedono nei chatbot una nuova frontiera per il diritto alla comunicazione riservata.
Tuttavia, l’uso improprio di questa tecnica desta preoccupazione anche tra gli esperti di cybersecurity e governance digitale: esiste il rischio che strumenti nati per proteggere i dissidenti vengano adottati anche da gruppi criminali per sfuggire al controllo delle forze dell’ordine.
Il dibattito politico e normativo si riaccende
Anche nel Regno Unito, le autorità stanno esaminando l’uso potenziale dei chatbot per scopi di steganografia conversazionale, esprimendo timori su come queste tecnologie possano eludere le leggi sul controllo dei contenuti digitali. L’Home Office ha recentemente promosso uno studio sull’argomento per valutare rischi e implicazioni giuridiche.
Negli Stati Uniti, invece, il tema rientra nel più ampio dibattito sulla neutralità tecnologica e sul ruolo delle aziende di AI nella tutela o nella minaccia dei diritti civili.