L’idea che l’intelligenza artificiale possa rimodellare lo Stato è passata in breve tempo da suggestione futuristica a tema centrale nei dibattiti di politica pubblica. A sollevare nuovamente la questione è stato il settimanale britannico New Scientist, che ha rivelato come un ministro del Regno Unito stia chiedendo consigli a ChatGPT, sollecitando una riflessione sulla reale natura di questi strumenti tecnologici e sul loro ruolo nei processi decisionali governativi.
L’amministrazione Trump e il progetto di uno Stato “snello” con l’IA
Negli Stati Uniti, l’amministrazione Trump ha dichiarato di voler rendere più efficiente l’apparato statale ricorrendo a soluzioni di intelligenza artificiale. La strategia si basa sull’eliminazione di impiegati pubblici federali, sostituiti dall’impiego di GSAi, un chatbot ideato dalla task force DOGE, gruppo che vede coinvolto Elon Musk. L’intenzione è quella di ridurre i costi e incrementare l’efficacia operativa, ma ciò solleva interrogativi su quali ambiti l’IA possa davvero potenziare e quali rischi comporti una sua adozione massiccia.
Keir Starmer e la “golden opportunity” dell’intelligenza artificiale
Nel Regno Unito, il primo ministro Keir Starmer ha definito l’IA una “opportunità d’oro”, auspicando che questi strumenti contribuiscano a trasformare lo Stato. Un entusiasmo condiviso anche dal segretario di Stato per la Scienza, l’Innovazione e la Tecnologia, Peter Kyle, che ha interagito personalmente con ChatGPT, come dimostrato dai documenti ottenuti grazie alle leggi britanniche sulla libertà d’informazione (FOI).
Tuttavia, la pubblicazione di queste interazioni ha suscitato scalpore tra giornalisti, esperti di privacy e politici, poiché solitamente richieste analoghe, ad esempio riguardanti le cronologie delle ricerche su Google di un ministro, verrebbero respinte. La scelta di rendere pubbliche queste conversazioni suggerisce che l’esecutivo britannico considera l’uso di ChatGPT simile a uno scambio via email o WhatsApp, strumenti già sottoposti alle normative FOI.
Il dilemma sull’intelligenza: le macchine pensano davvero?
Il nodo cruciale resta comprendere cosa sia realmente l’intelligenza artificiale. Sin dagli anni ’50, con la celebre domanda di Alan Turing, “Le macchine possono pensare?”, la comunità scientifica si interroga sul significato da attribuire a questa tecnologia. Oggi, con la diffusione dei modelli di linguaggio di grandi dimensioni (LLM) come ChatGPT, il quesito assume una nuova urgenza.
Secondo New Scientist, questi modelli non possiedono alcun tipo di intelligenza autonoma e, sebbene siano in grado di elaborare testi convincenti, restano strumenti che riflettono le informazioni pregresse da cui sono stati addestrati. Non manca chi evidenzia il rischio di pregiudizi sistemici e inesattezze nelle risposte fornite dai chatbot, rendendo pericoloso affidarsi a essi per decisioni di rilevanza pubblica.
LLM come tecnologie culturali e sociali, non intelligenze autonome
Un recente articolo pubblicato su Science propone una visione alternativa dei modelli di linguaggio. Gli autori invitano a considerarli come tecnologie culturali e sociali, strumenti che permettono agli esseri umani di accedere e utilizzare la conoscenza collettiva, senza però attribuire loro capacità cognitive proprie.
Secondo questi ricercatori, gli LLM vanno paragonati a innovazioni come la scrittura, la stampa, i mercati, le burocrazie o le democrazie rappresentative, tutte invenzioni che hanno modificato radicalmente il modo di gestire le informazioni e facilitare la cooperazione sociale.
L’efficienza dei governi e le reali capacità dell’intelligenza artificiale
Nel contesto governativo, l’adozione di LLM potrebbe effettivamente aumentare l’efficienza amministrativa, ma solo se chi li utilizza è pienamente consapevole dei loro limiti e dei rischi connessi. La possibilità che le interazioni con i chatbot siano soggette a controlli pubblici resta un tema aperto, anche se le esistenti eccezioni alle norme sulla trasparenza dovrebbero garantire ai ministri uno spazio di riservatezza per le discussioni più delicate.
Per quanto riguarda l’ipotesi che le macchine possano pensare, l’opinione prevalente tra gli esperti è negativa. Un sondaggio recente ha mostrato che circa il 76% dei ricercatori di intelligenza artificiale considera improbabile o molto improbabile che i modelli attuali raggiungano l’intelligenza artificiale generale (AGI), ovvero quella capacità di eguagliare o superare le facoltà cognitive degli esseri umani.
Oggi, quindi, nonostante gli enormi progressi, il sogno di una macchina pensante resta confinato nel futuro ipotetico che Alan Turing si era limitato a immaginare.