All’Università della California, San Francisco, un innovativo sistema che unisce intelligenza artificiale e robotica ha permesso a un uomo affetto da tetraplegia di governare un braccio meccanico semplicemente attraverso i suoi pensieri. Questo avanzato dispositivo è rimasto funzionante per oltre sette mesi consecutivi senza necessitare di modifiche significative, superando di gran lunga i pochi giorni di autonomia tipici di tecnologie simili, che spesso richiedono ricalibrazioni frequenti.
Il cuore di questa sofisticata interfaccia cervello-computer, conosciuta come BCI, risiede negli algoritmi di apprendimento automatico, capaci di associare specifici impulsi cerebrali a determinati gesti fisici. Grazie a questa tecnologia, l’uomo è riuscito a vedere in tempo reale i movimenti compiuti dal braccio robotico mentre li immaginava, consentendo di correggere rapidamente eventuali errori e migliorare la precisione delle azioni.
Secondo il neurologo Karunesh Ganguly, responsabile del progetto presso l’UCSF, questa collaborazione tra cervello umano e intelligenza artificiale rappresenta il futuro delle interfacce neurali, aprendo la strada a una funzionalità molto più naturale e complessa.
Durante le sessioni di prova, il partecipante ha potuto eseguire azioni quotidiane come aprire un armadietto, afferrare una tazza e posizionarla sotto un erogatore di bevande, semplicemente usando il pensiero. Il potenziale di questa tecnologia si estende alla possibilità di aiutare milioni di persone con disabilità motorie a ritrovare una certa autonomia nelle attività di tutti i giorni.
Un elemento sorprendente osservato dal team di ricerca riguarda la stabilità delle forme dei modelli cerebrali associati al movimento: pur mantenendo la loro struttura, essi si spostavano leggermente nel tempo all’interno del cervello, fenomeno legato probabilmente alla capacità della mente umana di apprendere e adattarsi.
La componente di intelligenza artificiale ha saputo gestire perfettamente questi spostamenti neurali, riducendo drasticamente la necessità di continue ricalibrazioni. Il gruppo di ricerca ritiene che, con l’ulteriore affinamento degli algoritmi, si potranno ottenere miglioramenti significativi nella rapidità e nell’accuratezza di risposta del sistema.
Nella pubblicazione su Cell, i ricercatori sottolineano come questa neuroprotesi fosse completamente controllata in modo volontario, senza interventi di correzione automatica da parte della macchina. Inoltre, suggeriscono che l’integrazione di sistemi di supporto visivo potrebbe incrementare ulteriormente le performance, soprattutto quando si trattano interazioni complesse tra oggetti.
Va ricordato che l’intero sistema si basa su impianti cerebrali e sull’utilizzo della tecnica di elettrocorticografia (ECoG), che consente di leggere l’attività neurale in modo estremamente preciso. Un computer dedicato trasforma tali segnali in comandi meccanici, traducendoli in gesti reali.
Nonostante la complessità e il costo attuale di questi dispositivi, questa ricerca conferma la possibilità concreta di mappare i modelli neurali collegati ai pensieri relativi a specifici movimenti e seguirne l’evoluzione nel tempo.
Negli ultimi anni, sistemi analoghi hanno permesso a persone impossibilitate a parlare di comunicare nuovamente e a un uomo con paralisi di partecipare a partite di scacchi. Le prospettive future lasciano intravedere l’esecuzione di azioni sempre più articolate e sofisticate.
“Siamo convinti di aver compreso come progettare e far funzionare questi sistemi,” ha affermato Ganguly, confermando i risultati della ricerca pubblicata su Cell.