Un modello naturale per il progresso tecnologico
Il Caenorhabditis elegans, un verme microscopico, possiede un cervello delle dimensioni di un capello umano, eppure è in grado di coordinare movimenti complessi e adattarsi all’ambiente mentre cerca cibo. Questa straordinaria efficienza biologica ha ispirato Daniela Rus, informatica del MIT, a co-fondare Liquid AI, una società che sviluppa una nuova generazione di intelligenza artificiale basata sulla struttura cerebrale di questo piccolo organismo.
Rus è solo una delle tante ricercatrici convinte che rendere l’IA più simile a un cervello umano o animale possa portare a tecnologie più agili, efficienti e intelligenti. Secondo Kanaka Rajan, neuroscienziata computazionale dell’Università di Harvard, la chiave per migliorare i sistemi attuali è incorporare principi della neuroscienza nello sviluppo di nuovi modelli.
L’idea di imitare il cervello per costruire computer più avanzati non è nuova: già negli anni ’50 il neurobiologo Frank Rosenblatt sviluppò il perceptron, una primitiva rete neurale artificiale ispirata al funzionamento delle cellule nervose. Oggi, il deep learning si basa su concetti simili, ma manca ancora della capacità di adattamento e apprendimento rapido che caratterizzano i cervelli biologici.
Il limite dell’IA tradizionale e la necessità di nuove architetture
Le moderne reti neurali artificiali necessitano di enormi quantità di dati ed energia per apprendere e svolgere compiti avanzati, come la guida autonoma. Subutai Ahmad, direttore tecnico di Numenta, sottolinea quanto i modelli attuali siano “brutali e inefficienti”, basandosi su un approccio che punta esclusivamente su una crescita esponenziale della potenza di calcolo.
A gennaio 2025, il governo degli Stati Uniti ha annunciato Stargate, un piano da 500 miliardi di dollari per costruire nuovi data center dedicati all’IA. Tuttavia, alcune aziende stanno esplorando soluzioni alternative: la società cinese DeepSeek ha dimostrato che è possibile ridurre il consumo energetico e la quantità di dati senza compromettere le prestazioni dei modelli di IA.
In parallelo, gli esperti di calcolo neuromorfico stanno sviluppando hardware e software che replicano il funzionamento del cervello umano, cercando di combinare efficienza e potenza computazionale.
Reti neurali a spiking: neuroni artificiali più realistici
Nei cervelli biologici, i neuroni si attivano solo quando il segnale elettrico supera una certa soglia, inviando un impulso discreto alle cellule vicine. Questo meccanismo, altamente efficiente, è stato replicato nelle reti neurali a spiking, che simulano picchi di attività simili a quelli dei neuroni reali.
I modelli di deep learning tradizionali, invece, elaborano ogni input attivando simultaneamente tutte le connessioni, sprecando energia e risorse computazionali. Al contrario, nei sistemi neuromorfici le reti si attivano in modo sparsamente distribuito, riducendo drasticamente il consumo di energia.
L’Università di Berna, con il ricercatore Mihai Petrovici, ha dimostrato che le reti a spiking possono raggiungere livelli di efficienza superiori, riducendo la necessità di hardware ad alte prestazioni e migliorando la velocità di elaborazione.
L’evoluzione dell’hardware neuromorfico
Uno degli sviluppi più promettenti nel settore è il chip BrainScaleS-2, nato nell’ambito del Human Brain Project, un’iniziativa decennale per la modellazione del cervello umano. Questo chip integra neuroni a spiking fisici, combinando memoria ed elaborazione in un unico sistema.
In un esperimento, BrainScaleS-2 è stato utilizzato per addestrare un’IA a giocare a Pong, ottenendo un consumo energetico inferiore di 1.000 volte rispetto a una CPU tradizionale e di 100 volte rispetto a una GPU.
Anche le grandi aziende tecnologiche stanno investendo in calcolo neuromorfico:
- IBM ha sviluppato NorthPole, un chip che ottimizza memoria ed elaborazione per ridurre il consumo energetico.
- Intel ha lanciato Hala Point, un sistema neuromorfico con 1,15 miliardi di neuroni elettronici, un numero paragonabile a quello presente nel cervello di un gufo.
Questi progressi dimostrano che il calcolo neuromorfico potrebbe diventare una valida alternativa alle GPU e CPU tradizionali, soprattutto per applicazioni che richiedono efficienza energetica.
Reti neurali liquide: un’IA più adattabile
Oltre all’hardware, un’innovazione fondamentale arriva dal lato software: le reti neurali liquide, sviluppate da Liquid AI, sono progettate per adattarsi in tempo reale a nuovi dati, senza necessità di una fase di addestramento separata.
A differenza dei modelli convenzionali, che mantengono parametri statici dopo l’addestramento, le reti liquide possono modificare continuamente la propria struttura, rendendole molto più simili a un cervello biologico.
Nel 2023, un test ha confrontato un’IA tradizionale con una rete neurale liquida durante il pilotaggio di un drone. Nonostante fosse 100 volte più piccola, la rete liquida ha superato il modello standard, dimostrando una capacità di adattamento superiore.
Liquid AI ha poi sviluppato LFM-7B, una rete neurale liquida con 7 miliardi di parametri, capace di generare risposte testuali più efficaci rispetto ai modelli di linguaggio convenzionali della stessa dimensione.
La neocorteccia come ispirazione per l’IA del futuro
Mentre Liquid AI prende ispirazione dal cervello di C. elegans, altre ricerche si concentrano sulla neocorteccia umana, la regione cerebrale responsabile del pensiero astratto e della presa di decisioni.
Il neuroscienziato Jeff Hawkins, fondatore di Numenta, ha sviluppato la teoria dei “Mille Cervelli”, secondo cui l’intelligenza deriva dalla combinazione di migliaia di colonne corticali che modellano il mondo in tempo reale.
Numenta ha creato un’architettura computazionale basata su questa struttura, implementando un algoritmo che analizza i dati in modo simile alla percezione umana. Sebbene il sistema sia ancora in fase sperimentale, potrebbe rivoluzionare il modo in cui l’IA comprende e interagisce con il mondo reale.
Verso un futuro più efficiente e intelligente
Il successo dell’IA neuromorfica dipenderà dalla capacità di combinare hardware specializzato, architetture innovative e nuovi algoritmi. La scienziata informatica Sara Hooker ha sottolineato che spesso il progresso tecnologico è vincolato dalla disponibilità di hardware adeguato, come accadde con il deep learning, che divenne popolare solo con l’avvento delle GPU ottimizzate per l’IA.
Oggi, la ricerca sul calcolo neuromorfico potrebbe segnare una nuova era per l’intelligenza artificiale, riducendo il consumo energetico e migliorando l’adattabilità dei modelli. Se questa tecnologia raggiungerà la maturità, potrebbe ridefinire completamente il concetto stesso di computer e intelligenza artificiale.