Poter modificare geneticamente i batteri, trasformandoli in fabbriche di farmaci come l’insulina, ma anche il timore di creare microrganismi pericolosi, furono le grandi sfide che, il 24 febbraio 1975, spinsero i pionieri dell’ingegneria genetica a riunirsi ad Asilomar, in California. L’obiettivo era stabilire regole condivise che consentissero alla scienza di progredire in sicurezza. Quelle stesse norme, stilate in quell’occasione, sono ancora oggi un punto di riferimento ogni volta che la ricerca apre nuove frontiere. Dalla biologia sintetica alle nanotecnologie, fino all’intelligenza artificiale, il principio dell’autodisciplina scientifica è rimasto centrale.
Il Nobel Geoffrey Hinton, uno dei pionieri dell’intelligenza artificiale, ha recentemente dichiarato che il modello seguito dai biologi negli anni Settanta rappresenta un esempio da considerare anche per le sfide poste dall’IA. Proprio come allora le tecnologie di manipolazione del DNA aprivano possibilità inaspettate, oggi i progressi dell’intelligenza artificiale sollevano interrogativi su implicazioni e rischi.
Il dibattito sulla genetica e la moratoria del 1974
All’inizio degli anni Settanta, la scoperta della tecnica del DNA ricombinante permise di trasferire frammenti di DNA da un organismo a un altro, rivoluzionando la biologia. Tuttavia, come sottolineò il Nobel Paul Berg, questa possibilità “permetteva a chiunque di fare qualsiasi cosa”, alimentando timori per potenziali conseguenze impreviste.
Nel 1973, numerosi scienziati firmarono una lettera pubblicata sulla rivista Science, esprimendo la necessità di una riflessione etica. L’anno successivo, Berg e i suoi colleghi proposero una moratoria sugli esperimenti, sospendendo temporaneamente le ricerche fino alla definizione di misure di sicurezza adeguate per prevenire eventuali rischi.
Per affrontare la questione, nel 1975, 150 esperti tra scienziati, rappresentanti governativi, aziende e giornalisti si riunirono ad Asilomar, dando vita a tre giorni di discussioni intense. Il risultato fu un insieme di regole di sicurezza, che ancora oggi costituiscono un modello per la scienza responsabile.
Asilomar, simbolo dell’autoregolamentazione scientifica
Da quel momento, Asilomar è diventato un riferimento per la capacità della comunità scientifica di autoregolarsi, senza interventi politici. Un modello che è stato ripreso in altri ambiti di ricerca, come la biologia sintetica, le nanotecnologie e, più di recente, l’intelligenza artificiale.
Il 5 gennaio 2017, il Future of Life Institute organizzò la Conferenza di Asilomar sull’IA benefica, riunendo esperti di economia, etica e filosofia, oltre che scienziati. A differenza del 1975, però, molti dei partecipanti provenivano da aziende private, a dimostrazione del ruolo crescente del settore industriale nelle nuove tecnologie.
L’influenza della conferenza del 2017 si è riflessa anche nella lettera aperta del 22 marzo 2023, firmata da oltre 30.000 persone, tra cui Elon Musk, che sollevava preoccupazioni sui rischi dell’IA avanzata per la società e l’umanità. Un nuovo appello è stato lanciato nel maggio 2024, segno di un dibattito sempre più acceso sulla necessità di regolamentare l’intelligenza artificiale.
L’autoreplicazione dell’IA e i nuovi interrogativi
Ad alimentare ulteriormente il confronto è stata, all’inizio del 2025, una scoperta del gruppo di ricerca della Fudan University in Cina, che ha sviluppato un sistema di IA capace di autoreplicarsi. Gli stessi ricercatori hanno sottolineato che questa innovazione dovrebbe servire da allerta per la società, invitando a concentrare gli sforzi nella valutazione dei rischi a livello globale.
Il modello di Asilomar, nato 50 anni fa, continua dunque a essere un punto di riferimento per gestire le rivoluzioni scientifiche e garantire che il progresso tecnologico proceda in modo sicuro ed etico.