Google ha aggiornato le sue linee guida sull’Intelligenza Artificiale (IA), eliminando il divieto esplicito di utilizzare la tecnologia per lo sviluppo di armi o per sistemi di sorveglianza. Questa revisione segna un cambiamento radicale rispetto agli impegni presi nel 2018, quando l’azienda aveva escluso qualsiasi utilizzo dell’IA che potesse causare danni complessivi o violare i diritti umani.
L’aggiornamento è stato annunciato in un post ufficiale da Demis Hassabis, CEO di Google DeepMind, e James Manyika, vicepresidente senior di Google. I due dirigenti hanno sottolineato che l’IA è ormai un elemento centrale della società e che il suo sviluppo deve essere guidato dalle democrazie, nel rispetto di principi come la libertà, l’uguaglianza e i diritti umani. Tuttavia, l’azienda ha rimosso la sezione che escludeva l’impiego della tecnologia per scopi bellici e di sorveglianza di massa, lasciando spazio a un principio più generico secondo cui i benefici dell’IA devono superare i rischi.
Dal Project Maven al cambio di strategia: il precedente delle proteste interne
Il dietrofront di Google rappresenta una svolta rispetto alla crisi del 2018, quando migliaia di dipendenti protestarono contro il coinvolgimento dell’azienda nel Project Maven, un programma del Pentagono che sfruttava l’IA per analizzare le riprese dei droni militari. Le critiche interne e il malcontento portarono allora Google a non rinnovare il contratto con il Dipartimento della Difesa statunitense e a stabilire principi etici più rigidi.
La scelta di eliminare il divieto di sviluppare IA per applicazioni belliche e di sorveglianza allinea ora Google ad altre Big Tech come Microsoft e Amazon, già coinvolte in contratti con il governo degli Stati Uniti per la fornitura di tecnologie avanzate, tra cui il cloud computing e strumenti di intelligenza artificiale applicati alla sicurezza nazionale.
IA e sicurezza: una scelta che divide
La revisione delle linee guida ha generato un acceso dibattito. Google afferma di voler usare l’IA per affrontare le “sfide più grandi dell’umanità”, senza però specificare quali siano i limiti etici e operativi di questa nuova strategia.
Da un lato, alcuni sostengono che il coinvolgimento dell’azienda nel settore della difesa possa garantire uno sviluppo più controllato e responsabile della tecnologia militare rispetto a quello condotto da regimi autoritari. Dall’altro, critici ed esperti di diritti umani temono che l’integrazione dell’IA nei sistemi bellici e di sorveglianza di massa possa portare a violazioni della privacy, discriminazioni e persino a un utilizzo fuori controllo di armi autonome.
L’intelligenza artificiale tra etica e geopolitica
Nel contesto internazionale, l’uso dell’IA per scopi militari è un tema sempre più caldo. In Europa, il regolamento sull’AI Act cerca di bilanciare l’innovazione con la tutela dei diritti fondamentali, imponendo restrizioni severe su alcune applicazioni come il riconoscimento facciale in tempo reale nei luoghi pubblici.
Negli Stati Uniti, invece, la corsa all’IA militare è incentivata dal confronto con Cina e Russia, che stanno investendo ingenti risorse nello sviluppo di sistemi autonomi per il settore bellico e della sicurezza. Google, rimuovendo le precedenti restrizioni, sembra ora allinearsi a questa visione strategica, affermando che la sua IA sarà sviluppata in conformità con il diritto internazionale e i principi democratici.
La decisione del colosso di Mountain View rappresenta un punto di svolta nel modo in cui le Big Tech si rapportano alla geopolitica e alla difesa. Resta da vedere se questa nuova direzione riuscirà a conciliare il progresso tecnologico con la tutela dei diritti umani, o se segnerà l’inizio di una corsa agli armamenti guidata dall’intelligenza artificiale.