Recentemente, Alphabet, la società madre di Google, ha apportato modifiche sostanziali alle proprie linee guida sull’intelligenza artificiale. In particolare, è stata rimossa una sezione, presente dal 2018, che vietava l’utilizzo dell’IA in applicazioni potenzialmente dannose, come lo sviluppo di armi e strumenti di sorveglianza.
Questa decisione è stata difesa da James Manyika, vicepresidente di Google, e da Demis Hassabis, responsabile di DeepMind, i quali hanno sottolineato l’importanza di una collaborazione tra aziende e governi democratici per sviluppare un’IA che supporti la sicurezza nazionale, basandosi su valori fondamentali quali la libertà, l’uguaglianza e il rispetto dei diritti umani.
La revisione delle linee guida riflette un cambiamento nella strategia di Alphabet riguardo all’IA, aprendo la strada a possibili collaborazioni con enti governativi e aziende del settore della difesa. Tuttavia, questa scelta ha sollevato preoccupazioni tra esperti e attivisti, i quali temono che l’integrazione dell’IA in ambiti militari e di sorveglianza possa portare a violazioni dei diritti umani e a un aumento delle capacità belliche senza un adeguato controllo.
In risposta a queste preoccupazioni, Alphabet ha dichiarato che continuerà a sviluppare l’IA in linea con principi etici, garantendo una supervisione umana adeguata e collaborando con organizzazioni che condividono gli stessi valori, al fine di promuovere una crescita globale sostenibile e tutelare la sicurezza nazionale.