Da domenica 2 febbraio 2025, in tutta l’Unione Europea, scattano i primi divieti previsti dall’AI Act, il regolamento europeo sull’intelligenza artificiale che impone severe restrizioni su tecnologie considerate pericolose per la privacy e i diritti fondamentali. Tra le misure più impattanti, il divieto del riconoscimento facciale in tempo reale negli spazi pubblici e il blocco di strumenti di sorveglianza biometrica avanzata.
Si tratta di una normativa senza precedenti, che posiziona l’Europa come il primo continente a regolamentare l’IA con un approccio basato sul rischio. Le aziende e le istituzioni che non rispetteranno le nuove regole potranno incorrere in pesanti sanzioni.
Stop ai sistemi di IA ad alto rischio
L’AI Act prevede il divieto assoluto di determinate pratiche legate all’intelligenza artificiale, considerate un “rischio inaccettabile” per la società. Tra queste, troviamo:
- Categorizzazione biometrica basata su dati sensibili, come l’orientamento sessuale, le convinzioni religiose, politiche o la razza.
- Raccolta massiva di immagini facciali da Internet o telecamere di sorveglianza per la creazione di database di riconoscimento facciale.
- Riconoscimento delle emozioni negli ambienti di lavoro e nelle scuole, vietato per evitare discriminazioni e manipolazioni.
- Social scoring, il sistema di punteggio sociale simile a quello utilizzato in Cina, che valuta le persone in base ai loro comportamenti.
- Polizia predittiva individuale, ovvero l’uso dell’IA per anticipare crimini basandosi esclusivamente sulla profilazione degli individui.
- Manipolazione subliminale e sfruttamento delle vulnerabilità delle persone, specialmente di bambini, anziani e soggetti in condizioni di difficoltà economica o sociale.
Riconoscimento facciale vietato: le uniche eccezioni
Uno dei punti più discussi dell’AI Act riguarda il riconoscimento facciale, che viene proibito in tempo reale negli spazi pubblici da parte delle forze dell’ordine. Tuttavia, alcune eccezioni limitate sono previste solo in casi straordinari, come:
- Ricerca di persone scomparse.
- Prevenzione di attacchi terroristici.
- Indagini su reati gravi, previa autorizzazione giudiziaria.
Anche l’uso di sistemi di identificazione biometrica a posteriori viene classificato come ad alto rischio e sarà permesso solo in situazioni regolamentate da rigide autorizzazioni legali.
Le aziende dovranno adeguarsi o rischiano sanzioni
Le imprese tecnologiche che operano in Europa dovranno conformarsi rapidamente ai nuovi standard, evitando di sviluppare o utilizzare sistemi di IA vietati. Le sanzioni per la mancata osservanza del regolamento possono superare quelle previste dal GDPR, con multe fino a 35 milioni di euro o il 7% del fatturato globale per le aziende che non rispettano le norme.
Le prossime tappe dell’AI Act
L’AI Act prevede un’implementazione progressiva. Oltre ai divieti entrati in vigore oggi, altre misure saranno attuate nei prossimi mesi:
- 2 agosto 2025: entreranno in vigore le regole su modelli di IA generali e sulla governance.
- 2 agosto 2026: tutte le restanti disposizioni del regolamento diventeranno pienamente applicabili.
Entro il 2 agosto 2025, ogni Stato membro dovrà anche designare l’autorità nazionale di controllo, incaricata di monitorare l’applicazione del regolamento e di sanzionare eventuali violazioni. In Italia, al momento, non è ancora stata scelta l’istituzione che assumerà questo ruolo.
Linee guida in arrivo nelle prossime ore
Per facilitare l’applicazione del regolamento, la Commissione Europea ha avviato nei mesi scorsi una consultazione pubblica sui divieti previsti dall’AI Act. Le linee guida ufficiali, che forniranno indicazioni pratiche per governi e aziende, saranno pubblicate nelle prossime ore.
Con queste nuove regole, l’Europa punta a creare un modello di IA etico e sicuro, bilanciando innovazione e tutela dei diritti fondamentali.