ChatGpt o3 riconosce i luoghi nelle foto anche senza metadati
Negli ultimi giorni, OpenAI ha lanciato o3 e o4-mini, i suoi più recenti modelli di intelligenza artificiale multimodale, integrandoli nella versione a pagamento di ChatGpt. Queste nuove versioni, già al centro di discussioni globali, sono in grado di interpretare immagini con una precisione impressionante. La funzione più sorprendente riguarda proprio la localizzazione geografica delle foto, anche in assenza di metadati o indizi espliciti.
Su X (ex Twitter), diversi utenti hanno riportato test in cui l’IA è riuscita a individuare città, quartieri, edifici, ristoranti e persino locali notturni osservando soltanto elementi marginali della scena, come cartelli stradali sfocati, caratteristiche architettoniche o tipici elementi urbani. Alcuni hanno persino cancellato manualmente i dati EXIF (informazioni GPS incorporate nei file immagine) prima dell’upload, ottenendo comunque risposte esatte da parte del modello.
L’IA “vede” e interpreta: cosa cambia con o3 e o4-mini
La vera svolta di o3 è la capacità di “ragionare con le immagini”. Questo significa che il modello non si limita a identificare oggetti o soggetti in una foto, ma deduce contesti e riconosce pattern visivi per giungere a conclusioni complesse. In alcuni casi, gli utenti hanno riferito che l’IA è stata in grado di indovinare la città e il punto preciso in cui una foto è stata scattata, senza alcuna informazione diretta.
Secondo quanto riportato da TechCrunch, OpenAI ha affermato di aver implementato sistemi di protezione per prevenire l’abuso di queste funzioni, impedendo al modello di fornire dati personali o sensibili. Tuttavia, la potenza visiva e deduttiva di ChatGpt o3 ha già acceso numerosi allarmi sulla privacy e sulla possibilità di sorveglianza non intenzionale.
Rischi per la privacy e misure di contenimento
OpenAI ha dichiarato che sta monitorando costantemente le interazioni e che interverrà qualora l’utilizzo delle capacità visive dei nuovi modelli dovesse andare contro le policy aziendali in materia di riservatezza. Inoltre, sono stati introdotti meccanismi di rifiuto automatico per richieste inappropriate e restrizioni per evitare il riconoscimento degli individui.
Tuttavia, l’impressionante accuratezza del modello nel localizzare luoghi, anche quando le foto sono di bassa qualità o sfocate, suggerisce che la linea tra utilizzo legittimo e sorveglianza involontaria è sempre più sottile. Diversi esperti hanno già chiesto una regolamentazione più rigida, come sottolineato anche dal dibattito aperto su The Verge e MIT Technology Review, preoccupati per gli impatti sull’identità digitale e sulla privacy urbana.
Gli utenti testano i limiti: risultati virali sui social
Negli ultimi giorni, decine di screenshot e video dimostrativi pubblicati sui social hanno mostrato l’efficacia del nuovo modello o3 nel risolvere enigmi fotografici che fino a poco fa sembravano impossibili per un’IA. L’integrazione delle capacità visive con ricerche web in tempo reale consente infatti al modello di incrociare elementi visivi con contenuti disponibili online, aumentando la probabilità di localizzazioni accurate anche senza dati integrati nel file.
Nonostante gli sforzi di OpenAI per frenare gli abusi, la capacità del modello di dedurre la posizione da una semplice immagine rappresenta una svolta tecnologica e un potenziale rischio etico, specialmente per coloro che caricano contenuti visivi in rete senza conoscere le implicazioni della nuova generazione di IA.