Rivoluzione OpenAI: le nuove IA comprendono immagini complesse
OpenAI ha annunciato l’arrivo di due nuovi modelli di intelligenza artificiale, o3 e o4-mini, portando una trasformazione radicale nelle capacità di ChatGpt, che ora integra le immagini nel proprio processo di ragionamento. Non si tratta più solo di “vedere” una foto: i modelli sono in grado di elaborare visivamente e cognitivamente i contenuti caricati.
Nel comunicato ufficiale pubblicato da OpenAI, si legge: “Per la prima volta, i nostri modelli possono pensare con le immagini nella loro catena di pensiero”. Questa innovazione consente di caricare diagrammi, schizzi o foto sfocate, anche se di bassa qualità, permettendo al sistema di capirli, interpretarli e modificarli in tempo reale.
Comprensione visiva avanzata anche da smartphone
Una delle principali innovazioni riguarda l’esperienza mobile: non è più necessario preoccuparsi dell’angolazione, della luminosità o della qualità dell’immagine. ChatGpt riesce a identificare e utilizzare elementi visivi rilevanti, come se li “osservasse”, ruotandoli, zoomando o islandoli per arricchire la risposta. Questo rappresenta un enorme passo avanti per l’interazione visiva con l’IA.
o3 e o4-mini: due modelli, due filosofie di pensiero
Il modello o3 è stato costruito per analisi complesse, adatto a problemi sofisticati che richiedono valutazioni multilivello. È destinato a gestire contesti in cui la risposta corretta non è ovvia né immediata, come avviene spesso nella filosofia, etica, o nelle scienze sociali.
Il modello o4-mini, invece, è più snello e ottimizzato per operazioni veloci, economiche e con elevata accuratezza, soprattutto nei campi Stem. Nonostante le dimensioni ridotte, ha già fissato nuovi standard di precisione, rendendolo ideale per scenari dove servono risposte rapide e affidabili.
Disponibilità e accesso ai nuovi modelli
Entrambi i modelli sono già disponibili per chi possiede un abbonamento a ChatGpt Plus, Pro o Team. La versione Enterprise e Edu riceveranno presto l’aggiornamento. Chi utilizza la versione gratuita può già iniziare a provare o4-mini selezionando l’opzione ‘Think’ nella schermata di composizione del prompt.
Secondo analisi e osservazioni di testate autorevoli come The Verge, TechCrunch e MIT Technology Review, questi modelli segnano una svolta epocale nell’evoluzione dell’intelligenza artificiale conversazionale, ridefinendo l’interazione uomo-macchina in un’ottica sempre più multimodale.