Un cambio di passo vero: OpenAI ha trasformato ChatGPT in un ambiente dove app, agenti e nuovi modelli lavorano insieme, accorciando la distanza tra idea e prodotto. Numeri e ambizioni sono evidenti, ma il cuore è l’accessibilità: più strumenti, più velocità, più controllo per chi costruisce e per chi usa ogni giorno l’IA.
Un ecosistema che mette le app dentro la conversazione
La novità più tangibile è l’arrivo delle app direttamente in ChatGPT, sviluppate con un nuovo Apps SDK e pensate per dialogare nel flusso della chat. L’utente può chiedere a Canva di impaginare un poster, a Zillow di mostrare case su una mappa interattiva o a Spotify di preparare una playlist, senza uscire dalla conversazione. L’integrazione parte con partner come Booking.com, Coursera, Expedia, Figma, Spotify e Zillow, con una directory e invio di app in revisione attesi entro fine anno, come hanno raccontato testate che hanno seguito dal vivo l’annuncio.
Il lancio è pensato per dare ai developer accesso a un pubblico enorme: oltre quattro milioni di sviluppatori hanno già usato l’API e gli utenti settimanali superano gli ottocento milioni, dati che spiegano l’interesse dei brand a “entrare” nella chat. L’attivazione avviene fuori da UE e Regno Unito nella fase iniziale, con estensione successiva: un dettaglio operativo che emerge dai resoconti tecnici e che incide su roadmap e priorità di localizzazione.
Agenti pronti alla produzione: nasce AgentKit, con guardrail integrati
Per passare dai prototipi a flussi affidabili, AgentKit propone blocchi costruttivi chiari: un builder visuale per orchestrare passaggi, un’interfaccia ChatKit da incorporare e strumenti di valutazione per misurare performance. La logica è rendere gli agenti più veloci da progettare, testare e mettere in produzione, con un’attenzione pratica a latenza, stabilità e sicurezza, come raccontato durante la conferenza e ripreso da analisi indipendenti.
In parallelo, le guardrails diventano parte del kit: controlli in ingresso e in uscita che possono interrompere l’esecuzione se si attivano i “tripwire”, evitando chiamate costose o comportamenti indesiderati. È una sicurezza che scorre a fianco dell’agente, configurabile per ogni workflow, con implementazioni disponibili nelle guide dell’Agents SDK. Un’impostazione utile soprattutto in scenari regolati o con dati sensibili, dove prevenire è più efficace che correggere a valle.
Modelli di nuova generazione: GPT‑5 e la versione Pro per compiti critici
Il nuovo GPT‑5 segna un salto di intelligenza e flessibilità: un sistema capace di decidere quando rispondere rapido e quando “pensare” più a fondo, con miglioramenti su coding, ragionamento e multimodalità. La disponibilità è duplice, in ChatGPT e in API, con varianti che bilanciano prestazioni, costi e latenza per casi d’uso diversi. È la base su cui migliaia di team stanno già sperimentando agenti e applicazioni professionali.
Accanto a questo, GPT‑5 Pro è presentato come la scelta per ambiti ad alto rischio decisionale – finanza, sanità, legale – dove serve più tempo di ragionamento e accuratezza superiore. Durante l’evento è stata evidenziata la disponibilità via API, con l’obiettivo di portare nei flussi aziendali decisioni più robuste e verificabili; un orientamento confermato anche dalle cronache che hanno seguito la keynote e i briefing tecnici.
Video generativo: Sora 2 accelera, l’API entra nell’agenda
Nel video generativo, Sora 2 introduce maggiore coerenza fisica e controllo creativo, con dialoghi e sound design sincronizzati e un’app dedicata che parte da USA e Canada. La documentazione ufficiale indica l’API come prossima tappa, mentre nel frattempo cresce l’adozione pilota in settori creativi: la collaborazione con Mattel è un segnale di come il design prodotto possa trarre vantaggio da prototipi video rapidi e condivisibili.
Alcune testate hanno riportato, in concomitanza con l’evento sviluppatori, l’arrivo di accessi via API per la creazione di video; una lettura che si affianca alla posizione ufficiale, focalizzata su app, rollout a inviti e pianificazione dell’apertura dell’API. In questo scenario, chi sviluppa deve valutare attentamente disponibilità reale, capacità e tempi, integrando le funzionalità dove già operative e predisponendo l’architettura per l’API quando sarà effettivamente rilasciata.
Il coding diventa collaborativo: Codex esce dalla preview
Codex passa alla disponibilità generale con un set di strumenti che porta l’agente di software engineering ovunque: terminale, IDE, cloud e persino mobile. Arrivano un Codex SDK per estensioni e automazioni, l’integrazione con Slack per avviare e seguire task dai canali di team, e nuovi controlli amministrativi per governance e sicurezza. È un passo atteso, dopo mesi di prova in cui l’agente ha affinato revisione e refactoring end‑to‑end.
La traiettoria è netta anche sul fronte modelli: l’arrivo di GPT‑5‑Codex nei flussi di Codex e, più recentemente, nell’API Responses, consolida la specializzazione sull’agentic coding, con sessioni interattive rapide e tenuta sui compiti lunghi. L’obiettivo non è sostituire lo sviluppatore, ma potenziare i team, liberando tempo dai passaggi ripetitivi e rendendo la qualità del codice più misurabile e costante nel ciclo di vita.
Costi, latenza e controllo operativo: tagli mirati e nuove leve
Per sostenere adozioni su larga scala, OpenAI introduce leve concrete su costo e performance. Nel dominio voce, la nuova variante gpt‑realtime‑mini nasce per ridurre la spesa mantenendo qualità naturale e prontezza, un posizionamento sottolineato durante la keynote. A livello infrastrutturale, Priority processing offre percorsi a bassa latenza con obiettivi di servizio e regole di ramp‑up chiare per evitare downgrade, mentre Scale Tier permette capacità prevedibile con SLA su uptime e velocità.
La gestione quotidiana, spesso trascurata, guadagna visibilità grazie a nuove pagine di Usage con granularità al minuto su tokens per minute, utili per individuare colli di bottiglia e calibrare cache o batching. È un tassello cruciale per chi deve tenere insieme esperienza utente e budget, misurando time to first token, token velocity e andamento delle chiamate in relazione ai pattern reali della propria base utenti.
Voci dal mercato: quando i servizi incontrano gli utenti nel luogo giusto
La strategia di portare i servizi dove già avvengono le conversazioni convince partner di peso. Spotify ha annunciato l’integrazione in ChatGPT per raccomandazioni personalizzate e gestione diretta della libreria, con un modello di consenso esplicito per il collegamento dell’account e tutele sui contenuti dei creator. Un passo coerente con la visione della piattaforma e con l’idea di una musica “a portata di chat”, pronta ad accompagnare attività quotidiane e scoperte improvvise.
Nel turismo, la presenza di Booking.com tra le app iniziali si innesta su un percorso pluriennale d’uso dell’IA per filtri intelligenti, Q&A di proprietà e itinerari conversazionali, già raccontato fra case study e comunicati. Portare queste funzioni dentro la chat significa ridurre frizione e tempi di scelta, avvicinando il momento decisionale all’ispirazione, un obiettivo che i grandi marchi del travel inseguono da tempo.
Chiarimenti rapidi, per decidere bene
Le app in ChatGPT sono disponibili in Europa?
All’avvio la funzionalità è destinata ai mercati extra‑UE e Regno Unito escluso, con ampliamento previsto successivamente. È una fase di rollout graduale, legata a requisiti locali e alla progressiva apertura dell’ecosistema.
Sora 2 si può già usare via API nei prodotti aziendali?
La posizione ufficiale indica l’API come prossima tappa: oggi l’accesso avviene tramite app e inviti, con piani di estensione. Alcune testate, durante l’evento, hanno riferito disponibilità API; chi sviluppa dovrebbe verificare lo stato attuale prima di pianificare integrazioni critiche.
Che cosa differenzia GPT‑5 Pro?
È la variante che “pensa di più” per compiti complessi, mirata a settori dove accuratezza e tracciabilità del ragionamento sono imprescindibili. La disponibilità via API è stata evidenziata in sede di presentazione, con focus su qualità del risultato e affidabilità del processo.
Quali strumenti aiutano a governare costi e prestazioni?
Priority processing per bassa latenza con regole di rampa, Scale Tier con SLA e capacità prevedibili, e una nuova Usage view con granularità al minuto su metriche come TPM. Questi tasselli consentono di calibrare caching, batching e routing in base ai picchi reali.
La traiettoria che conta: dal prototipo al valore
Quello che abbiamo visto non è solo un elenco di novità: è una tesi precisa su come vivremo il software. Spostare app e agenti dentro la conversazione cancella tap superflui, riduce i tempi morti e riporta l’attenzione sull’intento dell’utente. È un cambio di linguaggio e di ritmo, che entusiasma perché fa intravedere un digitale più immediato, ma che chiede maturità nelle scelte architetturali e nelle metriche di successo.
La responsabilità adesso passa a chi costruisce: decidere quando usare GPT‑5, quando affidarsi a Codex, come disegnare guardrails sensati, come misurare TTFT e stabilità in produzione. È qui che si gioca la differenza fra demo e impatto reale. E, a nostro giudizio, è qui che l’innovazione diventa quotidianità: quando la tecnologia scompare e resta la sensazione nitida di un lavoro fatto meglio, in meno tempo, con più serenità.
