AI e cybersecurity
OpenAI lancia GPT-5.3-Codex: agente per coding e lavoro al computer con focus cyber
Abbiamo analizzato il rilascio di GPT-5.3-Codex con un taglio operativo. Qui trovi cosa introduce rispetto a GPT-5.2-Codex, perché punta ai task lunghi con tool use e come viene “incorniciato” sul piano della sicurezza con Trusted Access for Cyber.
Pubblicato il: Martedì 10 febbraio 2026 alle ore 12:15. L’articolo riflette le informazioni disponibili alla data di pubblicazione e potrebbe non includere sviluppi successivi, che possono incidere sull’inquadramento dei fatti. Eventuali aggiornamenti saranno riportati nell’Update log. In mancanza di registrazioni nell’Update log il contenuto deve considerarsi invariato rispetto alla versione pubblicata.
Ultimo aggiornamento: Martedì 10 febbraio 2026 alle ore 13:52. L’aggiornamento può includere interventi non sostanziali (revisione formale, correzioni, impaginazione o ottimizzazioni) e non implica necessariamente modifiche ai fatti riportati. Eventuali aggiornamenti di contenuto relativi agli sviluppi della notizia sono indicati nell’Update log.
Per questa analisi abbiamo ricostruito il rilascio a partire da documentazione pubblica e materiali tecnici del lancio, traducendo i passaggi chiave in implicazioni pratiche per developer e team di sicurezza. Dove serve, distinguiamo tra fatti verificati e lettura editoriale, senza forzare conclusioni.
OpenAI ha appena messo in produzione GPT-5.3-Codex e la differenza si vede in un punto preciso: non è solo “più bravo a scrivere codice”. È pensato per lavorare su un computer con sessioni lunghe, strumenti e passaggi verificabili. L’upgrade è anche prestazionale, perché viene dichiarato un salto di velocità rispetto a GPT-5.2-Codex. La parte che interessa chi fa sicurezza è la cornice: GPT-5.3-Codex viene posizionato come modello a capacità cyber elevate e arriva Trusted Access for Cyber insieme a un impegno di 10 milioni di dollari in crediti API per iniziative di difesa.
Mappa rapida: cosa cambia in quattro passaggi
| Passaggio | Cosa accade | Il segnale da notare | Conseguenza |
|---|---|---|---|
| Da modello di coding a agente operativo | GPT-5.3-Codex passa dalla scrittura di codice alla gestione di flussi end-to-end su editor, terminale e web. | Il rilascio viene valutato su benchmark che misurano automazione su computer e uso di strumenti, non solo completamento. | Per i team cambia il perimetro: delega di task lunghi con supervisione, log e verifiche. |
| Più velocità dove conta | OpenAI dichiara un salto di velocità rispetto a GPT-5.2-Codex con un impatto diretto sulle iterazioni. | L’aumento è attribuito a miglioramenti di infrastruttura e inference stack. | Meno attese tra un ciclo e l’altro e collaborazione più fluida durante le sessioni. |
| Task lunghi con tool use | Il modello è progettato per lavorare a lungo su obiettivi complessi, mantenendo continuità operativa. | Le sessioni diventano “reindirizzabili”: si può correggere rotta durante l’esecuzione. | Workflow nuovi: si supervisiona un agente invece di micro-gestire ogni commit. |
| Cyber: accesso controllato e crediti per la difesa | Debutta Trusted Access for Cyber e arriva un impegno di 10 milioni di dollari in crediti API per iniziative di cyber defense. | Per attività ad alto rischio entra in gioco la verifica dell’identità e un canale dedicato per team e ricercatori. | Capacità più avanzate ai difensori con barriere aggiuntive contro l’abuso. |
Tip: la tabella è scorrevole. Su mobile scorri con il dito a destra e a sinistra per vedere tutte le colonne.
Il focus è su sessioni lunghe e tool use: si passa dal “suggerire” al “portare a termine”.
Il salto dichiarato rispetto a GPT-5.2-Codex riduce il tempo “morto” nelle iterazioni.
Trusted Access for Cyber introduce verifica identità e accesso graduato per casi ad alto rischio.
Credito dedicato alla cyber defense attraverso un’estensione del Cybersecurity Grant Program.
Codice, tool e operazioni su computer: con GPT-5.3-Codex la posta in gioco diventa anche governance e sicurezza.
Trasparenza: fonti e metodo
Questa analisi nasce dalla lettura diretta della documentazione di rilascio e dei materiali tecnici pubblicati con il lancio. Abbiamo verificato i passaggi chiave sul sito di OpenAI e li abbiamo messi a confronto con i dettagli pubblicati da TechCrunch, Fortune e TechRadar. Sulla disponibilità per gli sviluppatori abbiamo controllato il changelog nel GitHub Blog. Sul perimetro di Trusted Access for Cyber abbiamo incrociato anche la sintesi pubblicata da SC Media.
Fonte principale: documentazione pubblica di rilascio e materiali tecnici del lancio (redazione).
Contesto essenziale: perché questo rilascio sposta l’asticella
Quando un modello di coding diventa davvero agentico succede una cosa semplice e scomoda: il valore non sta più nella singola risposta, sta nel percorso. Una patch generata in un colpo solo è utile. Una patch costruita attraverso tentativi, test, comandi e verifiche su un ambiente di lavoro cambia proprio il tipo di delega che un team può fare.
Qui entra la parte cyber. Le capacità che accelerano la difesa hanno lo stesso volto delle capacità che possono aiutare un attacco se automatizzate. Non stiamo parlando di “intenzione” del modello, stiamo parlando di scala: quando un agente può lavorare per ore su un obiettivo con tool e contesto, il confine dual-use diventa una questione di governance. Trusted Access for Cyber nasce esattamente per questo.
In breve
- GPT-5.3-Codex viene presentato come agente per coding e lavoro al computer, non come semplice completamento.
- Prestazioni: viene dichiarato un aumento di velocità del 25% rispetto a GPT-5.2-Codex, con impatto sulle iterazioni.
- Task lunghi: l’obiettivo è reggere sessioni estese con tool use e possibilità di reindirizzare il lavoro durante l’esecuzione.
- Cyber: Trusted Access for Cyber introduce accesso basato su identità e fiducia e OpenAI mette sul tavolo 10 milioni di dollari in crediti API per la difesa.
Il lancio: GPT-5.3-Codex
Se dovessimo riassumere il rilascio in una frase, diremmo così: Codex diventa un agente che sa muoversi tra contesto, strumenti e verifiche. La velocità dichiarata è importante, ma il punto vero è l’orientamento ai task lunghi. Non si tratta di ottenere “una risposta migliore”, si tratta di costruire un flusso di lavoro che regga ore di attività senza perdere coerenza.
Nota: le sezioni che seguono entrano nel dettaglio tecnico e operativo: cosa cambia nei workflow, quali sono i guardrail cyber e come si colloca l’impegno dei 10 milioni di dollari in crediti API.
Sommario dei contenuti
- Cosa introduce rispetto a GPT-5.2-Codex
- Che cosa significa “lavoro al computer” in pratica
- Prestazioni: perché il 25% cambia l’esperienza
- Disponibilità: dove si usa oggi e cosa succede con le API
- Sicurezza: posizionamento cyber e mitigazioni
- Trusted Access for Cyber: come funziona davvero
- 10 milioni di dollari in crediti API: a chi vanno e perché
- Impatto pratico su dev team e security team
- Guida rapida: come adottarlo senza alzare il rischio
- FAQ
Cosa introduce rispetto a GPT-5.2-Codex
Il salto più evidente non è un singolo “trucco” di modello, è l’intenzione del prodotto. GPT-5.3-Codex viene spinto in una direzione agentica: più continuità, più interazione con strumenti e un’idea precisa di lavoro end-to-end. La velocità dichiarata rispetto a GPT-5.2-Codex diventa funzionale a questa visione, perché un agente lento trasforma ogni ciclo di verifica in frizione.
Questo porta due conseguenze immediate. La prima è che si ragiona in termini di sessioni, non di prompt isolati. La seconda è che il valore si misura in output verificabili: test che passano, patch che riducono la superficie d’attacco e decisioni spiegate a livello di diff, non solo a livello di testo.
Che cosa significa “lavoro al computer” in pratica
Quando si parla di “lavoro al computer” non si sta descrivendo un’intelligenza astratta, si sta descrivendo una routine. Un agente credibile deve saper leggere un repository, capire cosa non torna, eseguire test, interpretare output e ripartire. La presenza di benchmark che includono automazione su computer e task di knowledge work è una dichiarazione di intenti: Codex non viene valutato soltanto sulla scrittura di codice, ma sulla capacità di completare un compito in un ambiente operativo.
Il dettaglio che vale oro per chi gestisce team è questo: l’agente deve poter essere reindirizzato. Nelle sessioni lunghe la collaborazione cambia forma. Si parte con un obiettivo, poi emergono vincoli, si aggiustano priorità, si blocca una strada e si apre un’altra. Un modello che regge questi passaggi senza “dimenticare” la traccia diventa uno strumento di produzione, non un giocattolo.
Prestazioni: perché il 25% cambia l’esperienza
Dire “25% più veloce” rischia di suonare come una cifra da brochure. In un workflow agentico però quella percentuale impatta sul tempo totale perché un task lungo è una catena di step. Ogni step è un’azione, un controllo, una verifica, un commento, un’aggiunta di contesto. Se riduci la latenza a ogni passaggio, riduci anche il costo cognitivo della supervisione: l’utente resta nel flusso e non perde il filo.
La parte interessante è che OpenAI attribuisce il salto a infrastruttura e inference stack. Tradotto in pratica: non è una “modalità turbo” casuale, è un intervento sul motore che serve a rendere sostenibili sessioni più lunghe e più frequenti.
Disponibilità: dove si usa oggi e cosa succede con le API
Oggi GPT-5.3-Codex è accessibile tramite piani a pagamento di ChatGPT e si usa ovunque sia presente Codex: app, CLI, estensione per IDE e web. Questo perimetro è già sufficiente per un pilot serio, perché copre i contesti in cui si lavora davvero.
Sull’accesso via API il messaggio è prudente: l’abilitazione viene dichiarata in lavorazione. Il motivo è coerente con la parte cyber: l’automazione su larga scala cambia il rischio, quindi si sta scegliendo un rollout controllato invece di un “via libera” immediato.
Sicurezza: posizionamento cyber e mitigazioni
Qui dobbiamo essere chiari. GPT-5.3-Codex viene posizionato come modello con capacità cyber elevate e questo non è un dettaglio comunicativo, è una decisione di governance. Quando un modello entra in quel livello, i guardrail smettono di essere un contorno. Diventano parte integrante del prodotto, al pari delle prestazioni.
La logica dichiarata è doppia. Da un lato si rafforzano le salvaguardie di base: il modello viene addestrato per rifiutare richieste chiaramente malevole e vengono usati monitor automatizzati per intercettare segnali di attività sospette. Dall’altro si introduce un canale di accesso basato su identità e fiducia per i casi d’uso difensivi ad alto rischio.
Trusted Access for Cyber: come funziona davvero
Trusted Access for Cyber è la risposta concreta al problema più spinoso in cybersecurity: la stessa richiesta può essere lecita o abusiva. Un esempio che pesa perché è banale: “trova vulnerabilità nel mio codice”. È un gesto sano dentro un processo di patching e può diventare un acceleratore di danno in mano a chi attacca.
Il framework prova a ridurre l’attrito per chi difende senza aprire un’autostrada a chi vuole abusare. In pratica l’accesso ad attività cyber ad alto rischio viene legato a passaggi di verifica: il singolo utente può validare la propria identità tramite un portale dedicato in ChatGPT, le aziende possono richiedere l’accesso per team tramite il referente commerciale e chi fa ricerca può manifestare interesse per un programma su invito quando servono capacità più permissive. Anche dentro Trusted Access resta in piedi un punto che non viene aggirato: policy e condizioni d’uso non spariscono, diventano parte del contratto operativo.
10 milioni di dollari in crediti API: a chi vanno e perché
Il dato economico non è un contorno, è un segnale strategico. OpenAI mette sul tavolo 10 milioni di dollari in crediti API per la cyber defense attraverso un’estensione del Cybersecurity Grant Program. Il criterio dichiarato è chiaro: partnership con team che hanno un track record reale di identificazione e remediation di vulnerabilità in software open source e infrastrutture critiche.
La lettura più utile per chi lavora nel settore è questa: il credito serve a far girare casi d’uso difensivi “a contatto” con la realtà e a costruire feedback rapido su policy, monitor e calibrazione. In altre parole, i crediti non sono beneficenza. Sono carburante per un banco di prova dove la difesa mette pressione al modello e la piattaforma impara a distinguere meglio tra uso lecito e abuso.
Impatto pratico su dev team e security team
Nei team di sviluppo l’impatto è immediato: un agente più veloce e pensato per sessioni lunghe sposta attività ripetitive ma rischiose verso un flusso più controllabile. Un esempio che abbiamo discusso in redazione è l’aggiornamento di una dipendenza vulnerabile in un progetto reale. In un workflow agentico maturo l’agente può analizzare la vulnerabilità, aggiornare versione e lockfile, eseguire test e proporre una PR con note tecniche, mentre il reviewer umano verifica scelte e impatto.
Nei team security la differenza sta nella riduzione dell’attrito. Se devi triagiare una disclosure o verificare una remediation, la parte che brucia tempo non è la teoria, è la frizione tra strumenti. Un agente che regge tool use e passaggi verificabili può comprimere tempi su attività come analisi diff, riproduzione di bug e generazione di test di regressione. Questo resta difesa, ma diventa difesa con throughput.
Guida rapida: come adottarlo senza alzare il rischio
Abbiamo messo insieme un approccio pragmatico che tiene insieme velocità e controllo. Non serve “credere” al modello, serve gestirlo come si gestisce un tool potente.
- Pilot in sandbox: ambienti isolati, repo non critici e permessi minimi finché non hai confidenza.
- Log obbligatori: vuoi poter ricostruire comandi, output e decisioni, soprattutto quando il task dura a lungo.
- Review umana: niente merge automatico. L’agente accelera, ma la responsabilità resta tua.
- Policy interne: allinea i casi d’uso a disclosure, change management e requisiti di compliance.
- Soglia di stop: definisci quando interrompere l’automazione se emergono comportamenti imprevisti o contesti ambigui.
Guida pratica: dove usarlo e come iniziare
Dove si usa
L’accesso oggi passa dai piani a pagamento di ChatGPT e dalle superfici Codex: app, CLI, estensione per IDE e web. Questo è il punto operativo: puoi mettere GPT-5.3-Codex in un flusso reale senza aspettare integrazioni “future”.
Come impostare un test che dica qualcosa
Se lo provi su un esempio giocattolo ottieni una demo, non una valutazione. Scegli invece un task che oggi fa perdere tempo al team ma che resta verificabile: refactor con test, migrazione di dipendenze o hardening di configurazioni. A quel punto misuri due cose che contano davvero: qualità del diff e qualità del percorso.
Suggerimento concreto: quando l’agente propone una modifica, chiedi sempre un test di regressione scritto da lui e poi fallo girare. Se non è in grado di costruire una prova ripetibile, quel task non è ancora pronto per l’automazione.
Il commento dell’esperto
La parte interessante di GPT-5.3-Codex non è soltanto la potenza. È la scelta di legare la potenza a un modello di accesso. In un mercato dove le capacità cyber diventano diffuse, la differenza competitiva si sposta sul controllo: chi riesce a mettere gli strumenti giusti nelle mani giuste prima degli altri vince due volte. Riduce rischio e accelera difesa.
Trusted Access for Cyber ci dice anche un’altra cosa. OpenAI sta trattando la cybersecurity come dominio a governance speciale. Non è un’etichetta, è un vincolo di prodotto: identità, monitor e canali graduati diventano feature al pari di velocità e benchmark. Questa impostazione è destinata a influenzare tutto il resto degli agenti “che fanno cose” sul computer.
Il secondo segnale è economico. I 10 milioni di dollari in crediti API spingono i difensori a usare davvero il modello, con casi reali e cicli di feedback. Per chi lavora in sicurezza è un’opportunità tecnica. Per la piattaforma è un modo per calibrare policy e mitigazioni su traffico autentico, non su simulazioni.
Questo è un commento editoriale: una lettura basata su documentazione, posizionamento di prodotto e implicazioni operative osservabili nel modo in cui viene costruito l’accesso.
A cura di Junior Cristarella.
Domande frequenti
Che cos’è GPT-5.3-Codex e cosa cambia rispetto a GPT-5.2-Codex?
È l’ultima iterazione di Codex e sposta l’asse verso un comportamento agentico: più velocità, sessioni lunghe con tool use e capacità progettate per “lavorare al computer” oltre al semplice suggerimento di codice.
Dove si usa oggi GPT-5.3-Codex?
È disponibile sui piani a pagamento di ChatGPT e si usa ovunque sia presente Codex: app, CLI, estensione per IDE e web.
L’accesso via API è già disponibile?
No. Lo stato dichiarato è “abilitazione in lavorazione” con un rollout prudente. Il punto è ridurre il rischio di automazione su larga scala nelle aree cyber ad alto rischio.
Che cosa significa “Trusted Access for Cyber”?
È un framework basato su identità e fiducia pensato per far arrivare capacità cyber avanzate a difensori verificati. Prevede verifica identità per singoli utenti, richiesta di accesso per team e un canale su invito per esigenze più permissive.
A cosa servono i 10 milioni di dollari in crediti API?
Sono destinati a iniziative di cyber defense attraverso il Cybersecurity Grant Program, con attenzione a team che dimostrano un track record di identificazione e remediation di vulnerabilità in open source e infrastrutture critiche.
Trusted Access elimina i vincoli sulle attività cyber?
No. L’accesso fidato è un canale per ridurre attrito nella difesa mantenendo policy e controlli. Le attività proibite restano fuori e la conformità alle regole è parte dell’accesso.
Come lo provo in azienda senza aumentare il rischio?
Parti da un pilot in sandbox con permessi minimi, log obbligatori e revisione umana prima del merge. Se lavori su incidenti reali usa contesti redatti e processi tracciabili.
Timeline operativa: adozione prudente di un agente di coding
Apri le fasi in ordine. È una traccia pratica per adottare GPT-5.3-Codex senza trasformare la potenza in rischio.
-
Fase 1 Pilot controllato: definire confini e metriche
- Seleziona repo e ambienti di test isolati prima di toccare sistemi critici.
- Decidi in anticipo cosa deve produrre l’agente: patch, test, report o PR.
Perché conta: Un modello agentico è potente solo quanto la cornice di controllo che gli costruisci attorno.
-
Fase 2 Adozione dev: task lunghi, tool use e supervisione
- Usalo su refactor, migrazioni e aggiornamenti dipendenze con pipeline riproducibile.
- Pretendi log di comandi, output test e motivazioni per ogni scelta.
- Inserisci un punto di revisione umana prima del merge.
Perché conta: La velocità è utile quando resta verificabile e quando i passaggi sono ricostruibili.
-
Fase 3 Adozione security: ridurre attrito senza perdere controllo
- Spostalo su triage di vulnerabilità, analisi diff e verifica di remediation.
- Allinea policy e regole di utilizzo ai processi di disclosure e change management.
- Usa dataset interni redatti e mascherati quando serve lavorare su incidenti reali.
- Traccia richieste e risposte per audit e incident review.
Perché conta: In cyber il confine tra difesa e abuso è sottile, la governance deve essere esplicita.
-
Fase 4 Trusted Access: accesso graduato per attività ad alto rischio
- Valuta se rientri nei casi d’uso che richiedono verifica identità o accesso per team.
- Se sei un ricercatore con esigenze più permissive considera il canale su invito.
Perché conta: Il punto non è bloccare la difesa, è evitare che la stessa potenza diventi scalabile per chi attacca.
-
Fase 5 Scala e miglioramento continuo
- Misura il ritorno: tempo risparmiato su bugfix e qualità delle patch.
- Aggiorna prompt, policy interne e controlli in base ai casi reali che emergono.
- Definisci una soglia chiara per interrompere l’automazione quando il rischio sale.
Perché conta: Gli agenti non sono “set and forget”: la parte adulta è la manutenzione del processo.
Chiusura
GPT-5.3-Codex è un rilascio che mette insieme tre cose che di solito vengono trattate separatamente: capacità agentica, velocità e governance. Il punto non è se l’agente può fare di più. Il punto è se noi, come ecosistema, sappiamo mettere limiti e procedure mentre lo facciamo lavorare. Trusted Access for Cyber e i 10 milioni di dollari in crediti API sono la risposta di OpenAI a questo paradosso: accelerare la difesa senza rendere più semplice l’abuso.
Approfondimenti correlati
Tecnologia: AI, cybersecurity e innovazione
Il nostro hub tecnologia: analisi, strumenti, policy e impatti concreti di AI e sicurezza informatica.
Apri la pagina hubUpdate log
Registro degli aggiornamenti sostanziali: trasparenza su modifiche, correzioni e integrazioni informative.
- Martedì 10 febbraio 2026 alle ore 13:05: Integrata la sezione su Trusted Access for Cyber con dettagli operativi su verifica identità, accesso per team e canale su invito.
- Martedì 10 febbraio 2026 alle ore 13:27: Rafforzata la parte sui 10 milioni di dollari in crediti API: criteri di ammissibilità e obiettivi del Cybersecurity Grant Program per la difesa.
- Martedì 10 febbraio 2026 alle ore 13:52: Aggiornata la comparazione con GPT-5.2-Codex e chiarito lo stato dell’accesso API: priorità a rollout controllato e mitigazioni cyber.