Cisco Live EMEA 2026
Cisco Live EMEA: Cisco presenta Silicon One G300, AgenticOps e aggiorna AI Defense
Abbiamo messo sotto la lente gli annunci del 10 febbraio 2026: un nuovo chip da 102,4 Tbps per reti di cluster AI, un modello di operazioni agentiche che si espande su networking, security e osservabilità e un aggiornamento di AI Defense che entra nella governance e nel runtime dei workflow agentici. Focus Italia sulla sovranità operativa: CNSC in sviluppo.
Pubblicato il: Martedì 10 febbraio 2026 alle ore 12:08. L’articolo riflette le informazioni disponibili alla data di pubblicazione e potrebbe non includere sviluppi successivi, che possono incidere sull’inquadramento dei fatti. Eventuali aggiornamenti saranno riportati nell’Update log. In mancanza di registrazioni nell’Update log, il contenuto deve considerarsi invariato rispetto alla versione pubblicata.
Ultimo aggiornamento: Martedì 10 febbraio 2026 alle ore 13:56. L’aggiornamento può includere interventi non sostanziali (revisione formale, correzioni, impaginazione o ottimizzazioni) e non implica necessariamente modifiche ai fatti riportati. Eventuali aggiornamenti di contenuto relativi agli sviluppi della notizia sono indicati nell’Update log.
Per questa ricostruzione abbiamo analizzato in prima persona comunicati e schede tecniche pubblicate oggi e abbiamo verificato la coerenza dei dettagli con materiali di riferimento e coperture stampa qualificate. Le fonti utilizzate, citate una sola volta per trasparenza: Cisco.com, Reuters, The Register, Techzine e il calendario ufficiale Cisco Live.
Abbiamo passato le ultime ore a leggere i documenti che contano e il messaggio che arriva da Amsterdam è molto più concreto di una semplice “nuova generazione”. Silicon One G300 è un tentativo esplicito di rendere la rete parte del rendimento delle GPU: 102,4 Tbps, 252 MB di buffer condiviso e una gestione della congestione che reagisce in hardware quando i burst diventano la normalità. AgenticOps prova a togliere attrito all’operatività con telemetria cross-domain e workflow agentici controllati dall’uomo. AI Defense si allarga alla governance della supply chain e alle protezioni runtime per il tool use degli agenti, mentre la SASE “AI-aware” entra in ottimizzazione del traffico e controlli su MCP. Il dettaglio che in Italia va letto con attenzione: un Cisco Critical National Services Center indicato come in sviluppo, che porta la sovranità anche dentro il supporto.
Mappa rapida: cosa cambia in quattro mosse
| Passaggio | Cosa accade | Il dettaglio da notare | Conseguenza |
|---|---|---|---|
| Silicon One G300 | Switch silicon da 102,4 Tbps progettato per reti Ethernet di cluster AI e workload agentici in tempo reale. | Radix fino a 512 porte, SerDes da 200 Gbps integrati e supporto a porte Ethernet fino a 1,6T. | Obiettivo dichiarato: rete più utilizzata e job che finiscono prima, con meno intervento manuale a runtime. |
| Traffic engineering “in silicon” | Intelligent Collective Networking porta buffer condiviso e load balancing a livello di percorso per assorbire burst e gestire congestione. | Packet buffer condiviso da 252 MB e selezione del percorso che reagisce in hardware a congestione o fault. | Il tema vero è proteggere l’efficienza delle GPU quando il traffico diventa imprevedibile e intermittente. |
| Dai chip ai sistemi | Arrivano sistemi Nexus 9000 e Cisco 8000 basati su G300, più una nuova ondata di ottiche fino a 1,6T e un piano “liquid cooled”. | Focus su data center ad alta densità e su operazioni semplificate tramite Nexus One come piano di gestione unificato. | Qui si costruisce la “catena” completa: silicio, chassis, ottiche e management per la scala gigawatt. |
| AgenticOps, AI Defense e sovranità | AgenticOps automatizza operazioni su networking, security e osservabilità. AI Defense e SASE aggiungono governance e controlli sui flussi agentici. Spunta un CNSC in sviluppo in Italia. | Controlli su MCP, ispezione intent-aware, ottimizzazione traffico AI. Sul supporto: centri con processi segregati e personale abilitato. | Si prova a rendere agenti affidabili, rete prevedibile e supporto compatibile con ambienti sensibili e regolati. |
Tip: la tabella è scorrevole. Su mobile scorri con il dito a destra e a sinistra per vedere tutte le colonne.
Ethernet switching di fascia altissima con porta fino a 1,6T e scala pensata per reti più piatte.
Buffer condiviso da 252 MB e path-based load balancing per assorbire burst e ridurre l’impatto dei picchi.
Troubleshooting e ottimizzazione che si spostano verso automazione guidata da telemetria, con controllo umano sugli esiti.
AI Defense entra su supply chain e runtime. SASE diventa “AI-aware”. In Italia pesa il CNSC in sviluppo per supporto in ambienti sensibili.
Il punto non è solo “più banda”: qui la rete viene trattata come parte del compute e come leva operativa per far rendere le GPU su scala enorme.
Trasparenza: fonti e metodo
Il nostro lavoro, qui, è stato tecnico prima che narrativo. Abbiamo preso i numeri dichiarati, li abbiamo ricondotti a cosa significano davvero in un fabric Ethernet per GPU e li abbiamo messi in relazione con il tema più grande che Cisco sta spingendo: agenti che agiscono a velocità macchina e infrastruttura che deve reggere quel ritmo senza diventare fragile.
I dettagli operativi e di roadmap sono stati ricostruiti a partire da materiali pubblicati il 10 febbraio 2026 e da contenuti di approfondimento che esplicitano meccanismi, target di disponibilità e razionale tecnico.
Fonte principale: documentazione ufficiale rilasciata a Cisco Live EMEA (redazione).
Contesto essenziale: perché “gigawatt” cambia tutto
La parola “gigawatt” non è un vezzo da keynote. È una soglia concettuale. Quando un cluster AI cresce al punto da spalmarsi su più ambienti e da impattare energia e raffreddamento come variabili di progetto, la rete diventa un componente che decide il rendimento del compute.
Abbiamo verificato che Cisco sta legando due mondi che finora venivano trattati separati: la meccanica della congestione dentro il fabric e l’operatività quotidiana che tiene in piedi il fabric. Il G300 è il primo mattone perché prova a trattare i burst come un dato strutturale. AgenticOps è il secondo mattone perché prova a togliere interventi manuali e tempi morti dalle operations.
In breve
- G300 porta 102,4 Tbps e spinge su radici alte e porte fino a 1,6T per reti più piatte.
- Intelligent Collective Networking unisce buffer condiviso, load balancing a livello di percorso e telemetria per difendere l’efficienza del cluster.
- AgenticOps sposta troubleshooting e ottimizzazione verso un ciclo chiuso basato su telemetria cross-domain e AI Assistant.
- AI Defense e SASE entrano nel comportamento degli agenti e nel traffico AI, con un tassello di sovranità operativa che tocca l’Italia.
Cosa Cisco sta costruendo a Cisco Live EMEA
Il modo più onesto per leggerla è questo: Cisco sta provando a far coincidere performance, operazioni e sicurezza in un’unica traiettoria. Il chip è il titolo in prima pagina perché è un numero grande e perché entra in un mercato competitivo. La storia vera, però, sta nel dettaglio su come si gestisce la congestione e su come si rende l’infrastruttura governabile quando gli agenti iniziano a parlare tra loro.
Nota di lettura: sotto trovi una ricostruzione tecnica, con numeri, meccanismi e implicazioni operative. I passaggi “editoriali” sono deduzioni logiche basate sui fatti verificati e sono indicati come tali nel flusso del testo.
Sommario dei contenuti
- Silicon One G300: cosa porta davvero
- Intelligent Collective Networking: i tre meccanismi che cambiano l’operatività
- Sistemi, ottiche e Nexus One: la catena completa
- AgenticOps: dalla diagnosi al ciclo chiuso
- AI Defense e SASE: governance, runtime e traffico
- Angolo Italia: CNSC e sovranità operativa
- Guida pratica: cosa chiedere se stai progettando un cluster AI
- FAQ
Silicon One G300: cosa porta davvero
Partiamo dal dato chiave: 102,4 Tbps di capacità di switching Ethernet in un singolo dispositivo. È la cifra che Cisco usa per posizionarsi nella fascia in cui oggi si giocano i fabric per cluster GPU. Il punto che abbiamo trovato più significativo è il modo in cui questa cifra viene “spesa”: radix alto, porte fino a 1,6T e SerDes da 200 Gbps integrati.
Traduzione operativa: la promessa è una rete più piatta, con più compute agganciato più vicino al bordo del fabric. La deduzione logica, qui, è semplice: meno livelli e meno intermediazione significano meno punti di congestione e meno margine per accumulare latenza. Questo non elimina i problemi, li rende più governabili.
Intelligent Collective Networking: i tre meccanismi che cambiano l’operatività
Cisco mette un’etichetta a un set di funzioni che, lette bene, parlano la lingua di chi gestisce cluster. Non stiamo parlando solo di “più banda”. Stiamo parlando di come assorbire il comportamento più antipatico dei carichi AI: burst che arrivano all’improvviso e fanno deragliare l’efficienza.
Primo meccanismo: packet buffer condiviso da 252 MB. Non è un buffer per “fare scorta”, è un ammortizzatore. Il buffer condiviso è pensato per permettere a un pacchetto che entra da qualsiasi porta di occupare qualsiasi spazio disponibile, con l’obiettivo dichiarato di aumentare la capacità di assorbire burst e di evitare cali di performance.
Secondo meccanismo: path-based load balancing che reagisce in hardware. Qui la parte interessante non è la parola “load balancing”, la parte interessante è la velocità: reazione all’istante a congestione o fault senza aspettare un tuning software. La deduzione che facciamo è che Cisco stia cercando di ridurre il lavoro “artigianale” di ottimizzazione che oggi, su certe topologie, richiede competenze rare e tempo.
Terzo meccanismo: telemetria proattiva con diagnostica di sessione programmabile. È la scelta che collega direttamente il silicio a AgenticOps: senza visibilità, un’operazione agentica diventa un’automazione cieca.
Su questi tre punti Cisco mette numeri molto precisi: +33% di throughput o utilizzo di rete e -28% sui tempi di completamento dei job. Nei materiali è esplicitato che si tratta di risultati su simulazioni e confronti con approcci basati su packet spray. Noi li leggiamo come prova di ambizione, non come promessa universale uguale per qualunque topologia.
Sistemi, ottiche e Nexus One: la catena completa
Un ASIC non vale nulla se non esiste un modo pratico per metterlo in produzione. Qui Cisco annuncia due famiglie di sistemi che si agganciano al G300: Nexus 9000 e Cisco 8000. Il dettaglio che segna il contesto del 2026 è la spinta sul raffreddamento: viene esplicitata la disponibilità di sistemi 100% liquid cooled.
Sul fronte trasporto fisico, entra un portafoglio di ottiche che arriva fino a 1,6T. Questo non è accessorio: se stai davvero giocando in densità, ottiche e cablaggio diventano parte del budget e parte del rischio.
La terza gamba è Nexus One come piano di gestione unificato per data center on-prem e cloud. Il sottotesto è chiaro: la scala gigawatt non si governa con tool isolati. Serve un posto unico dove osservabilità, operazioni e policy di rete si parlano.
AgenticOps: dalla diagnosi al ciclo chiuso
AgenticOps viene presentato come un’estensione del concetto di AIOps verso un modello in cui la piattaforma non suggerisce soltanto, ma è in grado di eseguire azioni entro confini controllati. La cosa che abbiamo verificato nei dettagli è il perimetro: networking, security e osservabilità. Questo perimetro si regge su una frase chiave che vale più di molte slide: telemetria cross-domain.
Sul networking, i capisaldi sono quattro: troubleshooting autonomo, ottimizzazione continua, validazione fidata prima dei cambi e metriche di esperienza. La parte pratica sta nei tempi indicati: un rollout iniziale a febbraio 2026 per reti campus, branch e industrial e una disponibilità controllata a giugno 2026 per il data center dentro Nexus One.
Sul security, AgenticOps entra in Security Cloud Control con disponibilità generale indicata per maggio 2026. I casi citati sono concreti: raccomandazioni proattive su traffico firewall, controllo zero trust e troubleshooting di problemi come gli elephant flows.
Sull’osservabilità, c’è un tassello che ci interessa perché parla direttamente con la sicurezza: AI Agent Monitoring in Splunk, con disponibilità generale indicata per il 25 febbraio, più integrazione con AI Defense per mitigare rischi come data leakage e prompt injection.
AI Defense e SASE: governance, runtime e traffico
L’aggiornamento di AI Defense viene raccontato come “il più grande” dalla nascita della soluzione. Il perimetro è doppio: governance della supply chain e protezioni runtime per l’uso di tool da parte degli agenti. La deduzione che facciamo è che Cisco stia cercando di chiudere il cerchio: non basta controllare il modello, serve controllare anche ciò che il modello tocca.
Sul versante SASE, il pezzo davvero nuovo è l’idea di un traffico AI riconosciuto e trattato in modo specifico. La documentazione esplicita tre elementi operativi: ottimizzazione del traffico durante i picchi anche con tecniche come la duplicazione dei pacchetti, visibilità e policy control su MCP e ispezione “intent-aware” delle interazioni e delle richieste di tool.
A valle, Cisco collega anche la resilienza crittografica: con IOS XE 26 viene indicata l’introduzione di una post-quantum cryptography “full-stack” su router sicuri e smart switch. È un segnale che va letto come investimento sul lungo periodo: si pensa già a comunicazioni cifrate resistenti a nuove classi di attacchi.
Angolo Italia: CNSC e sovranità operativa
Qui andiamo dritti al punto, perché è la parte più interessante per chi lavora in ambienti regolati. Nei materiali di oggi Cisco dice una cosa che troppo spesso viene lasciata ai margini: hardware e software non bastano, anche il supporto deve rispettare confini.
I Cisco Critical National Services Centers vengono descritti come centri con controlli rigorosi, facility dedicate, processi operativi segregati e personale abilitato. Vengono posizionati oltre i canali standard di assistenza e con l’obiettivo di gestire ticket e risoluzioni in canali approvati che rispettano policy di gestione dati.
La frase che ci riguarda è netta: esiste un CNSC in sviluppo in Italia. Non abbiamo trovato nei documenti una data precisa e non abbiamo un dettaglio pubblico sul perimetro industriale. La deduzione, però, è solida: Cisco sta mettendo un mattone operativo per chi ha vincoli di sovranità che non si risolvono con un contratto cloud, perché includono persone, processi e catene di escalation.
Guida pratica: cosa chiedere se stai progettando un cluster AI
Se stai pianificando un cluster per training o per inference “agentica”, questi annunci diventano utili solo se li trasformi in domande da mettere a verbale. Abbiamo selezionato le verifiche che hanno senso subito.
Domande tecniche da portare in RFP o in lab
- Congestione: come si comporta il fabric sotto burst reali del tuo workload e quale parte della gestione è davvero hardware-driven.
- Telemetria: quali segnali sono disponibili a livello di sessione e come si integrano con workflow agentici e con i tool di observability già in uso.
- Operazioni: cosa è automation e cosa è assistenza. Pretendi la distinzione tra suggerimento, esecuzione e controllo umano.
- Sicurezza agentica: come viene governato l’uso dei tool, come si controlla MCP e come si evita che un agente diventi un canale di esfiltrazione.
- Sovranità: in ambienti sensibili chiedi dove passano i flussi di supporto, chi vede cosa e con quali processi segregati.
La nostra sintesi operativa: G300 parla di efficienza del fabric, AgenticOps parla di efficienza del team, AI Defense parla di fiducia negli agenti. Se uno dei tre anelli manca, la scala gigawatt diventa un esercizio di potenza senza controllo.
Come leggerla da decisore: tre scelte che emergono
Abbiamo notato una cosa che raramente viene detta in modo esplicito. A questa scala, il confronto non è tra “chip” e “chip”. Il confronto è tra modelli: quanta parte dell’efficienza ottieni con overprovisioning e quanta parte la ottieni con gestione della congestione, telemetria e automazione.
La seconda scelta è organizzativa: vuoi una rete che richiede tuning manuale continuo oppure vuoi spostare una parte del lavoro su cicli agentici, con guardrail e governance? AgenticOps, se funziona come viene descritto, è una scommessa sulla riduzione del tempo speso in diagnosi e remediation.
La terza scelta è di rischio: agenti in workflow critici significano attacchi nuovi e superfici nuove. Qui AI Defense e SASE “AI-aware” sono il tentativo di portare policy, ispezione e controllo nel punto in cui l’agente prende azione, non solo nel punto in cui il traffico esce.
Domande frequenti
Che cos’è Silicon One G300 in una frase comprensibile?
È un chip di switching Ethernet da 102,4 Tbps pensato per costruire reti di cluster AI molto grandi, dove la priorità è non far aspettare le GPU quando il traffico diventa intenso e variabile.
Perché Cisco parla di cluster AI “a scala gigawatt”?
Perché l’AI su larga scala spinge i data center verso consumi e densità tali da rendere energia, distanza e latenza parte del progetto. La rete, in quel contesto, deve reggere sia comunicazioni GPU ad alta banda sia pattern più imprevedibili tipici dei workload agentici.
Cosa c’è dentro Intelligent Collective Networking e perché conta?
Il cuore è la gestione dei burst e della congestione: un packet buffer condiviso molto ampio, un bilanciamento dei percorsi che reagisce in hardware a congestione o fault e una telemetria programmabile che rende visibili colli di bottiglia e anomalie senza fermare l’operatività.
I numeri 33% e 28% come vanno letti?
Sono risultati dichiarati su simulazioni e confronti con approcci di traffico non ottimizzati o basati su packet spray. Noi li leggiamo come indicatore della direzione: Cisco sta provando a spostare l’efficienza dalla “forza bruta” alla gestione della congestione e all’uso più intelligente dei link.
Quando arrivano davvero i primi sistemi G300?
La documentazione indica la seconda metà del 2026 come finestra per la prima disponibilità di sistema. In parallelo vengono annunciati sistemi Nexus 9000 e Cisco 8000 basati su G300 nel corso del 2026, con configurazioni orientate anche al raffreddamento a liquido.
Che cosa intende Cisco con AgenticOps?
È un insieme di capacità agentiche distribuite su networking, security e osservabilità, alimentate da telemetria cross-domain. L’obiettivo operativo è portare troubleshooting e ottimizzazione verso un ciclo chiuso, riducendo i tempi di diagnosi e prevenendo degradamenti prima che colpiscano utenti e applicazioni.
Che cosa cambia con l’aggiornamento di AI Defense e con l’AI-aware SASE?
AI Defense si estende a governance della supply chain e a protezioni runtime per l’uso di tool da parte degli agenti. Sul fronte SASE entrano meccanismi per riconoscere traffico AI e applicare ottimizzazioni, oltre a controlli su MCP e ispezione “intent-aware” delle interazioni e delle richieste di tool.
Che cosa sono i Cisco Critical National Services Centers e perché l’Italia conta qui?
Sono centri di supporto pensati per ambienti con requisiti stringenti, con processi segregati, facility dedicate e personale abilitato. Il fatto che Cisco indichi un centro in sviluppo in Italia sposta il discorso dalla sola sovranità del dato alla sovranità operativa: anche il supporto deve rispettare confini e policy.
Timeline: cosa arriva e quando, secondo i materiali disponibili oggi
Apri le fasi in ordine. È la lettura più utile se devi capire roadmap e impatti operativi senza perdere tempo.
-
Fase 1 Il punto di partenza: la scala gigawatt cambia la matematica della rete
- I cluster AI crescono oltre la sala macchine e cominciano a toccare vincoli fisici: energia, distanza e latenza.
- Il traffico degli agenti rompe la prevedibilità: picchi, sincronismi e burst diventano quotidiani.
Perché conta: Se la rete “ondeggia”, le GPU aspettano. E quando le GPU aspettano, il costo del cluster diventa un problema operativo prima ancora che finanziario.
-
Fase 2 G300: banda, radix e controllo della congestione dentro il silicio
- 102,4 Tbps in un singolo dispositivo e radix fino a 512 porte per reti più piatte.
- Packet buffer condiviso da 252 MB progettato per assorbire burst e limitare cali di performance.
- Path-based load balancing con reazione hardware a congestione e fault con tempi che non aspettano il software.
- Telemetria di sessione programmabile per diagnosi e ottimizzazione senza “spegnere” il cluster.
Perché conta: Qui si vede la tesi di Cisco: la rete smette di essere solo trasporto e diventa una componente attiva dell’efficienza del compute.
-
Fase 3 Sistemi, ottiche e raffreddamento: la scala non vive di soli ASIC
- Sistemi Nexus 9000 e Cisco 8000 basati su G300, con varianti che puntano anche al raffreddamento a liquido.
- Ottiche coerenti e pluggable fino a 1,6T come tassello necessario per collegamenti e densità.
Perché conta: Quando la densità sale, anche la parte fisica deve essere progettata per non diventare il collo di bottiglia. Il tema termico torna centrale e non è negoziabile.
-
Fase 4 AgenticOps: operazioni IT più automatizzate, basate su telemetria cross-domain
- Autonomous troubleshooting e ottimizzazione continua su reti campus, branch e industrial con rollout indicato da febbraio 2026.
- Trusted validation per stimare impatto e rischio prima di portare un cambio in produzione.
- Nexus One come punto di aggregazione per data center, con disponibilità controllata indicata per giugno 2026.
- Per la security, Security Cloud Control con disponibilità generale indicata per maggio 2026 e un taglio “proattivo” su policy e remediation.
Perché conta: L’idea è togliere attrito alle operazioni quando i sistemi si muovono a velocità macchina. Il controllo umano resta, ma la fatica quotidiana passa al livello agentico.
-
Fase 5 Sicurezza e sovranità: AI Defense, SASE “AI-aware” e CNSC in sviluppo in Italia
- AI Defense estende governance della supply chain e protezioni runtime per l’uso di tool da parte degli agenti.
- SASE aggiunge ottimizzazione del traffico AI e controlli: MCP, ispezione intent-aware e policy unificata su SD-WAN e SSE.
- Cisco IOS XE 26 porta una implementazione dichiarata “full-stack” di post-quantum cryptography per routing e switching.
- Sul supporto “sovrano”, si formalizzano i CNSC e compare un centro in sviluppo in Italia.
Perché conta: Se vuoi agenti in processi critici, servono due piani: protezione tecnica del comportamento e confini operativi coerenti, incluso il modo in cui ricevi supporto.
Chiusura
Se dobbiamo riassumerla in una frase operativa, è questa: Cisco sta cercando di trasformare la rete in una leva di rendimento delle GPU e di trasformare le operations in una disciplina più automatizzata ma governata. G300 è il pezzo “fisico” che parla di congestione e di efficienza del fabric. AgenticOps è il pezzo “umano” che parla di tempi di risoluzione e di scala del team. AI Defense è il pezzo “fiducia” che entra nel comportamento degli agenti e nelle loro interazioni. In Italia, il CNSC in sviluppo aggiunge un livello che spesso viene ignorato: la sovranità del supporto, non solo dei dati.
Approfondimenti correlati
Tecnologia: notizie, guide e analisi
Il nostro hub sempre aggiornato: infrastrutture, sicurezza, AI e innovazione digitale raccontate con taglio tecnico e verifiche puntuali.
Apri la pagina hubUpdate log
Registro degli aggiornamenti sostanziali: trasparenza su modifiche, correzioni e integrazioni informative.
- Martedì 10 febbraio 2026 alle ore 13:12: Inserita la lettura tecnica di Intelligent Collective Networking: buffer condiviso da 252 MB, load balancing a livello di percorso e telemetria programmabile.
- Martedì 10 febbraio 2026 alle ore 13:34: Rafforzata la sezione AgenticOps con dettaglio su rollout (febbraio, maggio e giugno 2026) e sulle differenze operative tra networking, security e osservabilità.
- Martedì 10 febbraio 2026 alle ore 13:56: Ampliato l’angolo Italia: chiarito cosa sono i Cisco Critical National Services Centers e perché un centro in sviluppo in Italia cambia il tema della sovranità operativa.