Hardware e Data Center
Intel punta alle GPU da data center: la mossa di Tan e il nodo del software
Intel mette sul tavolo un rilancio sulle GPU da data center e chiama Eric Demers come chief GPU architect. Qui trovi il contesto completo, con attenzione al punto che spesso resta sottotraccia: nel 2026 la partita si decide su software stack, ecosistemi e adozione reale. Sullo sfondo c’è Intel Foundry e il tema dei volumi.
Pubblicato il: Venerdì 6 febbraio 2026 alle ore 11:41.
Ultimo aggiornamento: Venerdì 6 marzo 2026 alle ore 09:16.
Fonti principali citate: Intel Newsroom per comunicazioni ufficiali e roadmap, Reuters per la cronaca dell’intervento e i dettagli organizzativi, TechCrunch e DataCenterDynamics per conferme e contesto industriale. Per la parte su Gaudi e sulle lezioni legate al software sono citati anche The Verge e Tom's Hardware.
Intel ha detto di voler tornare a sviluppare GPU da data center, un mercato dove Nvidia è oggi dominante. Lip-Bu Tan lo ha dichiarato durante il Cisco AI Summit di San Francisco e nello stesso contesto ha presentato la nomina di Eric Demers come chief GPU architect. Reuters ha riportato la notizia e ha ricostruito che l’assunzione era stata anticipata da CRN e poi confermata dallo stesso Demers. TechCrunch e DataCenterDynamics hanno aggiunto un dettaglio importante: la responsabilità è nel perimetro Data Center and AI e Demers riporta a Kevork Kechichian. A questo punto la domanda giusta non è “quando arriva la scheda”, è “che cosa significa davvero fare GPU nel 2026”.
Mappa rapida: che cosa significa “fare GPU” nel 2026
| Passaggio | Cosa include | Il segnale da notare | Conseguenza |
|---|---|---|---|
| Visione e governance | Tan mette le GPU tra le priorità dichiarate per il data center e affida la regia a un chief architect dedicato. | Una leadership tecnica riconoscibile è un indicatore di disciplina: roadmap e execution devono restare sincronizzate. | Si riduce il rischio di una GPU “solo da laboratorio” e cresce la probabilità di un prodotto industriale. |
| Scelte di prodotto | Una GPU data center nasce da un target preciso: inferenza, training o HPC cambiano memoria, energia e packaging. | Scelte come LPDDR5X o HBM raccontano subito la direzione, dai costi alla banda utile. | Il posizionamento determina chi può adottare per primo e quanto è realistico arrivare in produzione. |
| Software stack | Driver, runtime, compilatori e librerie devono rendere i framework AI utilizzabili senza attriti. | Se la toolchain non è stabile, anche un chip valido resta confinato a demo e benchmark su misura. | La fiducia degli sviluppatori si costruisce con strumenti, documentazione e supporto continuo. |
| Ecosistema e Foundry | Per entrare nei data center serve una filiera che include integratori, OEM e operatori cloud con volumi prevedibili. | La strategia Foundry di Intel punta su impegni reali per pianificare capacità e investimenti sui nodi futuri. | La GPU diventa anche un banco di prova per processi e packaging che Intel vuole offrire come servizio. |
Tip: la tabella è scorrevole. Su mobile scorri con il dito a destra e a sinistra per vedere tutte le colonne.
Nel 2026 una GPU vince se il software rende semplice portare modelli in produzione e tenerli stabili.
Un chief architect non è decorazione: serve a rendere coerenti architettura, roadmap e decisioni.
Intel ha già indicato una direzione con Crescent Island: capacità di memoria ed efficienza prima di tutto.
Una GPU data center è un test duro per nodo e packaging, proprio i punti su cui Intel Foundry vuole credibilità.
Nel data center il chip conta, ma lo stack conta di più: Intel prova a rimettere insieme architettura, software e credibilità.
Update log
Registro degli aggiornamenti sostanziali: trasparenza su modifiche, correzioni e integrazioni informative.
- Venerdì 6 febbraio 2026 alle ore 15:05: Pubblicazione: ricostruito l’intervento di Lip-Bu Tan al Cisco AI Summit e il perimetro del rilancio GPU sul data center.
- Venerdì 6 febbraio 2026 alle ore 15:58: Aggiornata la sezione su Eric Demers con contesto di carriera e implicazioni pratiche del ruolo di chief GPU architect.
- Venerdì 6 febbraio 2026 alle ore 16:44: Rafforzata l’analisi su cosa significa “fare GPU” nel 2026 con focus su software stack e criteri di adozione degli early adopter.
- Venerdì 6 febbraio 2026 alle ore 17:28: Integrazione: collegato il tema GPU alla strategia Intel Foundry con attenzione a nodi, packaging e disciplina sui volumi.
Trasparenza: fonti e metodo
L’articolo ricostruisce annunci e contesto usando fonti pubbliche e verificabili. Per la cronaca dell’intervento del CEO e per i dettagli sulla struttura interna sono citati Reuters, TechCrunch e DataCenterDynamics. Per le informazioni ufficiali su roadmap e posizionamento dei prodotti è citato Intel Newsroom. Per il contesto storico sul peso dello stack software nell’adozione di acceleratori AI sono citati The Verge e Tom's Hardware.
Fonti citate nell’articolo: Intel Newsroom, Reuters, TechCrunch, DataCenterDynamics, CRN, Tom's Hardware, The Verge, Bloomberg.
Approfondimenti correlati
Tecnologia: notizie, guide e analisi
Il nostro hub Tecnologia: trovi news e approfondimenti su AI, hardware, software e innovazione, con aggiornamenti continui.
Apri la pagina hubContesto essenziale: perché questa mossa pesa nel 2026
Il data center è diventato il punto in cui si decide la velocità dell’AI, dalla formazione dei modelli al servizio in produzione. In questo spazio la GPU non è più solo “una scheda”: è un’infrastruttura con driver, librerie, tool e supporto operativo. E quando un vendor dichiara di voler entrare o rientrare, la domanda implicita è sempre la stessa: riuscirà a far funzionare tutto in modo prevedibile, su scala, per mesi?
Qui entra il senso della frase di Tan, riportata da Reuters e rilanciata da TechCrunch e DataCenterDynamics. Dire “svilupperemo GPU” senza un piano sullo stack è facile. Dire “svilupperemo GPU” e poi mettere a capo dell’architettura una figura come Eric Demers è una scelta che parla di execution. È anche un messaggio ai clienti: Intel vuole che questo diventi una piattaforma in cui vale la pena investire tempo.
In breve
- Annuncio: Tan dice che Intel svilupperà GPU per il data center e nomina Eric Demers chief GPU architect (Reuters, TechCrunch, DataCenterDynamics).
- Ruolo: Demers arriva da Qualcomm e ha un passato nell’architettura GPU, secondo CRN e Tom's Hardware.
- Il punto tecnico: nel 2026 “fare GPU” significa costruire uno stack software credibile e un ecosistema, non solo un die.
- Roadmap già visibile: Intel ha annunciato Crescent Island per l’inferenza con campionature nella seconda metà del 2026 (Intel Newsroom, Reuters, Tom's Hardware).
- Connessione Foundry: una GPU data center è un banco di prova per nodo e packaging, che sono anche asset strategici di Intel Foundry (Intel Newsroom, Reuters, DataCenterDynamics).
La mossa di Intel: GPU da data center e nuova regia
Per capire se questa notizia è un “segnale” o un “inizio”, bisogna guardare oltre il titolo. Una GPU data center esiste quando esiste un percorso pratico per installarla, farla scalare, misurarla e aggiornarla senza paura. Tan lo sa, e la scelta di un chief architect racconta che Intel vuole rimettere ordine dove in passato ha sofferto.
Nota: i dettagli sull’annuncio di Tan e sulla nomina di Demers provengono dal reporting di Reuters e dalle conferme di TechCrunch e DataCenterDynamics. La cronologia della nomina è stata riportata da CRN.
Sommario dei contenuti
- Cosa ha detto Tan e che cosa è stato confermato
- Chi è Eric Demers e cosa cambia con un chief architect
- Che cosa significa “fare GPU” nel 2026
- Il vero muro: stack software, tool e compatibilità
- Early adopter: chi prova per primo e che cosa pretende
- Crescent Island: il tassello già annunciato e perché conta
- Come si incastra nella strategia Intel Foundry
- Segnali da monitorare nel 2026
- Guida pratica: domande utili se valuti un acceleratore
- FAQ
Cosa ha detto Tan e che cosa è stato confermato
Il fatto, per come è stato riportato, è lineare. Il 3 febbraio 2026 al Cisco AI Summit di San Francisco, Lip-Bu Tan ha detto che Intel svilupperà GPU e che l’obiettivo è il data center. Reuters ha pubblicato la notizia e ha indicato anche l’elemento organizzativo: Intel ha reclutato Eric Demers come chief GPU architect e lo ha inserito nel perimetro Data Center and AI. TechCrunch e DataCenterDynamics hanno confermato questa lettura e hanno aggiunto che Demers riporta a Kevork Kechichian.
Un dettaglio interessante, riportato da Reuters, è il modo in cui la nomina è emersa. La mossa era stata segnalata inizialmente da CRN e poi confermata dallo stesso Demers. Non è un “tweet”: è un pezzo di governance che Intel sceglie di rendere visibile. In un mercato dove le roadmap spesso sono piene di promesse, rendere visibile la catena di comando è già un messaggio.
Chi è Eric Demers e cosa cambia con un chief architect
Demers è un profilo tecnico con storia lunga. Secondo CRN, Tom's Hardware e PC Gamer ha lavorato su architetture Radeon ai tempi di ATI e poi ha guidato per anni il lavoro sulle GPU Adreno in Qualcomm. Questo tipo di background conta perché la GPU data center è un sistema completo, non un singolo blocco funzionale. Devi saper bilanciare prestazioni, efficienza, memoria, interconnessione e soprattutto devi saper guidare compromessi.
La parola chiave, qui, è responsabilità tecnica. In molte aziende un programma GPU finisce in un incrocio di team: chi fa il silicio, chi fa il driver, chi fa le librerie, chi parla con i clienti. Un chief GPU architect serve a evitare che ogni pezzo ottimizzi per sé, lasciando al cliente l’onere di mettere insieme i frammenti.
Che cosa significa “fare GPU” nel 2026
Nel 2026 una GPU da data center è un contratto implicito con il mondo reale. Prometti che funzionerà in cluster, che avrà driver stabili, che non costringerà un team a riscrivere l’intera pipeline e che avrà un ritmo di aggiornamento prevedibile. Prometti anche che i problemi saranno diagnosticabili. Questo è il punto meno glamour ma è quello che decide gli acquisti.
Dal punto di vista tecnico, ci sono quattro strati che diventano “prodotto”. L’hardware, che include compute e memoria. Il packaging e l’I/O, perché nel data center la GPU vive in un ecosistema di rete e di alimentazione. Il software stack, che è dove si gioca la produttività. L’integrazione con sistemi e supply chain, perché senza volumi e sistemi certificati non esiste adozione.
Il vero muro: stack software, tool e compatibilità
Nvidia domina anche perché ha un ecosistema che riduce la frizione tra idea e produzione. È una forma di gravità: se un framework AI “nasce” su una piattaforma, tutto il resto tende ad allinearsi lì. Per Intel la sfida più dura è invertire la frizione, e qui la storia recente offre un promemoria utile.
Nel 2024 Intel ha riconosciuto che non avrebbe raggiunto il target di ricavi da 500 milioni di dollari per Gaudi, citando una transizione di prodotto e problemi di facilità d’uso del software. La notizia è stata riportata da Reuters e approfondita da The Verge e Tom's Hardware. Non è una condanna per il futuro, è una lezione sul presente: se lo stack non è maturo l’hardware non “scala” commercialmente.
È qui che nel 2026 “fare GPU” diventa un lavoro di piattaforma. Serve una toolchain che compili e ottimizzi kernel in modo affidabile. Serve una storia pulita su runtime e driver. Servono librerie che non siano un esperimento e strumenti di profiling che permettano al team di capire perché un modello rende meno del previsto. Chi compra acceleratori compra anche una promessa di diagnosi e supporto.
Early adopter: chi prova per primo e che cosa pretende
Nel data center gli early adopter non sono romantici. Sono pragmatici. Proveranno un’alternativa quando intravedono un vantaggio chiaro, spesso legato a costo totale o a disponibilità di hardware. Ma la prova non è “una demo”. È un pilot che deve convivere con container, orchestrazione e policy di sicurezza.
In pratica, un early adopter chiede almeno tre cose. Compatibilità con i framework che usa già, perché non ha tempo per reinventare la pipeline. Un percorso di supporto e manutenzione che non si interrompa a metà. Sistemi completi, perché la GPU non arriva da sola: arriva in un server, con firmware, rete e termica. Su questi punti la differenza la fanno i dettagli, non gli slogan.
Crescent Island: il tassello già annunciato e perché conta
Un elemento importante, spesso ignorato quando si parla solo di “nuove GPU”, è che Intel ha già mostrato un tassello concreto della roadmap. A ottobre 2025 Intel ha presentato Crescent Island, un acceleratore orientato all’inferenza, con focus su alta capacità di memoria ed efficienza. Intel Newsroom ha pubblicato i dettagli e la notizia è stata ripresa anche da Reuters e Tom's Hardware. L’azienda ha indicato campionature nella seconda metà del 2026.
Un dettaglio tecnico riportato nelle coperture è rivelatore: la scelta di una configurazione con memoria LPDDR5X ad alta capacità segnala un posizionamento che guarda a carichi di inferenza con vincoli di costo e di energia. Anche qui la lezione è pratica. L’inferenza è spesso il punto in cui il mercato sperimenta alternative, soprattutto se il rapporto costo per token migliora e se la disponibilità di sistemi è meno strozzata.
Intel ha anche descritto un approccio software che punta a essere unificato e aperto, con sviluppo e test su GPU Arc Pro della serie B. Questa indicazione è in Intel Newsroom e viene ripresa da più coperture di settore. Tradotto: Intel prova a evitare lo scenario in cui l’hardware esce prima del software.
Come si incastra nella strategia Intel Foundry
Qui c’è il pezzo che rende la storia più interessante di un semplice annuncio GPU. Intel non è solo un vendor di chip, è anche un produttore che vuole vendere capacità a terzi tramite Intel Foundry. In una comunicazione pubblicata da Intel Newsroom, Tan ha parlato di disciplina sugli investimenti e di necessità di legare i piani a impegni concreti dei clienti. Reuters e DataCenterDynamics hanno ripreso più volte questo tema nel contesto del rilancio.
Una GPU data center è un test severo per qualsiasi catena industriale. È grande, complessa, sensibile a resa produttiva e packaging. Se Intel riuscirà a portare in volume un acceleratore competitivo, avrà anche un “caso interno” da usare come prova di maturità di processo, di supply chain e di supporto. Al contrario, se la GPU resta un progetto isolato, rischia di diventare un costo che non aiuta né il prodotto né la Foundry.
È per questo che la frase “svilupperemo GPU” ha valore solo se resta agganciata a due cose. La prima è lo stack software. La seconda è la disciplina sui volumi e sulla roadmap. Un foundry vive di credibilità e la credibilità nasce da consegne ripetibili, non da promesse.
Segnali da monitorare nel 2026
Se segui questa storia da vicino, ecco i segnali che contano più delle slide. Non sono previsioni, sono check pratici.
- Toolchain pubblica e stabile: driver e runtime con release note chiare, supporto e compatibilità documentata.
- Framework “first class”: integrazione che non richieda patch artigianali e che funzioni con container standard.
- Benchmark riproducibili: numeri misurati su workload reali, con configurazioni descrivibili e replicabili.
- Sistemi disponibili: server a catalogo presso OEM e integratori, con roadmap di supply credibile.
- Supporto operativo: canali e SLA chiari, perché in produzione il problema non è “se” si rompe, è “quanto ci metti a rientrare”.
Guida pratica: le domande che ti evitano sorprese
Se lavori in un team che deve valutare acceleratori, è facile farsi trascinare da benchmark perfetti. Qui sotto trovi una checklist concreta, pensata per capire se una piattaforma è pronta per la vita di tutti i giorni.
Domande da fare prima di innamorarti dei numeri
- Come porto un modello in produzione: esistono container ufficiali e pipeline supportate oppure devo assemblare tutto a mano?
- Che cosa succede quando aggiorno: driver e runtime hanno cicli prevedibili e rollback sicuri?
- Debug e profiling: posso capire dove perdo performance senza strumenti proprietari incompleti?
- Comunicazione tra GPU: esiste una storia credibile su scaling multi GPU e multi nodo?
- Memoria e modelli: la capacità reale permette contesti lunghi e modelli più grandi senza impazzire con lo sharding?
- Energia e termica: l’efficienza è misurata in un server reale e in condizioni realistiche?
- Supporto: chi risponde quando un kernel va in crash alle 3 di notte e che SLA posso ottenere?
- Roadmap: le prossime versioni mantengono compatibilità o ogni generazione ricomincia da capo?
Suggerimento pratico: se un vendor non riesce a rispondere con documenti e numeri riproducibili su queste domande, quel vendor sta vendendo una demo, non una piattaforma.
Il commento dell’esperto
La notizia del giorno è semplice, e proprio per questo va trattata con cura. Intel dice che tornerà a sviluppare GPU da data center e mette un nome tecnico forte a guidare l’architettura. È un segnale di organizzazione, non una garanzia di successo.
Nel 2026 la differenza tra una GPU “promettente” e una GPU “adottata” è la distanza tra laboratorio e produzione. Quella distanza non la colmi con un benchmark. La colmi con strumenti, compatibilità, documentazione e supporto. La colmi quando il primo cliente non deve riscrivere metà pipeline e quando il secondo cliente non deve imparare da zero ciò che il primo ha già pagato.
Se Intel riuscirà a trasformare il tema GPU in una piattaforma, farà due cose insieme. Rientrerà in un mercato enorme e rafforzerà anche la credibilità della Foundry, perché una GPU data center è un test di processo e packaging difficile da “truccare”. Se invece lo stack resta indietro, la storia rischia di ripetersi. Il caso Gaudi ci ricorda che l’hardware, da solo, non basta.
A cura di Junior Cristarella.
Domande frequenti
Che cosa ha annunciato Intel sulle GPU da data center?
Il CEO Lip-Bu Tan ha detto che Intel svilupperà GPU per il data center e ha nominato Eric Demers come chief GPU architect. La notizia è stata riportata da Reuters e ripresa da TechCrunch e DataCenterDynamics.
Chi è Eric Demers e perché la sua nomina pesa?
Demers è un veterano dell’architettura GPU: ha lavorato su Radeon ai tempi di ATI e poi ha guidato per anni il lavoro sulle GPU Adreno in Qualcomm. La ricostruzione è stata pubblicata da CRN e approfondita da Tom's Hardware e PC Gamer.
Nel 2026 “fare una GPU” significa solo progettare un chip?
No. Nel data center una GPU diventa piattaforma: driver, runtime, compilatori, librerie e integrazione con framework AI e ambienti cloud contano quanto l’hardware. Questo punto emerge in modo ricorrente nel reporting su Intel e nei casi legati a Gaudi secondo Reuters, The Verge e Tom's Hardware.
Intel ha già una roadmap GPU per l’inferenza?
Sì. Intel ha annunciato Crescent Island come acceleratore orientato all’inferenza con focus su capacità di memoria ed efficienza, con campionature attese nella seconda metà del 2026. I dettagli sono in Intel Newsroom e sono stati riportati anche da Reuters e Tom's Hardware.
Perché il tema software è così centrale per Intel?
Perché l’adozione in produzione dipende dalla maturità della toolchain. Il caso Gaudi è spesso citato come esempio di quanto lo stack possa rallentare la domanda: Intel ha riconosciuto che non avrebbe raggiunto il target di ricavi da 500 milioni di dollari nel 2024 anche per ragioni legate a transizione di prodotto e facilità d’uso del software, come riportato da Reuters, The Verge e Tom's Hardware.
Che legame c’è tra GPU e Intel Foundry?
Una GPU data center richiede processi avanzati e packaging sofisticato. Se Intel vuole essere anche fabbrica per terzi deve dimostrare capacità di esecuzione su prodotti complessi e su volumi reali. La disciplina su investimenti e volumi è un tema ricorrente nelle comunicazioni di Intel Newsroom e nel reporting di Reuters e DataCenterDynamics.
Cosa cambia per chi usa CUDA oggi?
Nel breve nulla. I team cambiano piattaforma quando il costo totale scende e quando lo stack è compatibile con i flussi di lavoro esistenti. Il punto chiave sarà la qualità della toolchain e la disponibilità di sistemi in volume, non un annuncio singolo.
Timeline: gli snodi da tenere d’occhio
Tocca una fase per aprire i punti chiave. La timeline è pensata per seguire la storia nel tempo senza farsi distrarre da annunci isolati.
-
Fase 1 Mandato chiaro e leadership tecnica: la GPU torna “programma”
- Tan porta pubblicamente il tema GPU sul tavolo del data center.
- Intel recluta Eric Demers per guidare l’architettura e mettere ordine nelle scelte tecniche.
- Il progetto viene collocato nella filiera data center e AI, vicino a chi deve venderlo e supportarlo.
- La governance diventa parte del prodotto: tempi, priorità e responsabilità diventano misurabili.
Perché conta: Le GPU sono sistemi complessi. Senza una regia solida anche una buona idea si perde in compromessi incoerenti.
-
Fase 2 Stack e strumenti: la battaglia si gioca nelle pipeline
- Driver e runtime devono essere stabili, prevedibili e supportati con cicli chiari di aggiornamento.
- Compilatori e librerie devono parlare la lingua dei framework AI usati ogni giorno.
- Gli strumenti di profiling e debug diventano “infrastruttura” quanto il silicio.
- Il supporto agli ambienti container e alle piattaforme cloud decide la frizione iniziale.
Perché conta: Nel 2026 chi adotta una GPU compra tempo: tempo degli ingegneri, tempo di messa in produzione e tempo di troubleshooting.
-
Fase 3 Inferenza come porta d’ingresso: contano memoria e costo operativo
- L’inferenza ha vincoli diversi dal training e spesso premia efficienza e capacità di memoria.
- La disponibilità di sistemi in volume è centrale: senza supply prevedibile non esiste rollout.
- Per gli early adopter è decisivo il TCO, inclusi energia, raffreddamento e densità.
- La compatibilità con modelli e tool moderni deve essere misurabile e ripetibile.
Perché conta: L’inferenza è un terreno dove gli operatori sperimentano più facilmente, soprattutto quando le alternative riducono costo per token.
-
Fase 4 Validazione sul campo: i primi deployment fanno scuola
- Serve almeno un ciclo di pilot in ambienti reali, con metriche pubblicabili e riproducibili.
- Gli OEM devono mettere a catalogo server e soluzioni complete, non solo schede.
- Il software deve reggere upgrade e rollback senza bloccare l’operatività.
- La roadmap deve diventare credibile con un ritmo che non lasci buchi di compatibilità.
Perché conta: L’hardware si compra, la fiducia si guadagna. I primi deployment riusciti influenzano tutta la filiera.
-
Fase 5 L’incastro con Intel Foundry: nodo, packaging e disciplina sui volumi
- Una GPU data center è un test severo per processi avanzati e per l’assemblaggio con memorie ad alta densità.
- La Foundry ha bisogno di certezze su volumi e prodotti per pianificare capacità in modo sostenibile.
- Un acceleratore interno può aiutare Intel a imparare più in fretta, ma richiede governance per evitare conflitti.
- Packaging e supply chain diventano parte della strategia, non una fase finale.
Perché conta: Se Intel vuole vendere produzione a terzi deve dimostrare coerenza dall’architettura al manufacturing, senza scorciatoie.
Chiusura
Il messaggio di Intel è chiaro: le GPU da data center tornano al centro della strategia. La parte che farà la differenza non è l’annuncio, è l’esecuzione. Nel 2026 una GPU entra davvero in un data center quando lo stack rende semplice l’adozione e quando la filiera può garantire volumi e supporto. La nomina di Eric Demers è un segnale di serietà. Adesso tocca ai fatti.