Cloud e AI

Amazon, capex 2026 vicino a 200 miliardi: effetti su AWS, data center e servizi AI

Abbiamo messo in fila numeri e vincoli reali: quanto pesa davvero un capex vicino ai 200 miliardi sul prodotto AWS. Dalla supply chain dei chip alla rete elettrica europea, fino agli effetti su prezzi e disponibilità dei servizi AI.

Capex 2026 AWS e servizi AI Chip e supply chain Data center e capacità Vincoli energetici in Europa Prezzi e disponibilità

Pubblicato il: Lunedì 16 febbraio 2026 alle ore 17:36. L’articolo riflette le informazioni disponibili alla data di pubblicazione e potrebbe non includere sviluppi successivi, che possono incidere sull’inquadramento dei fatti. Eventuali aggiornamenti saranno riportati nell’Update log. In mancanza di registrazioni nell’Update log, il contenuto deve considerarsi invariato rispetto alla versione pubblicata.

Ultimo aggiornamento: Venerdì 6 marzo 2026 alle ore 09:16. L’aggiornamento può includere interventi non sostanziali (revisione formale, correzioni, impaginazione o ottimizzazioni) e non implica necessariamente modifiche ai fatti riportati. Eventuali aggiornamenti di contenuto relativi agli sviluppi della notizia sono indicati nell’Update log.

Contenuto verificato Verificato secondo i nostri standard di fact-checking e con una ricostruzione basata su documenti pubblici e riscontri multipli. Policy correzioni

Per questa analisi abbiamo lavorato su documenti pubblici e dati verificabili, ricostruendo il legame tra investimenti infrastrutturali, capacità AWS e vincoli energetici europei. Le deduzioni sono presentate come tali e vengono distinte dai fatti numerici.

Il numero che oggi conta non è un claim di marketing. È un budget: capex 2026 vicino ai 200 miliardi di dollari. Messo così sembra “solo” finanza, invece descrive un impianto industriale che cresce. Ci interessa per un motivo molto pratico: quel capex decide quanta capacità AI arriva su AWS, con quali chip e con quale energia. E da lì, senza poesia, si arriva a due cose che ogni azienda sente sulla pelle: disponibilità e prezzo.

Mappa rapida: il piano in quattro passaggi

Passaggio Cosa accade Il segnale da notare Conseguenza
La cifra e il perimetro Amazon porta il capex 2026 a un livello vicino ai 200 miliardi di dollari: un salto che cambia il ritmo dell’infrastruttura. La pressione si vede nei flussi di cassa: investimenti che divorano free cash flow pur con margini AWS in crescita. Più capacità in pipeline, ma i tempi reali dipendono da chip e megawatt disponibili.
Dove finisce il denaro La parte più “pesante” del programma va su AWS: data center, reti, acceleratori e integrazione elettrica. La domanda AI resta forte, ma alcune risorse restano contingentate: la priorità passa da “chi chiede” a “chi prenota”. Aumenta l’offerta nel medio periodo, con un 2026 ancora da gestire con disciplina di procurement.
Il collo di bottiglia europeo In Europa la variabile non è solo il lotto di GPU: spesso è la connessione alla rete e la certezza della data di energizzazione. Tempi di connessione che possono arrivare a sette anni, contro circa due anni per sviluppare un data center. Disponibilità disomogenea per region e rischi di attese, soprattutto per carichi AI energivori.
Effetto su prezzi e disponibilità Il capex aumenta la “produzione” di compute, ma i colli di bottiglia spostano i costi su energia e contratti di capacità. Più peso su riserve, commitment e architetture flessibili tra region e istanze. Prezzi poco elastici nel breve e miglioramento graduale della disponibilità dove arrivano MW e rack.

Tip: la tabella è scorrevole. Su mobile scorri con il dito a destra e a sinistra per vedere tutte le colonne.

Capex 2026: la scala cambia
Un livello vicino ai 200 miliardi significa più infrastruttura, più chip e più energia assorbita dal cloud.
AWS resta il motore
La crescita AI spinge domanda e margini, ma la capacità non cresce istantaneamente: serve tempo operativo.
Europa: il nodo è la rete
Il tempo per la connessione elettrica può superare quello di costruzione: la disponibilità dipende dai MW.
Impatto per chi compra AI
Prezzi poco elastici nel breve e procurement più disciplinato: region, istanze e riserve contano più di ieri.
Amazon, capex 2026 vicino a 200 miliardi: effetti su AWS, data center e servizi AI
Tecnologia

La vera misura dell’AI nel cloud è una combinazione: capex, chip e megawatt. Quando uno dei tre rallenta, cambiano prezzi e disponibilità.

Trasparenza: fonti e metodo

Questo pezzo nasce da una ricostruzione che parte dai numeri e arriva ai colli di bottiglia fisici. Abbiamo incrociato comunicazioni finanziarie, rendiconti e dati regolatori per evitare l’equivoco più comune: leggere il capex come un “segnale di fiducia” e non come una catena di scelte operative.

Quando scriviamo “cosa cambia per prezzi e disponibilità”, non facciamo previsioni generiche. Seguiamo un filo logico: capex significa acquisti, acquisti significano installazioni, installazioni significano energia, rete e tempi. Da lì si arriva alla disponibilità reale di compute e quindi alla leva commerciale che muove i prezzi.

Fonte principale: analisi redazionale di documenti pubblici, rendiconti e atti regolatori.

Contesto essenziale: perché il numero “200” conta più di quanto sembri

Un capex vicino ai 200 miliardi non serve a “fare bella figura”. Serve a sostenere domanda AI e cloud che nel 2026 non rallenta per cortesia. Il punto vero è che l’AI, nel cloud, si compra con tre ingredienti: silicio, rete e energia. Se uno dei tre ritarda, il resto non compensa.

Qui si gioca un tema che molti sottovalutano: la differenza tra avere budget e avere capacità. Il budget accelera la costruzione, ma non accorcia automaticamente le code di connessione elettrica e non rende infinita la supply chain. E quando i colli di bottiglia sono fisici, la variabile che cambia per i clienti è quasi sempre la stessa: accesso alla capacità e costo marginale.

In breve

  • Amazon pianifica un capex 2026 vicino ai 200 miliardi di dollari, con una spinta che riguarda in modo diretto AWS e infrastruttura AI.
  • Nel 2025 AWS cresce a doppia cifra e concentra una quota decisiva dell’utile operativo: è il motore che giustifica la scala del piano.
  • Il collo di bottiglia non è solo la GPU: in Europa spesso decide la connessione alla rete elettrica e la certezza della data di attivazione.
  • Per le aziende il 2026 resta un anno in cui contano prenotazioni e flessibilità tra region: prezzi più rigidi e disponibilità non uniforme.
  • La leva chip proprietari è strategica: più controllo su costi e supply, con impatti concreti sul profilo prezzo-prestazioni dei carichi AI.

Il piano: capex, AWS e AI nello stesso quadro

Mettiamo la notizia sul tavolo, senza fumo. Amazon alza la spesa infrastrutturale del 2026 fino a un ordine di grandezza vicino ai 200 miliardi di dollari. La cifra è esplicitata nel comunicato agli investitori di Investor Relations di Amazon del 5 febbraio 2026. Il quadro torna, con la stessa scala, anche nelle cronache di Reuters e Financial Times.

Nota di perimetro: parliamo di capex sull’intera Amazon. La parte che impatta più direttamente capacità AI e cloud è quella legata ad AWS e alle infrastrutture che la alimentano.

Sommario dei contenuti

Cosa sappiamo, numeri alla mano

Il punto di partenza non è il titolo “200”. Il punto di partenza è il salto rispetto al 2025. Nel rendiconto finanziario 2025 di Amazon la voce “purchases of property and equipment” arriva a 131,819 miliardi di dollari. Se guardiamo lo stesso flusso al netto di proventi e incentivi, la cifra scende a 128,320 miliardi.

Questo spiega perché un obiettivo 2026 vicino ai 200 miliardi è un’accelerazione vera e non una semplice continuità. È un aumento che cambia i tempi di provisioning e obbliga a ragionare in termini industriali. In parallelo, Amazon segnala che il free cash flow scende a 11,2 miliardi nei dodici mesi chiusi al 31 dicembre 2025, rispetto a 38,2 miliardi nel 2024, proprio perché gli investimenti infrastrutturali aumentano.

Su AWS, il dato che interessa è doppio. Nel 2025 il segmento arriva a 128,794 miliardi di dollari di vendite, in crescita del 20%. L’utile operativo AWS nel 2025 tocca 45,629 miliardi su 68,596 miliardi di operating income totale di Amazon. Traduzione semplice: AWS vale circa due terzi dell’utile operativo e sta chiedendo carburante.

Come si legge il capex nei conti Amazon

Il lettore esperto ci farà subito la domanda giusta: “200 miliardi è capex come lo intende il mercato o è cassa come la vedi nel cash flow?” Vale la pena chiarirlo, perché qui si nascondono equivoci che poi diventano analisi sbagliate.

Nel cash flow, Amazon mostra l’uscita di cassa per infrastrutture con “purchases of property and equipment”. È la fotografia più concreta di quanto denaro è uscito per costruire e comprare. Poi trovi anche altre voci che, in alcune letture di capex allargato, entrano nel conto complessivo: rimborsi di lease o obbligazioni di finanziamento. Se metti insieme tutto senza dire il perimetro, ottieni un numero più “grande”, ma meno comparabile.

Perché importa: quando un CFO annuncia capex, sta dando una traiettoria di capacità futura. Quando leggi il cash flow, stai misurando cosa è già stato pagato. La distanza tra i due è lo spazio dove entrano tempi, cantieri e connessioni elettriche.

Dove va il denaro: data center, rete e densità AI

La parte più interessante del piano non è “quanti data center”. È il tipo di data center. L’AI spinge verso densità di potenza più alte per rack e verso una rete interna più capace, perché il training moderno scala male se la banda non regge.

Il capex quindi si distribuisce su una filiera precisa. Prima l’infrastruttura fisica: edifici, raffreddamento e sicurezza. Poi il livello che fa davvero la differenza per l’AI: interconnessione tra rack, fabric di rete, storage e acceleratori. Infine l’energia, che da costo “di contorno” diventa requisito di progetto.

Leva Cosa sblocca Effetto su disponibilità Effetto su prezzi
Capacità elettrica Nuovi cluster ad alta densità, espansione region, upgrade siti esistenti Alta dove i MW arrivano in tempo Stabilizza nel medio periodo, rigida nel breve
Silicio e supply chain Ritmo di provisioning per training e inference Vincolata se chip scarseggiano Costi marginali più alti se l’offerta è stretta
Rete interna Efficienza del training distribuito e throughput Migliora l’utilizzo reale della capacità installata Riduce sprechi, ma richiede investimenti upfront
Modello commerciale Allocazione capacità tra clienti e region Più prevedibile con prenotazioni Premia commitment, penalizza improvvisazione

Chip: perché Trainium e silicio custom cambiano il gioco

Per capire l’ossessione sul silicio, basta fare un passo indietro. Il training AI non è solo “comprare GPU”, è organizzare l’offerta di calcolo come una catena produttiva. Se il componente critico arriva in ritardo, salta tutto.

Amazon spinge su acceleratori proprietari anche per una ragione industriale: controllare tempi e profilo costo. Un segnale utile è la scala dei cluster dichiarati per training. Un cluster operativo basato su Trainium2 viene descritto come grande, nell’ordine di circa mezzo milione di chip. Questo dettaglio ci interessa perché sposta la conversazione dal marketing al procurement.

Nostra deduzione logica: più silicio proprietario entra in produzione e più AWS può “spostare” carichi su un binario con supply meno contesa. Il prezzo può diventare più competitivo per chi si adatta al modello, mentre la disponibilità migliora per chi accetta l’ecosistema.

Energia in Europa: la variabile che decide la capacità

Qui arriviamo al punto che, nel racconto pubblico, resta sempre un po’ sfocato. In Europa il limite non è solo la domanda. È la velocità con cui un nuovo sito diventa realmente energizzato e quindi produttivo.

Il dato chiave è brutale: connettersi alla rete di trasmissione può richiedere fino a sette anni, mentre sviluppare un data center può richiedere circa due anni. Se questi due tempi non si parlano, il capex non “genera” capacità quando serve.

In mezzo ci sono regole e trasparenza obbligatoria. La Commissione europea ha incardinato un sistema in cui i data center oltre una certa soglia di potenza IT devono rendere pubbliche informazioni energetiche e inviare KPI a un database europeo con scadenze annuali. Non è burocrazia fine a se stessa: è un modo per rendere misurabile un settore che assorbe sempre più elettricità.

Poi ci sono le policy nazionali, spesso più operative. In Irlanda, per esempio, la CRU mette in chiaro una cosa: la domanda dei data center è passata dal 5% (2015) al 22% (2024). Con domanda già contrattualizzata, la previsione arriva a 9,4 TWh nel 2025 e 14,6 TWh nel 2034, con una quota stimata al 31% del consumo nazionale. Il nuovo impianto richiede generazione e o storage a supporto della capacità di import richiesta e un obbligo di copertura rinnovabile pari almeno all’80% della domanda annuale con progetti addizionali, con un percorso di sei anni per arrivarci.

Prezzi e disponibilità: cosa cambia per chi compra AI

Il lettore che gestisce budget cloud ci arriva subito: “Ok, ma io cosa vedo sul contratto e sul pannello AWS?” Qui la risposta non è unica, perché dipende da regione, tipo di istanza e modello d’uso. Però possiamo fissare una logica che nel 2026 è difficile smentire.

Nel breve periodo, l’elasticità dei prezzi resta bassa. Anche se l’offerta cresce, i costi di infrastruttura crescono insieme e i colli di bottiglia energetici tengono alta la pressione sulla capacità. Quello che cambia per primo, di solito, non è il listino. Cambia il modo in cui la capacità viene allocata: più spazio alle prenotazioni e alle relazioni con commitment chiari.

La disponibilità è la variabile più “politica” del cloud AI, nel senso tecnico del termine. Se un region non ha MW sufficienti o non ha una data certa, la capacità non arriva. Se un chip è più conteso, quelle istanze diventano più difficili da ottenere. Il risultato operativo è che alcune aziende nel 2026 saranno costrette a scegliere tra latenza, data residency e accesso al compute.

Guida operativa: cosa fare nel 2026

Qui possiamo essere pratici. Il 2026 è l’anno in cui molte aziende smetteranno di trattare l’AI come un progetto “a consumo” e inizieranno a trattarla come una fornitura critica. Alcune mosse riducono rischio e sorprese.

  • Misura la domanda in modo conservativo e definisci picchi, finestre e margini. Se non sai quando ti serve la capacità, non la ottieni quando serve.
  • Progetta per region flessibili, soprattutto in Europa. La differenza tra continuità e stop può essere un vincolo di rete locale.
  • Separa training e inference in architettura e procurement. Hanno profili di costo, latenza e continuità diversi.
  • Valuta silicio alternativo quando possibile. Non è una scelta “di gusto”, è una scelta di disponibilità e costo totale.
  • Definisci un piano di fallback che regga un ritardo: alternative di region, code di job, riduzione temporanea di batch e priorità di workload.

Nota: questa sezione è operativa, non è consulenza finanziaria. L’obiettivo è ridurre rischio di capacità e di costi inattesi con scelte tecniche e contrattuali più robuste.

Guida rapida: come leggere i segnali nei prossimi trimestri

I tre indicatori da monitorare

Se vuoi capire prima degli altri dove va la disponibilità AI, guarda tre cose. La prima è il ritmo di installazione e messa in produzione delle nuove capacità. La seconda è il comportamento commerciale: quando aumentano le richieste di commitment, significa che l’offerta viene gestita. La terza è l’energia: permessi, connessioni e tempi di rete.

Il punto europeo

In Europa il rischio non è un blackout. È la mancanza di certezza sulla data. Quando un progetto non ha una data di connessione affidabile, la capacità è “in bilancio” ma non è “in produzione”. È qui che si crea la frizione tra domanda AI e disponibilità reale.

Suggerimento semplice: se hai vincoli di data residency, pianifica prima la disponibilità di compute nel region che ti serve. Se aspetti di “avere il progetto pronto”, rischi di arrivare quando la capacità è già allocata.

Il commento dell’esperto

Quello che vediamo è un cambio di mentalità. Prima l’AI nel cloud era un’estensione del compute. Ora è un prodotto che richiede una filiera completa: supply chain, rete, energia e compliance. Un capex vicino a 200 miliardi è una dichiarazione di industrializzazione, non di entusiasmo.

La parte più sottile è l’effetto secondario. Più investi e più l’infrastruttura diventa rigida, perché aumenta l’ammortamento e aumenta il peso dell’energia. Quindi non aspettarti un “crollo dei prezzi” come conseguenza automatica. Aspettati invece una maggiore capacità nel medio periodo e una competizione più dura sulla qualità del servizio, sulla latenza e sull’accesso garantito.

Il nodo europeo ci obbliga a essere ancora più concreti. Non basta dire “mettiamo data center”. Serve dire “quando li energizziamo”. Se la rete non riesce a tenere il passo, la strategia cloud diventa anche una strategia energetica. Nel 2026, questa non è più una frase da convegno: è un vincolo che cambia contratti e architetture.

Questo è un commento editoriale: è una lettura basata su numeri pubblici e vincoli infrastrutturali, con deduzioni esplicitate quando si va oltre il fatto contabile.

A cura di Junior Cristarella.

Domande frequenti

I circa 200 miliardi sono un investimento solo sull’AI?

No. Il capex 2026 è un piano sull’intera Amazon, ma la parte che “sposta” l’ago della bilancia, in termini di capacità e ricavi futuri, è quella legata ad AWS e all’infrastruttura per l’AI.

Capex e “purchases of property and equipment” sono la stessa cosa?

Sono concetti vicini ma non identici. Nel rendiconto finanziario trovi la voce “purchases of property and equipment” che fotografa l’uscita di cassa per infrastrutture. In comunicazione finanziaria, il capex può includere anche altre componenti. Se non distingui le definizioni, rischi di confrontare numeri simili con perimetri diversi.

Perché si parla ancora di capacità limitata se la spesa cresce così tanto?

Perché il tempo non lo compri con un budget. Serve costruire, installare, certificare e soprattutto energizzare. In parallelo, la supply chain dei chip ha i suoi ritmi e in Europa la rete elettrica è spesso il fattore che decide la data reale di disponibilità.

Che ruolo hanno i chip proprietari di AWS in questa strategia?

Sono una risposta tecnica a un problema economico: controllare costi e disponibilità. Chip proprietari possono alleggerire la dipendenza dalla scarsità delle GPU e possono offrire un profilo prezzo-prestazioni più favorevole su carichi specifici, a patto di accettare un livello diverso di integrazione software.

Perché i vincoli energetici europei pesano così tanto sui servizi AI?

I carichi AI ad alta densità consumano energia e richiedono rete stabile. Se la connessione arriva tardi o non è certa, la capacità cloud resta teorica. Le nuove regole UE sul reporting dei data center e le policy nazionali sui grandi carichi rendono il tema ancora più concreto: l’energia è parte del prodotto.

Questo piano farà scendere i prezzi dei servizi AI nel 2026?

Nel breve i prezzi tendono a non muoversi in modo “automatico”. Un aumento di offerta aiuta, ma i costi fissi aumentano insieme all’infrastruttura e i colli di bottiglia restano. La direzione è verso più capacità e più concorrenza, ma la timeline reale dipende da chip e megawatt.

Cosa può fare un’azienda per evitare di restare senza capacità AI?

Serve pianificare come si farebbe per una supply chain: previsione dei picchi, prenotazione di capacità quando possibile, flessibilità tra region e un piano tecnico che consenta di spostare training o inference senza riscrivere tutto.

Timeline del piano: apri le fasi in ordine

Tocca una fase per vedere cosa cambia e perché conta nel 2026.

  1. Fase 1 2025: AWS accelera e l’infrastruttura diventa la voce dominante
    • Nel 2025 AWS cresce a doppia cifra e macina la quota più ampia dell’utile operativo di Amazon.
    • Il rendiconto finanziario mostra una spesa infrastrutturale già enorme: non stiamo parlando di “aggiustamenti”.
    • L’AI pesa in modo diretto: più training e inference significano più rack ad alta densità e più rete.
    • Questa è la base: il 2026 non parte da zero, parte da una corsa già in atto.

    Perché conta: Per capire i 200 miliardi bisogna partire dal fatto che il collo di bottiglia è fisico: edifici, chip, energia e tempi.

  2. Fase 2 Febbraio 2026: la soglia “200” diventa un piano operativo
    • Amazon mette nero su bianco un capex 2026 vicino ai 200 miliardi di dollari.
    • La cifra non è un esercizio di stile: serve a inseguire domanda AI e a sostenere AWS con nuova capacità.

    Perché conta: Quando un hyperscaler parla così, sta dicendo al mercato che l’AI è diventata infrastruttura come la rete elettrica.

  3. Fase 3 Silicio e supply chain: più controllo, meno dipendenza da un solo fornitore
    • AWS spinge su chip proprietari per training e inferenza, riducendo il rischio di rimanere “in coda” sulle GPU.
    • La scala conta: progetti come grandi cluster di training richiedono numeri che cambiano la logistica del data center.
    • In parallelo cresce l’importanza della rete interna: senza banda e latenza sotto controllo, il chip non basta.
    • Il risultato è una strategia verticale: hardware, software e cloud come un’unica catena di produzione.

    Perché conta: La leva chip decide costi e disponibilità. È qui che il capex si trasforma in prezzi cloud.

  4. Fase 4 Europa: la partita si gioca su permessi, rete e reporting obbligatorio
    • Il tempo di connessione alla rete può superare il ciclo di costruzione del data center: è un paradosso che blocca investimenti.
    • L’Unione europea introduce regole che rendono più trasparente il profilo energetico dei data center e spinge verso misure di efficienza.
    • Alcuni Paesi adottano policy dedicate per i grandi carichi digitali, imponendo requisiti su generazione e rinnovabili.
    • Quando manca certezza sui megawatt, la pianificazione del cloud cambia: region “piene” e region “libere” non coincidono con la domanda.

    Perché conta: Nel 2026 l’AI in Europa è anche un tema di energia. Senza MW non c’è scalabilità, anche con budget illimitato.

  5. Fase 5 Impatto pratico nel 2026: disponibilità guidata da capacità e contratti
    • Per i clienti enterprise la capacità AI diventa una risorsa da prenotare e non solo da consumare.
    • I prezzi tendono a restare rigidi nel breve: costi di energia, ammortamenti e scarsità non si spengono con un annuncio.
    • Il mix di istanze conta: training e inference hanno esigenze diverse e quindi dinamiche di costo differenti.
    • La strategia più solida è quella che regge gli imprevisti: multi-region, portabilità del carico e piani di fallback.

    Perché conta: Il capex apre la strada, ma nel 2026 vince chi progetta l’AI come un’infrastruttura, non come un esperimento.

Chiusura

Il capex vicino a 200 miliardi non è solo una cifra per analisti. È un acceleratore industriale che ridisegna AWS, ma incontra vincoli fisici che nel 2026 restano duri: chip e megawatt. Chi compra AI nel cloud non deve chiedersi solo “quale modello uso”, deve chiedersi “dove trovo capacità quando mi serve”. Il mercato si sposterà lì: disponibilità garantita, energia tracciabile e costi spiegabili.

Firma digitale di Junior Cristarella
Firma digitale del direttore responsabile

Approfondimenti correlati

Tecnologia: notizie, analisi e approfondimenti

Il nostro hub tecnologia: AI, cloud, sicurezza, piattaforme e infrastrutture digitali, con aggiornamenti e letture tecniche.

Apri la pagina hub

Update log

Registro degli aggiornamenti sostanziali: trasparenza su modifiche, correzioni e integrazioni informative.

  • Lunedì 16 febbraio 2026 alle ore 19:07: Rafforzata la lettura dei numeri: chiarita la differenza tra capex e “purchases of property and equipment” nel rendiconto finanziario per evitare interpretazioni fuorvianti.
  • Lunedì 16 febbraio 2026 alle ore 19:34: Estesa la sezione sui colli di bottiglia energetici europei: focus su tempi di connessione, obblighi di reporting e implicazioni pratiche per la capacità nei region UE.
  • Lunedì 16 febbraio 2026 alle ore 19:56: Aggiornate FAQ e guida operativa: aggiunti scenari su prezzi, disponibilità e strategie di procurement per servizi AI su AWS nel 2026.
Foto di Junior Cristarella
Autore Junior Cristarella Junior Cristarella è direttore responsabile e fondatore di Sbircia la Notizia Magazine. Supervisiona analisi e fact-checking della testata con un metodo basato su documenti pubblici e dati verificabili.
Pubblicato Lunedì 16 febbraio 2026 alle ore 17:36 Aggiornato Venerdì 6 marzo 2026 alle ore 09:16