Dimensioni e quota del mercato della memoria ad alta larghezza di banda

Analisi del mercato della memoria ad alta larghezza di banda di Mordor Intelligence
Si prevede che il mercato delle memorie ad alta larghezza di banda crescerà da 3.17 miliardi di dollari nel 2025 a 3.98 miliardi di dollari nel 2026 e raggiungerà i 12.44 miliardi di dollari entro il 2031, con un CAGR del 25.58% nel periodo 2026-2031. La domanda sostenuta di server ottimizzati per l'intelligenza artificiale, la più ampia adozione di DDR5 e la spesa aggressiva per gli hyperscaler hanno continuato ad accelerare l'espansione della capacità lungo la catena del valore dei semiconduttori nel 2025. Nell'ultimo anno, i fornitori si sono concentrati sul miglioramento della resa TSV, mentre i partner di packaging hanno investito in nuove linee CoWoS per alleviare la carenza di substrati. Le case automobilistiche hanno intensificato gli impegni con i fornitori di memorie per ottenere HBM qualificati ISO 26262 per piattaforme autonome di Livello 3 e Livello 4. L'ecosistema di fabbricazione dell'area Asia-Pacifico ha mantenuto la leadership produttiva dopo che i produttori coreani hanno impegnato investimenti multimiliardari destinati alle rampe HBM4E di nuova generazione.
Punti chiave del rapporto
- Per applicazione, i server hanno registrato una quota di fatturato del 67.80% nel 2025, mentre si prevede che il settore automobilistico e dei trasporti crescerà a un CAGR del 34.18% fino al 2031.
- In base alla tecnologia, HBM3 ha catturato il 45.70% dei ricavi del 2025; HBM3E sta avanzando a un CAGR del 40.90% fino al 2031.
- In base alla capacità di memoria per stack, nel 16 38.20 GB rappresentavano il 2025% delle dimensioni del mercato della memoria ad alta larghezza di banda; si prevede che 32 GB e oltre registreranno un CAGR del 36.40%.
- In base all'interfaccia del processore, nel 63.60 le GPU rappresentavano una quota di mercato del 2025%, mentre gli acceleratori AI/ASIC mostrano un CAGR previsto del 32.00%.
- In termini geografici, l'area Asia-Pacifico ha detenuto una quota di fatturato del 41.00% nel 2025 e si prevede che crescerà a un CAGR del 28.80% fino al 2031.
Nota: le dimensioni del mercato e le cifre previste in questo rapporto sono generate utilizzando il framework di stima proprietario di Mordor Intelligence, aggiornato con i dati e le informazioni più recenti disponibili a gennaio 2026.
Tendenze e approfondimenti sul mercato globale della memoria ad alta larghezza di banda
Analisi dell'impatto dei conducenti
| Guidatore | (~) % Impatto sulla previsione del CAGR | Rilevanza geografica | Cronologia dell'impatto |
|---|---|---|---|
| Proliferazione dei server AI e tassi di collegamento GPU | + 8.5% | Globale, concentrato in Nord America e Asia-Pacifico | Medio termine (2-4 anni) |
| Passaggio dei data center a DDR5 e packaging 2.5-D | + 6.2% | Globale, guidato dalle regioni iperscalabili | Medio termine (2-4 anni) |
| Inferenza Edge-AI nei sistemi ADAS per autoveicoli | + 4.8% | Europa, Nord America e Cina sono centri automobilistici | A lungo termine (≥ 4 anni) |
| Preferenza di hyperscaler per pile di interposer in silicio | + 3.7% | Regioni dei data center del Nord America e dell'Asia-Pacifico | A breve termine (≤ 2 anni) |
| Sussidi per la produzione di memoria localizzata | + 2.1% | Stati Uniti, Corea del Sud, Giappone | A lungo termine (≥ 4 anni) |
| Roadmap HBM pronte per la fotonica | + 1.1% | Adozione globale e precoce nei centri di ricerca | A lungo termine (≥ 4 anni) |
| Fonte: Intelligenza di Mordor | |||
Proliferazione dei server AI e velocità di collegamento GPU
La rapida crescita dei modelli linguistici su larga scala ha determinato un aumento di sette volte dei requisiti HBM per GPU rispetto ai dispositivi HPC tradizionali nel corso del 2024. L'H100 di NVIDIA combinava 80 GB di HBM3, offrendo 3.35 TB/s, mentre l'H200 è stato campionato all'inizio del 2025 con 141 GB di HBM3E a 4.8 TB/s.[1]NVIDIA, "Elementi essenziali della memoria GPU per le prestazioni dell'intelligenza artificiale", nvidia.com Gli arretrati degli ordini hanno bloccato la maggior parte della capacità dei fornitori fino al 2026, costringendo gli operatori dei data center ad acquistare in anticipo le scorte e a coinvestire nelle linee di imballaggio.
Passaggio dei data center a DDR5 e packaging 2.5-D
Gli hyperscaler hanno spostato i carichi di lavoro da DDR4 a DDR5 per ottenere prestazioni per watt superiori del 50%, adottando contemporaneamente l'integrazione 2.5-D che collega gli acceleratori AI alla memoria stacked su interposer in silicio. La dipendenza da un'unica piattaforma di packaging ha aumentato il rischio per la supply chain quando la carenza di substrati ha ritardato il lancio delle GPU per tutto il 2024.
Inferenza Edge-AI nei sistemi ADAS per l'automotive
I veicoli autonomi che raggiungono il Livello 4 elaborano flussi di sensori superiori a 1 TB/s, spingendo il livello automotive verso campioni HBM4 qualificati secondo ISO 26262. I fornitori di memorie hanno introdotto progetti orientati alla sicurezza che includono ECC integrato e monitoraggio termico avanzato per soddisfare i requisiti di sicurezza funzionale.
Preferenza Hyperscaler per stack di interposer in silicio
Chip AI personalizzati di AWS, Google e Microsoft hanno integrato più stack HBM tramite CoWoS di TSMC, raggiungendo densità di interconnessione superiori a 10,000 connessioni/mm². I fornitori hanno reagito alla carenza di capacità finanziando linee di interposer dedicate e sviluppando congiuntamente architetture a chiplet che riducono l'ingombro degli interposer.
Analisi dell'impatto delle restrizioni
| moderazione | (~) % Impatto sulla previsione del CAGR | Rilevanza geografica | Cronologia dell'impatto |
|---|---|---|---|
| Perdite di resa TSV sopra pile a 12 strati | -4.2% | Globale, concentrato in fabbriche avanzate | Medio termine (2-4 anni) |
| Capacità limitata di packaging avanzato CoWoS/SoIC | -3.8% | Asia-Pacifico, che influenza l'offerta globale | A breve termine (≤ 2 anni) |
| Limitazione termica nei dispositivi con larghezza di banda >1 TB/s | -2.1% | Globale, in particolare nei data center | Medio termine (2-4 anni) |
| Controlli geopolitici sulle esportazioni degli acceleratori di intelligenza artificiale | -1.9% | Cina, con effetti di ricaduta a livello globale | A lungo termine (≥ 4 anni) |
| Fonte: Intelligenza di Mordor | |||
Perdite di resa TSV sopra le pile a 12 strati
La resa è scesa al di sotto del 70% su pile HBM da 16 a causa dei cicli termici che hanno indotto guasti dovuti alla migrazione del rame all'interno delle TSV. I produttori hanno cercato di progettare soluzioni termiche passanti in silicio e nuovi materiali dielettrici per stabilizzare l'affidabilità, ma la commercializzazione è ancora lontana due anni.
Capacità limitata di packaging avanzato CoWoS/SoIC
Le linee CoWoS hanno registrato un utilizzo medio del 95% nel 2024; i produttori di substrati hanno faticato a fornire T-Glass in volumi sufficienti, costringendo all'allocazione le risorse ai clienti principali e ritardando i programmi di accelerazione AI emergenti. I flussi di SoIC alternativi di Samsung e di EMIB di Intel sono entrati in fase iniziale, ma non sono riusciti a compensare le carenze a breve termine.
Analisi del segmento
Per applicazione: i server guidano la trasformazione dell'infrastruttura
La categoria server ha guidato il mercato delle memorie ad alta larghezza di banda con una quota di fatturato del 67.80% nel 2025, riflettendo il passaggio degli operatori hyperscale ai server AI, ciascuno dei quali integra da otto a dodici stack HBM. La domanda ha registrato un'accelerazione dopo che i provider cloud hanno lanciato servizi basati su modelli base che si basano su una larghezza di banda per GPU superiore a 3 TB/s. Gli obiettivi di efficienza energetica per il 2025 hanno favorito la DRAM stacked perché offriva prestazioni per watt superiori rispetto alle soluzioni discrete, consentendo agli operatori di data center di rimanere entro i limiti di potenza. È iniziato un ciclo di aggiornamento aziendale con la sostituzione dei nodi basati su DDR4 con acceleratori abilitati HBM, estendendo gli impegni di acquisto fino al 2027.
Il segmento automotive e dei trasporti, sebbene oggi più piccolo, ha registrato la crescita più rapida, con un CAGR previsto del 34.18% fino al 2031. I produttori di chip hanno collaborato con i fornitori di primo livello per integrare funzionalità di sicurezza funzionale conformi ai requisiti ASIL D. I programmi di produzione di Livello 1 in Europa e Nord America sono entrati in fase di implementazione limitata alla fine del 3, con ciascun veicolo che utilizzava la larghezza di banda di memoria precedentemente riservata ai cluster di inferenza dei data center. Con la maturazione delle strategie di aggiornamento over-the-air, i produttori di veicoli hanno iniziato a trattare le auto come server edge, sostenendo ulteriormente i tassi di collegamento HBM.

Nota: le quote di tutti i segmenti individuali sono disponibili al momento dell'acquisto del report
Per tecnologia: la leadership di HBM3 affronta la crisi di HBM3E
HBM3 ha rappresentato il 45.70% del fatturato nel 2025, dopo la sua diffusa adozione nelle GPU per l'addestramento dell'intelligenza artificiale. Il campionamento di HBM3E è iniziato nel primo trimestre del 1 e la produzione della prima ondata ha funzionato a velocità di pin superiori a 2024 Gb/s. L'aumento delle prestazioni ha raggiunto 9.2 TB/s per stack, riducendo il numero di stack necessari per la larghezza di banda target e riducendo la densità termica del package.
Il CAGR previsto del 3% per HBM40.90E è supportato dal prodotto Micron da 36 GB e 12 core, entrato in produzione a volume a metà del 2025, destinato ad acceleratori con dimensioni del modello fino a 520 miliardi di parametri. In prospettiva, lo standard HBM4, pubblicato nell'aprile 2025, raddoppia i canali per stack e aumenta la velocità aggregata a 2 TB/s, aprendo la strada ai processori AI multi-petaflop.
Per capacità di memoria: 16 GB di memoria principale diventano 32 GB di espansione
Il livello da 16 GB ha rappresentato il 38.20% della quota di mercato della memoria ad alta larghezza di banda nel 2025, bilanciando rendimento e capacità per i nodi di formazione LLM tradizionali. I fornitori si sono affidati a configurazioni di stack 8-high mature, vendute con rendimenti elevati, a supporto di obiettivi di costo aggressivi.
La domanda di modelli più grandi ha stimolato una rapida svolta verso offerte da 32 GB e 36 GB, con un CAGR previsto del 36.40% per i dispositivi da 32 GB e oltre fino al 2031. L'HBM36E da 12 GB e 3 strati di Micron ha ampliato la capacità senza superare le soglie di rischio TSV a 12 strati. Le prossime roadmap HBM24E da 4 strati puntano a 64 GB per stack, sebbene i fornitori abbiano continuato a perfezionare il raffreddamento integrato per compensare la densità termica.

Nota: le quote di tutti i segmenti individuali sono disponibili al momento dell'acquisto del report
Per interfaccia del processore: il dominio della GPU sfidato dagli acceleratori AI
Le GPU hanno assorbito il 63.60% delle spedizioni del 2025, poiché le linee H100 e H200 di NVIDIA hanno dominato i cluster di addestramento AI. I picchi di utilizzo hanno costretto gli operatori cloud a riservare le future produzioni di wafer fino al 2026 inoltrato.
Gli acceleratori AI personalizzati hanno mostrato un CAGR previsto del 32.00% fino al 2031, con gli hyperscaler che si sono spostati verso chip progettati internamente e ottimizzati per carichi di lavoro proprietari. Questi ASIC spesso integrano memoria ad alta larghezza di banda direttamente sul package, eliminando la latenza off-chip. Le schede basate su FPGA hanno mantenuto una posizione di nicchia nella virtualizzazione delle funzioni di rete e nel trading a bassa latenza, sfruttando l'HBM per sostenere il throughput senza sacrificare la riconfigurabilità.
Analisi geografica
L'area Asia-Pacifico ha rappresentato il 41.00% del fatturato del 2025, con la Corea del Sud ancorata, dove SK Hynix e Samsung controllavano oltre l'80% delle linee di produzione. Gli incentivi governativi annunciati nel 2024 hanno sostenuto un polo produttivo ampliato, la cui apertura è prevista per il 2027. La taiwanese TSMC ha mantenuto il monopolio del packaging per i CoWoS all'avanguardia, vincolando la disponibilità di memoria alla fornitura locale di substrati e creando un rischio di concentrazione regionale.
La quota del Nord America è cresciuta poiché Micron si è assicurata 6.1 miliardi di dollari di finanziamenti del CHIPS Act per costruire fabbriche di DRAM avanzate a New York e nell'Idaho, con esecuzioni pilota di HBM previste per l'inizio del 2026. Le spese in conto capitale per gli hyperscaler hanno continuato a trainare la domanda locale, sebbene la maggior parte dei wafer venisse ancora elaborata in Asia prima dell'assemblaggio finale del modulo negli Stati Uniti.
L'Europa è entrata nel mercato grazie alla domanda del settore automobilistico; gli OEM tedeschi hanno qualificato HBM per i sistemi di assistenza alla guida di Livello 3, la cui distribuzione è prevista per la fine del 2024. La strategia dell'UE sui semiconduttori è rimasta incentrata sulla ricerca e sviluppo, privilegiando l'interconnessione fotonica e la ricerca neuromorfica, che potrebbero sbloccare la futura espansione del mercato delle memorie ad alta larghezza di banda. Medio Oriente e Africa sono rimasti in una fase di adozione iniziale, ma i progetti di data center di intelligenza artificiale sovrana, avviati nel 2025, hanno suggerito un imminente aumento della domanda regionale.

Panorama competitivo
Il mercato delle memorie ad alta larghezza di banda ha mostrato caratteristiche oligopolistiche, poiché SK Hynix, Samsung e Micron fornivano complessivamente oltre il 95% della produzione globale. SK Hynix ha mantenuto la leadership grazie all'investimento iniziale di TSV e ai contratti mono-fornitore con NVIDIA per HBM3E. Samsung ha ridotto il divario dopo aver risolto i problemi di rendimento del 2024 e aver lanciato una linea HBM4 a doppio sito a Pyeongtaek a metà del 2025. Micron ha accelerato la crescita delle sue quote di mercato abbinando la sua HBM36E da 3 GB alla GPU MI350 di AMD, offrendo un'alternativa interessante per gli ecosistemi hardware di intelligenza artificiale aperti.
La concorrenza si è spostata dalla tecnologia delle celle core verso alleanze di packaging avanzato. SK Hynix e TSMC hanno annunciato un modello di coproduzione che abbina la logica N3 agli stack HBM4 in un unico ciclo di approvvigionamento, fidelizzando i clienti fino al 2028.[4]SK Hynix, "SK Hynix collabora con TSMC per rafforzare la leadership HBM", skhynix.com I fornitori si sono inoltre rivolti a nicchie differenziate, come le varianti HBM qualificate per il settore automobilistico che integrano intervalli di temperatura estesi e diagnostica in tempo reale. I nuovi operatori cinesi hanno continuato a sviluppare le capacità HBM2E e HBM3 nazionali; tuttavia, i controlli sulle esportazioni hanno limitato l'accesso alle apparecchiature, mantenendo le loro offerte indietro di una o due generazioni.
La spinta verso la memoria specifica per applicazione ha catalizzato un modello di coinvolgimento orientato ai servizi in cui i fornitori adattano i limiti di velocità, il numero di canali e gli schemi ECC ai singoli carichi di lavoro. Questa strategia di personalizzazione ha generato costi di switching che hanno favorito i fornitori tradizionali e rafforzato la concentrazione del mercato fino al 2030.
Leader del settore della memoria ad alta larghezza di banda
Micron Technology, Inc.
Samsung Electronics Co.Ltd.
SKHynix Inc.
Intel Corporation
Fujitsu Limited
- *Disclaimer: i giocatori principali sono ordinati senza un ordine particolare

Recenti sviluppi del settore
- Gennaio 2025: Micron ha integrato la sua memoria HBM3E da 36 GB nelle GPU Instinct MI350 di AMD, offrendo una larghezza di banda fino a 8 TB/s.
- Dicembre 2024: JEDEC ha rilasciato lo standard JESD270-4 HBM4, che consente una velocità di elaborazione di 2 TB/s e configurazioni da 64 GB.
- Novembre 2025: SK Hynix e TSMC ampliano lo sviluppo congiunto di HBM4 per accelerare la disponibilità in volumi degli acceleratori AI da 3 nm.
- Luglio 2025: SK Hynix conferma la costruzione di una fabbrica di memorie da 6.8 miliardi di dollari a Yongin, destinata alla produzione di motori a scansione elettronica (HBM).
Ambito del rapporto sul mercato globale della memoria ad alta larghezza di banda
La memoria ad alta larghezza di banda (HBM) è l'interfaccia di memoria del computer ad alta velocità per la memoria dinamica sincrona ad accesso casuale (SDRAM) impilata in 3D. Funziona con hardware di rete ad alte prestazioni, ASIC AI per data center ad alte prestazioni, FPGA e supercomputer.
Il mercato della memoria ad alta larghezza di banda (HBM) è segmentato in base all'applicazione (server, reti, applicazioni consumer, automotive e altre) e all'area geografica (Nord America [Stati Uniti e Canada], Europa [Germania, Francia, Regno Unito e resto d'Europa], Asia-Pacifico [India, Cina, Giappone e resto dell'Asia-Pacifico] e resto del mondo).
Le dimensioni e le previsioni del mercato sono fornite in termini di valore (USD) per tutti i segmenti di cui sopra.
| Server |
| Networking |
| Calcolo ad alte prestazioni |
| Elettronica di consumo |
| Automotive e trasporti |
| HBM2 |
| HBM2E |
| HBM3 |
| HBM3E |
| HBM4 |
| 4 GB |
| 8 GB |
| 16 GB |
| 24 GB |
| 32 GB e superiori |
| GPU |
| CPU |
| Acceleratore AI / ASIC |
| FPGA |
| Altro |
| Nord America | Stati Uniti | |
| Canada | ||
| Messico | ||
| Sud America | Brasile | |
| Resto del Sud America | ||
| Europa | Germania | |
| Francia | ||
| Regno Unito | ||
| Resto d'Europa | ||
| Asia-Pacifico | Cina | |
| Giappone | ||
| India | ||
| Corea del Sud | ||
| Resto dell'Asia-Pacifico | ||
| Medio Oriente & Africa | Medio Oriente | Arabia Saudita |
| Emirati Arabi Uniti | ||
| Turchia | ||
| Resto del Medio Oriente | ||
| Africa | Sud Africa | |
| Resto d'Africa | ||
| Per Applicazione | Server | ||
| Networking | |||
| Calcolo ad alte prestazioni | |||
| Elettronica di consumo | |||
| Automotive e trasporti | |||
| Per tecnologia | HBM2 | ||
| HBM2E | |||
| HBM3 | |||
| HBM3E | |||
| HBM4 | |||
| Per capacità di memoria per stack | 4 GB | ||
| 8 GB | |||
| 16 GB | |||
| 24 GB | |||
| 32 GB e superiori | |||
| Per interfaccia del processore | GPU | ||
| CPU | |||
| Acceleratore AI / ASIC | |||
| FPGA | |||
| Altro | |||
| Per geografia | Nord America | Stati Uniti | |
| Canada | |||
| Messico | |||
| Sud America | Brasile | ||
| Resto del Sud America | |||
| Europa | Germania | ||
| Francia | |||
| Regno Unito | |||
| Resto d'Europa | |||
| Asia-Pacifico | Cina | ||
| Giappone | |||
| India | |||
| Corea del Sud | |||
| Resto dell'Asia-Pacifico | |||
| Medio Oriente & Africa | Medio Oriente | Arabia Saudita | |
| Emirati Arabi Uniti | |||
| Turchia | |||
| Resto del Medio Oriente | |||
| Africa | Sud Africa | ||
| Resto d'Africa | |||
Domande chiave a cui si risponde nel rapporto
Qual è la dimensione attuale del mercato delle memorie ad alta larghezza di banda?
Nel 3.98, il mercato delle memorie ad alta larghezza di banda era valutato a 2026 miliardi di dollari e si prevede che raggiungerà i 12.44 miliardi di dollari entro il 2031.
Quale segmento applicativo è in testa nella spesa?
I server hanno contribuito al 67.80% dei ricavi del 2025, poiché gli hyperscaler hanno adottato architetture incentrate sull'intelligenza artificiale.
Perché l'HBM3E sta guadagnando quote di mercato?
HBM3E offre fino a 1.2 TB/s per stack e riduce il consumo energetico, rendendolo l'opzione preferita per le GPU di nuova generazione e gli acceleratori AI.
In che modo le case automobilistiche utilizzano l'HBM?
Gli OEM del settore automobilistico stanno passando all'HBM26262 qualificato ISO 4 per soddisfare i requisiti di larghezza di banda della memoria della guida autonoma di livello 3 e di livello 4.
Quale regione produce la memoria a larghezza di banda più elevata?
La regione Asia-Pacifico è leader con una quota di fatturato superiore al 41.00% e ospita la maggior parte della capacità di fabbricazione e confezionamento avanzato.



