Dimensioni e quota del mercato dell'in-memory computing

Analisi di mercato dell'in-memory computing di Mordor Intelligence
Si prevede che il mercato globale dell'in-memory computing crescerà da 14.4 miliardi di dollari nel 2025 a 16.82 miliardi di dollari nel 2026 e raggiungerà i 36.59 miliardi di dollari entro il 2031, con un CAGR del 16.83% nel periodo 2026-2031. Un forte aumento dei carichi di lavoro basati sull'intelligenza artificiale, il crollo dei prezzi della memoria persistente e le crescenti aspettative per tempi di risposta inferiori al millisecondo stanno spingendo le aziende a riprogettare le architetture dati attorno all'elaborazione residente in memoria. Il calo del costo per gigabyte di memoria di classe storage consente di mantenere in memoria set di dati più grandi, mentre i cluster disaggregati abilitati da CXL rendono l'aggiunta di capacità quasi senza intoppi. Gli hyperscaler cloud ora offrono servizi in-memory serverless che scalano istantaneamente, consentendo anche alle aziende di medie dimensioni di raggiungere la velocità un tempo riservata alle banche più grandi. Le implementazioni edge stanno accelerando, poiché le normative sovrane sull'intelligenza artificiale indirizzano l'inferenza sensibile alla latenza ai confini nazionali. Insieme, questi fattori elevano la velocità dei dati a un fattore di differenziazione strategico in tutti i principali settori verticali.[1]Christine Donato, "Mercedes-AMG intensifica la velocità con l'analisi in tempo reale", SAP Community, community.sap.com
Punti chiave del rapporto
- Per componente, le piattaforme di gestione dei dati in-memory detenevano il 61.34% della quota di mercato dell'in-memory computing nel 2025, mentre si prevede che le piattaforme applicative in-memory raggiungeranno un CAGR del 21.85% entro il 2031.
- In base alla modalità di distribuzione, il cloud/SaaS ha dominato con una quota di fatturato del 70.88% nel 2025 e sta crescendo a un CAGR del 26.95% entro il 2031.
- Per applicazione, l'analisi in tempo reale ha catturato il 47.92% dei ricavi nel 2025; si prevede che l'elaborazione di flussi IoT/edge crescerà a un CAGR del 30.18% entro il 2031.
- In base al settore verticale dell'utente finale, il settore BFSI ha rappresentato il 29.12% della spesa nel 2025, mentre l'assistenza sanitaria e le scienze della vita stanno crescendo più rapidamente, con un CAGR del 23.05%.
- In base alla tecnologia di memoria, la DRAM ha rappresentato il 65.95% del fatturato nel 2025, mentre la memoria di classe storage è destinata a raggiungere un CAGR del 28.62% nel periodo di previsione.
- In termini geografici, il Nord America ha contribuito al 37.25% del fatturato del 2025; l'Asia-Pacifico è la regione in più rapida crescita, con un CAGR del 20.25% fino al 2031.
Nota: le dimensioni del mercato e le cifre previste in questo rapporto sono generate utilizzando il framework di stima proprietario di Mordor Intelligence, aggiornato con i dati e le informazioni più recenti disponibili a gennaio 2026.
Tendenze e approfondimenti sul mercato globale dell'in-memory computing
Analisi dell'impatto dei conducenti
| Guidatore | (~) % Impatto sulla previsione del CAGR | Rilevanza geografica | Cronologia dell'impatto |
|---|---|---|---|
| L'esplosione dei Big Data | + 4.20% | Global | Medio termine (2-4 anni) |
| Crescente necessità di elaborazione rapida dei dati | + 3.80% | Nord America e UE | A breve termine (≤ 2 anni) |
| Proliferazione di carichi di lavoro incentrati sull'intelligenza artificiale (LLM, ricerca vettoriale) | + 5.10% | Globale, concentrato negli Stati Uniti e in Cina | A breve termine (≤ 2 anni) |
| Costo/GB in calo della memoria persistente | + 2.30% | Global | A lungo termine (≥ 4 anni) |
| Crescente adozione del rilevamento delle frodi in tempo reale in BFSI | + 1.20% | Nord America e UE | Medio termine (2-4 anni) |
| Analisi in memoria edge-side per cloud Telco 5G | + 0.50% | Nucleo APAC, ricadute a livello globale | A lungo termine (≥ 4 anni) |
| Fonte: Intelligenza di Mordor | |||
L'esplosione dei Big Data
Le organizzazioni ora generano flussi di dati multi-quintilioni di byte che devono essere interrogati in tempo reale, costringendo a passare dall'elaborazione batch ad architetture di streaming ancorate a piattaforme incentrate sulla memoria. Gli operatori sanitari gestiscono pipeline di monitoraggio continuo dei pazienti che segnalano anomalie cliniche in pochi secondi, mentre gli operatori di trading ad alta frequenza muovono miliardi di dollari con calcoli al microsecondo. [2]Jieyi Li, “Calcolo ad alte prestazioni in ambito sanitario: una prospettiva di analisi automatica della letteratura”, Journal of Big Data, journalofbigdata.springeropen.com
Crescente necessità di elaborazione rapida dei dati
Interazioni con i clienti, automazione di fabbrica e veicoli connessi richiedono latenze misurate in microsecondi. Mercedes-AMG ha ridotto i tempi di ciclo dei test sui motori del 94% dopo aver adottato un livello di analisi in-memory in tempo reale, guadagnando di fatto un giorno di produzione in più ogni settimana.
Proliferazione di carichi di lavoro incentrati sull'intelligenza artificiale
Modelli linguistici di grandi dimensioni, ricerca vettoriale e archivi di incorporamento saturano la larghezza di banda della memoria tradizionale. Le architetture di elaborazione in memoria mostrano un TCO per query al secondo fino a 6.94 volte inferiore rispetto alle baseline basate solo su GPU, rendendo le strutture in memoria specializzate parte integrante dei futuri cluster di inferenza.
Costo/GB in calo della memoria persistente
La DRAM+ ferroelettrica HfO2 di nuova generazione promette velocità prossime a quelle delle DRAM, non volatilità e scalabilità dei nodi al di sotto dei 10 nm, riducendo il divario di costo con le NAND e stimolando sperimentazioni aziendali più ampie. [4]Skye Jacobs, "La DRAM+ di prossima generazione potrebbe trasformare l'intelligenza artificiale e l'edge computing", TechSpot, techspot.com
Analisi dell'impatto delle restrizioni
| moderazione | (~) % Impatto sulla previsione del CAGR | Rilevanza geografica | Cronologia dell'impatto |
|---|---|---|---|
| Alto costo della DRAM su larga scala | -2.80% | Global | A breve termine (≤ 2 anni) |
| Gravità dei dati e latenza inter-cluster | -1.50% | Global | Medio termine (2-4 anni) |
| Problemi di blocco del fornitore per gli elettrodomestici IMC proprietari | -1.20% | Nord America e UE | A lungo termine (≥ 4 anni) |
| Carenza di architetti e sviluppatori IMC qualificati | -0.80% | Global | A lungo termine (≥ 4 anni) |
| Fonte: Intelligenza di Mordor | |||
Alto costo della DRAM su larga scala
I picchi del 50% nei prezzi della DRAM all'inizio del 2025 hanno aumentato il costo totale di proprietà dei cluster di grandi dimensioni, ritardando i cicli di aggiornamento per i carichi di lavoro ad alta intensità di memoria.
Carenza di architetti e sviluppatori IMC qualificati
I gruppi limitati di specialisti di sistemi distribuiti allungano le tempistiche dei progetti e spingono le aziende verso servizi cloud gestiti che mascherano la complessità.
Analisi del segmento
Per componente: le piattaforme guidano l'adozione aziendale
Le piattaforme di gestione dei dati in-memory hanno registrato il 61.34% del fatturato nel 2025, sottolineando la domanda di soluzioni sostitutive immediate e conformi ad ACID per i database consolidati. Molte banche hanno migrato i carichi di lavoro di analisi core senza riscrivere le applicazioni, ottenendo riduzioni di latenza di 20-40 ms per query. Al contrario, si prevede che le piattaforme applicative in-memory cresceranno a un CAGR del 21.85%, poiché le aziende native digitali progettano microservizi in tempo reale da zero. Il panorama dei componenti sta convergendo: i fornitori integrano SQL, streaming e ricerca vettoriale in strutture unificate che ospitano carichi di lavoro operativi e analitici fianco a fianco, riducendo i costi generali di trasferimento dei dati e semplificando DevOps.
Per modalità di distribuzione: il dominio del cloud accelera
I modelli cloud hanno rappresentato il 70.88% del fatturato nel 2025 e supereranno il mercato complessivo dell'in-memory computing fino al 2031. Gli hyperscaler raggruppano istanze ad alta memoria, pool collegati a CXL e scalabilità serverless con un pagamento a consumo, riducendo la barriera per gli utenti di medie dimensioni. Il livello ElastiCache basato su Valkey di AWS costa il 33% in meno rispetto ai cluster Redis equivalenti, aumentando al contempo la produttività di oltre il doppio, dimostrando un rapporto prezzo-prestazioni interessante per i provider SaaS attenti ai costi.
Per applicazione: l'analisi in tempo reale favorisce la crescita
L'analisi in tempo reale ha rappresentato il 47.92% della spesa del 2025, poiché le aziende monetizzano informazioni istantanee provenienti da dati transazionali e provenienti da sensori. PayPal sfrutta un motore antifrode in-memory per ispezionare le transazioni in corso, limitando gli eventi di perdita prima del completamento dell'autorizzazione. L'IoT e l'elaborazione dei flussi edge cresceranno più rapidamente, con un CAGR del 30.18%, trainati dall'implementazione del 5G e da scenari di apprendimento federato che pre-elaborano i dati in prossimità della fonte per ridurre il traffico di backhaul.

Nota: le quote di tutti i segmenti individuali sono disponibili al momento dell'acquisto del report
Per utente finale verticale: BFSI guida, l'assistenza sanitaria accelera
Il settore finanziario ha mantenuto una quota del 29.12% nel 2025 per trading ad alta frequenza, valutazione del rischio in tempo reale e query di conformità. Il settore sanitario crescerà del 23.05% CAGR grazie a nuovi mandati di condivisione dei dati come l'European Health Data Space, che affida analisi critiche per la vita a piattaforme a bassa latenza. Anche i produttori ampliano l'utilizzo, integrando gemelli digitali residenti in memoria negli impianti di produzione per ridurre i tempi di inattività.
Di Memory Technology: il dominio della DRAM rischia di essere interrotto
Nel 65.95, la DRAM ha rappresentato il 2025% della spesa, ancorando i carichi di lavoro critici per la latenza. Tuttavia, la memoria di classe storage segue una traiettoria di CAGR del 28.62%, poiché le aziende adottano la persistenza indirizzabile in byte che elimina le finestre di riscaldamento della cache dopo gli eventi di failover. La spinta della Cina per la fornitura nazionale di HBM3 entro il 2026 segnala una crescente autosufficienza regionale e un'ulteriore pressione competitiva sui fornitori globali.

Nota: le quote di tutti i segmenti individuali sono disponibili al momento dell'acquisto del report
Analisi geografica
Il Nord America ha generato il 37.25% del fatturato del 2025, sostenuto da mercati dei capitali solidi, un solido ecosistema di talenti e un'elevata propensione degli hyperscaler all'accelerazione dell'intelligenza artificiale. Sistemi di pagamento in tempo reale, piloti di veicoli autonomi e piattaforme di medicina di precisione continuano a far crescere la memoria in ogni stato.
L'area Asia-Pacifico sta crescendo più rapidamente, con un CAGR del 20.25%. I programmi statali cinesi sui semiconduttori e i corridoi cloud di Digital India in India stanno dando vita a data center da megawatt, molti dei quali precablati per l'espansione del fabric CXL. La densificazione regionale del 5G e i requisiti di localizzazione dei dati spostano le attività di inferenza verso i confini nazionali, favorendo fabric in-memory ottimizzati per i microservizi.
L'Europa sta lottando con limiti di capacità, ma sta allo stesso tempo convogliando capitali record in nuove costruzioni. La cartolarizzazione da 720 milioni di euro di Vantage Data Centers, la prima del suo genere nel continente, segnala una crescente fiducia degli investitori nel fatto che i carichi di lavoro dell'intelligenza artificiale assorbiranno rapidamente nuovi rack. L'AI Act dell'UE e le norme sulla sostenibilità stanno spingendo le aziende verso architetture in-memory a basso consumo energetico che bilanciano la produttività con i limiti di potenza.

Panorama competitivo
Il mercato dell'in-memory computing mostra una moderata concentrazione. SAP, Oracle e Microsoft ampliano le offerte in bundle che consentono ai clienti di sbloccare le prestazioni residenti in memoria all'interno di ambienti ERP e database familiari, rafforzando la fidelizzazione al rinnovo. Redis e Aerospike perseguono casi d'uso a bassa latenza come la prevenzione delle frodi e le offerte nel settore ad-tech, creando adiacenze ad alta crescita. GridGain unisce elaborazione e storage in un unico livello in-memory per supportare pipeline di intelligenza artificiale che combinano eventi di streaming, query SQL e ricerca di similarità vettoriale.
Le startup di database vettoriali hanno attirato oltre 350 milioni di dollari nei round di finanziamento del 2024, evidenziando la convinzione degli investitori nel recupero ottimizzato della memoria per l'intelligenza artificiale generativa. L'acquisizione di DataStax da parte di IBM rafforza ulteriormente i legami tra gli archivi chiave-valore in-memory e i framework di addestramento dei modelli, riflettendo una strategia volta a gestire l'intero ciclo di vita dell'intelligenza artificiale, dall'acquisizione dei dati all'inferenza. Anche i player adiacenti all'hardware stanno entrando in scena: Samsung e Micron stanno delineando DIMM compatibili con CXL che promettono la condivisione multi-socket senza penalità NUMA, rivolte direttamente ai cloud builder che necessitano di footprint di memoria elastici.
La volatilità dei prezzi di DRAM e HBM rimane un'incognita. I fornitori con contratti multi-sourcing coprono l'esposizione, mentre gli ISV più piccoli sfruttano le roadmap dei provider cloud per attutire il rischio legato al silicio grezzo. La scarsità di talenti nei sistemi di memoria distribuita offre un vantaggio ai fornitori di servizi che offrono progettazione, implementazione e gestione delle operazioni chiavi in mano in abbonamenti mensili.
Leader del settore dell'in-memory computing
SAP SE
Oracle Corporation
Microsoft Corporation
International Business Machines Corporation
Amazon Web Services, Inc.
- *Disclaimer: i giocatori principali sono ordinati senza un ordine particolare

Recenti sviluppi del settore
- Giugno 2025: Vantage Data Centers si è assicurata 720 milioni di euro tramite la prima cartolarizzazione europea di asset di data center.
- Giugno 2025: Oracle ha dichiarato un fatturato di 57.4 miliardi di USD nell'anno fiscale 2025, con una crescita dei database multicloud del 115% su base trimestrale.
- Maggio 2025: Amazon ElastiCache e MemoryDB hanno aggiunto il supporto per Valkey 7.2, riducendo i costi fino al 33% e aumentando la produttività del 230%.
- Gennaio 2025: Fluidstack firma un protocollo d'intesa con il governo francese per costruire un supercomputer AI decarbonizzato da 1 GW, finanziato con 10 miliardi di euro.
Ambito del rapporto sul mercato globale dell'in-memory computing
Il calcolo in memoria è l'archiviazione di informazioni nella memoria ad accesso casuale (RAM) principale di server dedicati piuttosto che in complicati database relazionali che operano su unità disco relativamente lente. Il tipo di componenti come la gestione dei dati in memoria e le applicazioni in memoria sono considerati nell'ambito del rapporto. Le applicazioni in memoria includono l'analisi in memoria e il server delle applicazioni in memoria.
| Piattaforme di gestione dei dati in memoria |
| Piattaforme applicative in memoria |
| Locale |
| Cloud/SaaS |
| Analisi in tempo reale e BI |
| Trading ad alta frequenza |
| Gestione delle frodi e dei rischi |
| Elaborazione di flussi IoT/Edge |
| BFSI |
| Sanità e scienze della vita |
| IT e telecomunicazioni |
| Governo e settore pubblico |
| Produzione e settore automobilistico |
| IMC basato su DRAM |
| IMC basato su NAND (Redis on-flash, ecc.) |
| Memoria persistente/di classe di archiviazione (SCM) |
| Grandi imprese |
| Piccole e medie imprese (PMI) |
| Nord America | Stati Uniti |
| Canada | |
| Messico | |
| Europa | Regno Unito |
| Germania | |
| Francia | |
| Italia | |
| Resto d'Europa | |
| Asia-Pacifico | Cina |
| Giappone | |
| India | |
| Corea del Sud | |
| Resto dell'Asia | |
| Medio Oriente | Israele |
| Arabia Saudita | |
| Emirati Arabi Uniti | |
| Turchia | |
| Resto del Medio Oriente | |
| Africa | Sud Africa |
| Egitto | |
| Resto d'Africa | |
| Sud America | Brasile |
| Argentina | |
| Resto del Sud America |
| Per componente | Piattaforme di gestione dei dati in memoria | |
| Piattaforme applicative in memoria | ||
| Per modalità di distribuzione | Locale | |
| Cloud/SaaS | ||
| Per Applicazione | Analisi in tempo reale e BI | |
| Trading ad alta frequenza | ||
| Gestione delle frodi e dei rischi | ||
| Elaborazione di flussi IoT/Edge | ||
| Per utente finale Verticale | BFSI | |
| Sanità e scienze della vita | ||
| IT e telecomunicazioni | ||
| Governo e settore pubblico | ||
| Produzione e settore automobilistico | ||
| Di Memory Technology | IMC basato su DRAM | |
| IMC basato su NAND (Redis on-flash, ecc.) | ||
| Memoria persistente/di classe di archiviazione (SCM) | ||
| Per dimensione dell'organizzazione | Grandi imprese | |
| Piccole e medie imprese (PMI) | ||
| Per geografia | Nord America | Stati Uniti |
| Canada | ||
| Messico | ||
| Europa | Regno Unito | |
| Germania | ||
| Francia | ||
| Italia | ||
| Resto d'Europa | ||
| Asia-Pacifico | Cina | |
| Giappone | ||
| India | ||
| Corea del Sud | ||
| Resto dell'Asia | ||
| Medio Oriente | Israele | |
| Arabia Saudita | ||
| Emirati Arabi Uniti | ||
| Turchia | ||
| Resto del Medio Oriente | ||
| Africa | Sud Africa | |
| Egitto | ||
| Resto d'Africa | ||
| Sud America | Brasile | |
| Argentina | ||
| Resto del Sud America | ||
Domande chiave a cui si risponde nel rapporto
Qual è il valore attuale del mercato dell'in-memory computing?
Nel 16.82 il mercato valeva 2026 miliardi di dollari.
Quanto velocemente sta crescendo il mercato dell'in-memory computing?
Si prevede che registrerà un CAGR del 16.83%, raddoppiando a 36.59 miliardi di dollari entro il 2031.
Quale modello di distribuzione sta crescendo più rapidamente?
Le implementazioni Cloud/SaaS, che rappresentano già il 70.88% del fatturato, stanno crescendo a un CAGR del 26.95%.
Perché i carichi di lavoro dell'intelligenza artificiale sono importanti per l'adozione dell'in-memory computing?
I grandi modelli linguistici e la ricerca vettoriale saturano la larghezza di banda della memoria tradizionale, rendendo essenziali le strutture specializzate in memoria per l'inferenza a bassa latenza.
Quale regione sta crescendo più rapidamente?
Si prevede che l'area Asia-Pacifico crescerà a un CAGR del 20.25% a causa della massiccia espansione dei data center e della proliferazione del 5G.
Qual è il maggiore ostacolo a un'adozione più ampia?
I prezzi volatili della DRAM possono aumentare il costo totale di proprietà e ritardare gli aggiornamenti su larga scala, soprattutto per gli operatori hyperscale.
Pagina aggiornata l'ultima volta il:



