I colli di bottiglia dell'I/O causano rallentamenti? Eliminali con l'I/O parallelo adattativo
I motivi più validi per virtualizzare i server
- Consolidare più workload su un server utilizzando le sue CPU multiple e l'abbondante memoria.
- Isolare le applicazioni rispetto alle modifiche hardware e ai guasti in modo che funzionino senza problemi
Problema:
Tutti i workload rimangono in attesa dell'elaborazione seriale dell'I/O (input/output), creando un collo di bottiglia.
Punti dolenti:
- Per distribuire il carico di I/O sono necessari più server, e questo significa meno macchine virtuali (VM) per server
- Le applicazioni virtualizzate girano più lentamente
- L'attesa riduzione dei costi non si concretizza
Perché?
Hypervisor, sistemi operativi e virtualizzazione dei container trattano l'I/O in modo seriale, anche se l'esecuzione dei workload è programmata in parallelo su diverse CPU.
La soluzione: sbloccare le prestazioni dei server con il software DataCore™ Parallel I/O.
Come: elabora in parallelo le richieste di I/O sfruttando i sistemi con processore multi-core
Vantaggi: fare di più con meno risorse
- Bastano molti meno server (2 contro 10)*
- Le applicazioni girano 10 volte più velocemente**, anche quando sono virtualizzate: il lavoro viene completato in 1/10 del tempo
- I sistemi rispondono più rapidamente senza dover aggiungere hardware
- Rapporti di consolidamento dei workload più elevati: più VM per server
- I costi scendono sostanzialmente, così come la complessità
La prova: detiene i record mondiali di prestazioni e rapporto prezzo/prestazioni
Disponibilità di prodotto - La potenza di Parallel I/O è inclusa in questo prodotto:
* Il rapporto dipende dal numero di core per CPU e dall'intensità dell'I/O dei workload
** Risultato dell'indagine TechValidate sui clienti DataCore
Il rapporto completo sui risultati di DataCore SANsymphony 10.0 con il benchmark SPC-1