Cerca
Lingue
5 minuti di lettura

Quest’anno il software-defined storage cambierà il mondo dei dati

Secondo George Teixeira, ceo di Datacore Software, nel 2015 la filosofia del “software-defined everything” e del software-defined storage continuerà a evolvere, spinta dai vantaggi in termini di produttività che è in grado di offrire ai clienti. Il cambiamento avrà un impatto maggiore sui fornitori di sistemi per lo storage tradizionali, dato che il software-defined storage promette di rendere una commodity i sottostanti dispositivi per la memorizzazione dei dati. Il risultato sarà quello di portare le funzionalità e i servizi di storage a livelli ancora più elevati di produttività, invece di tenere le aziende bloccate su specifici sistemi. Le vere piattaforme di software-defined storage consentiranno a questi dispositivi di fare di più con minori risorse, incrementandone l’utilizzo e lavorando su piattaforme diverse a livello infrastrutturale. Alla fine, gli straordinari benefici economici, la migliore produttività e la necessità di una maggiore agilità nel rispondere a future esigenze spingeranno il software-defined storage fino a renderlo nel 2015 una soluzione di adozione comune.

Il ceo di Datacore Software, George Teixeira

Quest’anno il software defined storage cambierà il mondo dei datiNon solo, per il ceo di Datacore nel 2015 i server diventeranno un elemento sempre più importante nella strategia di sostituzione delle batterie di storage tradizionali. I server saranno un alleato del software-defined storage, continuando ad alimentare la nuova categoria dei server di storage e le SAN virtuali iper-convergenti. L’ultima generazione di server è potente e riuscirà a supportare quantità di storage sempre maggiori. Soluzioni di software-defined storage come il software Virtual SAN di DataCore sono state pensate per eliminare i problemi e la complessità tipici delle reti di storage tradizionali, proponendo al contempo un percorso di crescita. Il software Virtual SAN sta maturando rapidamente e questo spingerà ulteriormente la trasformazione dei server in potenti sistemi di storage capaci di guardare al futuro trasformandosi in vere e proprie SAN virtuali di livello enterprise.

Ancora: dischi tradizionali e flash faranno gruppo e gli stack software copriranno entrambi i mondi. L’anno che si è da poco concluso ha visto continuare la tendenza a impiegare flash ovunque, con i dispositivi basati su questa tecnologia che si sono velocemente spostati dal semplice utilizzo nei server all’impiego a tutto campo. Inizialmente questo ha spinto molte nuove aziende a proporre storage di questo tipo, ma poi si è andati verso un elevato livello di consolidamento, come dimostrano l’acquisizione di Fusion-io da parte di SanDisk e la scomparsa di numerose startup. Con la flash che si è confermata come tecnologia chiave, ma che è sempre più diventata anch’essa una commodity, il mercato non è più in grado di sostenere tutte le aziende che si sono affacciate su questo mercato. Per questo assisteremo a un ulteriore consolidamento. Il nuovo anno ci mostrerà poi come le tecnologie flash possano essere utilizzate in modo più pratico, migliorando la modalità con cui lavoreranno insieme alle esistenti tecnologie basate su disco. La flash è una soluzione eccellente per carichi di lavoro specifici che richiedono velocità di lettura elevate, come quelli dei database, ma non è conveniente per tutti i carichi di lavoro, e al momento costituisce solo una frazione molto piccola del parco di storage installato. Sul lato opposto sono posizionati gli economici dischi SATA, che continuano la loro avanzata e che utilizzano nuove tecnologie come quella basata sull’elio per supportare capienze sempre maggiori, fino a 10 TB per unità. Il loro limite rimane però la lentezza. Carichi di lavoro transazionali che ricorrono a frequenti operazioni di scrittura hanno poi esigenze ancora diverse.

Per Teixeira nel 2015 avremo bisogno di software intelligente con uno stack di funzionalità in grado di ottimizzare i compromessi tra costi e prestazioni e di spostare i carichi di lavoro sulle risorse più adatte, siano esse dischi tradizionali o tecnologie flash. Un software-defined storage realizzato correttamente può aiutare a unificare il nuovo mondo flash con quello esistente e in continua evoluzione dei dischi. Entrambi hanno un futuro.

Altra previsione: le soluzioni di cloud ibrido e quelle di disaster recovery basato su cloud saranno sempre più pratiche da implementare. Le aziende stanno ancora cercando di immaginare il modo migliore per sfruttare il cloud computing. Sempre di più le grandi imprese si trovano a gestire sia storage installato localmente sia storage cloud remoto (cloud ibrido). Nel 2015 questo diventerà un tema sempre più importante, con i clienti che si fanno sempre più furbi nel capire quali carichi di lavoro possono essere gestiti nella cloud e quali no. Lo storage installato localmente viene solitamente sfruttato per gestire i dati “attivi”, come quelli dei database e quelli delle attività orientate alle transazioni. La cloud, invece, continua a essere tipicamente utilizzata per il backup, l’archiviazione e il disaster recovery e non per i carchi di lavoro in produzione, soprattutto a causa della velocità dei collegamenti Internet. Ora stanno emergendo soluzioni come quella composta da DataCore e Microsoft StorSimple, che permette di spostare in modo trasparente i dati (residenti su qualunque sistema di storage) dai dispositivi locali a una cloud come Microsoft Azure. Questo alimenterà la tendenza più rilevante, che vede le imprese sempre più orientate verso soluzioni che mischiano soluzioni on-premise e nella cloud. In più, anche se le operazioni di disaster recovery dalla cloud rimangono complicate, sono in arrivo nuovi strumenti di integrazione e procedure più automatizzate che renderanno più pratiche queste soluzioni.

Infine, il cloud: la gestione delle risorse interne attraverso un modello cloud diventerà una tendenza sempre più rilevante. Le grandi imprese vogliono emulare la produttività che riescono a raggiungere i fornitori cloud. Per farlo, però, hanno bisogno di sposare un modello di Quality-of-Service (QoS) che comprenda una serie completa di servizi per i dati virtuali. Per esempio, con le sempre crescenti esigenze di storage, le imprese devono essere in grado di gestire, regolare e creare una separazione delle risorse capace di riflettere gli schemi di utilizzo dei diversi dipartimenti. Un esempio tipico è quello del settore finanziario, che ha bisogno di livelli di prestazioni diversi da quelli che bastano all’elaborazione di testi. Le impostazioni del Quality-of-Service sono indispensabili per garantire che i carichi di lavoro con priorità elevata che devono accedere alle risorse di storage possano rispettare i loro Service Level Agreements (SLA) con prestazioni di I/O prevedibili. Questi controlli QoS permettono alle organizzazioni IT di gestire in modo efficiente le loro infrastrutture di storage condiviso. Le risorse di storage possono essere separate in modo logico, monitorate e regolate su base dipartimentale.

http://www.01net.it/questanno-il-software-defined-storage-cambiera-il-mondo-dei-dati/

Maximize the Potential
of Your Data

Looking for higher availability, greater performance, stronger security, and flexible infrastructure options?

Contact Us Now

Post correlati
 
Il ruolo cruciale dello storage persistente nei moderni data center
Alexander Best
Il ruolo cruciale dello storage persistente nei moderni data center
 
Your Data, Our Priority: migliorate la vostra strategia digitale con DataCore
Vinod Mohan
Your Data, Our Priority: migliorate la vostra strategia digitale con DataCore
 
Direttiva NIS2: una nuova era per la Cybersecurity in UE
Vinod Mohan
Direttiva NIS2: una nuova era per la Cybersecurity in UE