E’ l’anno in cui software defined rivoluzionerà il settore dello
storage, prevede George Texeira, President e CEO di DataCore
Negli ultimi mesi si sono meglio definiti i contorni di cosa aspettarsi nel corso
di quest’anno. Nel 2015 la filosofia del “software-defined everything” e del
software-defined storage continuerà con tutta probabilità ad evolvere, spinta dai
vantaggi in termini di produttività che è in grado di abilitare. Il cambiamento
avrà con tutta probabilità un impatto forte sui fornitori di sistemi per lo storage,
dato che il software-defined storage promette di rendere una commodity i
sottostanti dispositivi per la memorizzazione dei dati.
Software-defined storage consentiranno a questi dispositivi di fare di più con
minori risorse, incrementandone l’utilizzo e lavorando su piattaforme diverse a
livello infrastrutturale. Vediamo cosa pensa in proposito, oltre all’affermarsi dello
storage software defined, George Texeira, President e CEO di DataCore.
- Server: nel 2015 i server diventeranno un elemento sempre più importante nella strategia di sostituzione delle batterie di storage tradizionali. I server saranno un alleato del software-defined storage, continuando ad alimentare la nuova categoria dei ‘server di storage’ e le SAN virtuali iper-convergenti. L’ultima generazione di server, osserva Texeira, riuscirà a supportare quantità di storage sempre maggiori. Il software Virtual SAN sta maturando rapidamente e questo spingerà ulteriormente la trasformazione dei server in potenti sistemi di storage capaci di guardare al futuro trasformandosi in vere e proprie SAN virtuali di livello enterprise.
- Dischi e Flash: i dischi e flash si coalizzeranno e gli stack software interesseranno entrambi i mondi.Nell’anno che si è da poco concluso i dispositivi basati su questa tecnologia si sono spostati dal semplice utilizzo nei server all’impiego a tutto campo. Con la flash che si è confermata come tecnologia chiave, ma che è sempre più diventata anch’essa una commodity, il mercato non è più in grado di sostenere tutte le aziende che si sono affacciate su questo mercato. Per questo assisteremo a un ulteriore consolidamento. Il nuovo anno, ritiene Texeira, mostrerà anche come le tecnologie flash possano essere utilizzate in modo più pratico, migliorando la modalità con cui lavoreranno insieme alle esistenti tecnologie basate su disco. Quello che servirà è però un software intelligente con uno stack di funzionalità in grado di ottimizzare i compromessi tra costi e prestazioni e di spostare i carichi di lavoro sulle risorse più adatte, siano esse dischi tradizionali o tecnologie flash..
- Business Continuity e Cloud: le soluzioni di cloud ibrido e quelle di disaster recovery basato su cloud saranno sempre più pratiche da implementare. Lo storage installato localmente viene solitamente sfruttato per gestire i dati attivi. La cloud, invece, continua a essere tipicamente utilizzata per il backup, l’archiviazione e il disaster recovery e non per i carichi di lavoro in produzione, soprattutto a causa della velocità dei collegamenti Internet. Ora stanno però emergendo soluzioni come quella composta da DataCore e Microsoft StorSimple, che permette di spostare in modo trasparente i dati dai dispositivi locali a una cloud come Azure. Questo alimenterà la tendenza che vede le imprese sempre più orientate verso soluzioni che mischiano soluzioni on-premise e cloud.
- La gestione: la gestione delle risorse interne attraverso un modello cloud diventerà una tendenza sempre più rilevante. Le grandi imprese vogliono emulare la produttività che riescono a raggiungere i fornitori cloud. Per farlo, però, hanno bisogno di sposare un modello di Quality-of-Service che comprenda una serie completa di servizi per i dati virtuali. Per esempio, con le sempre crescenti esigenze di storage, le imprese devono essere in grado di gestire, regolare e creare una separazione delle risorse capace di riflettere gli schemi di utilizzo dei diversi dipartimenti.
Volendo riassumere il tutto, il software-defined storage deve continuare a evolvere
per rispondere a queste esigenze. Per farlo, evidenzia Texeira, è però necessario
creare servizi per i dati virtuali che offrano servizi di storage slegati dai
dispositivi hardware e che siano in grado di regolare in modo più automatizzato
le modalità con cui vengono sfruttate le risorse dell’infrastruttura.