Nel 2016
l’elaborazione parallela rivoluzionerà le infrastrutture IT, la
virtualizzazione e la produttività aziendale – 1/2
L’elaborazione parallela cambierà “le
regole del gioco”
Le più grandi
innovazioni del futuro sono spesso realizzate basandosi su quelle del passato.
Guardando agli Anni ’70, alla nascita del moderno microprocessore e all’apporto
della Legge di Moore, si comprende come i microprocessori siano alla base dei
due maggiori percorsi di innovazione tecnologica. Il primo ha portato a
“monoprocessori” più veloci ed efficienti, traducendosi nella rivoluzione dei
PC e nell’attuale pervasività dei microprocessori, dagli smartphone ai
dispositivi intelligenti di tutti i tipi. Il secondo è arrivato invece
all’elaborazione parallela, che ha permesso di sfruttare la potenza di “molti
microprocessori” che operano insieme.
Tuttavia, i
miglioramenti nell’elaborazione parallela sono stati soffocati dalla mancanza
di hardware specializzato proposto a prezzo conveniente, dal rapido sviluppo
nella velocità di clock dei monoprocessori derivante dalla Legge di Moore e
dall’assenza di software capace di elaborare carichi di lavoro in parallelo
senza dover riscrivere le applicazioni o richiedere strumenti
specializzati/esotici. Così, nonostante la potenza dell’elaborazione parallela
fosse disponibile, la rivoluzione del parallel computing come funzionalità
diffusa nell’IT è rimasta bloccata per la mancanza di software capace di farla
esplodere.
Venendo ai
giorni nostri, i nuovi progressi nel software promettono di rendere il 2016
l’anno di svolta per l’elaborazione parallela. Prestazioni applicative,
gestione dei carichi di lavoro aziendali e la capacità di ottenere ancora
maggiori densità sulle piattaforme virtuali sono state frenate negli anni dal
crescente divario tra la capacità di calcolo e quella dell’I/O. L’elaborazione
multicore è evoluta, senza però che piattaforme di elaborazione parallela
convenienti potessero esistere in mancanza di software dedicato. Anche questo è
cambiato.
Il software per
l’I/O parallelo è in grado di pianificare efficacemente le operazioni di I/O
necessarie alla virtualizzazione e ai carichi di lavoro applicativi su tutte le
piattaforme server multicore, oggi facilmente reperibili. È in grado di
superare (e lo fa) i colli di bottiglia dell’I/O che attualmente frenano il
settore sfruttando la potenza dei multicore per aumentare in modo incredibile
la produttività, consolidando un maggior numero di carichi di lavoro e
riducendo le inefficienze create da un numero eccessivo di server. Portare il
consolidamento a nuovi livelli consente di ottenere cospicui risparmi sui costi
e notevoli miglioramenti di produttività, permettendo davvero ai sistemi di
“fare di più con meno risorse”. Il risultato è che oggi siamo all’inizio di
quella rivoluzione promessa dall’elaborazione parallela.
Nel corso del
2016 vedremo anche incredibili incrementi di prestazioni e produttività che
trasformeranno l’iper-convergenza e il Software-Defined Storage. Inoltre,
crescerà esigenza di soluzioni semplici da utilizzare e in grado di essere
facilmente integrate nelle infrastrutture aziendali, sia in quelle esistenti
che in quelle future.
Nonostante il
recente grande interesse nei confronti dell’iper-convergenza, la tecnologia
tende a creare nuovi silo da gestire e l’attuale offerta presenta diverse
limitazioni, specialmente quando si parla di scalabilità e prestazioni per
gestire carichi di lavoro di livello enterprise. Gli utenti dovrebbero poter
avanzare al livello successivo nell’adozione di tecnologie iper-convergenti,
dove prestazioni e interoperabilità con il resto dei loro investimenti non sono
sacrificati.