https://www.tomshw.it/piu-produttivita-e-meno-costi-con-l-elaborazione-parallela-82887
Nel 2017 il software di elaborazione parallela rivoluzionerà la produttività cambiando le regole del gioco. George Teixeira di DataCore spiega perchè
La virtualizzazione ha spostato in alto l’asticella della produttività ed ha permesso allo stesso tempo di sfruttare meglio le risorse e di ridurre il Capex dei sistemi informativi.
Esiste però ancora una grande potenza di calcolo non adeguatamente sfruttata. Il problema è però vedere quali spazi tecnologici ci sono per farlo. La soluzione, evidenzia George Teixeira, President e CEO di DataCore Software, una sorta di uovo di colombo tecnologico, consiste nel ricorrere all’elaborazione parallela.
Secondo il manager, che in pochi anni ha portato DataCore ad affermarsi a livello mondiale nel settore della virtualizzazione dello storage, il 2017 sarà quello in cui il software di elaborazione parallela permetterà di liberare l’immensa potenza di calcolo dei moderni sistemi multi-core, con un impatto fortemente positivo sia sugli aspetti economici che e sulla produttività dei sistemi IT.
Perché ciò possa avvenire il software deve però diventare semplice da usare e non interferire con le applicazioni, e aprirsi ad un uso più generalizzato.
Il catalizzatore dell’evoluzione saranno le nuove tecnologie software per l’I/O parallelo, che oggi sono disponibili e facili da usare, dato che non richiedono modifiche alle applicazioni e che sono in grado di sfruttare del tutto o quasi la potenza dei sistemi multi-core per aumentare notevolmente la produttività e superare il collo di bottiglia sino ad ora costituito dalla velocità dell’I/O.
L’effetto combinato di tempi di risposta più veloci e dell’impatto sulla produttività attraverso l’elaborazione parallela aprirà la strada agli analytics in “tempo reale” e porterà le prestazioni di big data e database a un nuovo livello.
“La nostra esperienza nell’elaborazione parallela, nell’I/O in tempo reale e nel software-defined storage ci ha messo in grado come nessun altro di trarre vantaggio dalle prossime grandi sfide, in un mondo che richiede a una gran quantità di interazioni e transazioni di essere trattate con un passo più veloce e con tempi di risposta ancora più rapidi”, ha osservato Teixeira.
Le implicazioni sulla produttività e sulla capacità di prendere decisioni in base alle informazioni estratte dai dati in aree come la finanza, il banking, il retail, l’identificazione delle frodi, la sanità e la genomica, così come nelle applicazioni che riguardano il machine learning e l’Internet of Things, saranno profonde.
Dal parallel I/O all’iperconvergenza
Con l’avanzare del 2017, anche il software iper-convergente continuerà a incrementare la sua popolarità. Per farlo però, gli utilizzatori dovranno essere in grado di trarre pieno vantaggio dalla promessa di una maggiore produttività. Di certo, osserva DataCore, la potenza del software di elaborazione parallela permetterà di sfruttare al meglio ciò che hardware e software possono fare.
DataCore PrevisioniPIC Nel 2017 crescerà il calcolo parallelo e l’iperconvergenza
Gli attuali sistemi iper-convergenti sono in sostanza un server più un’infrastruttura software-defined, ma in molti casi sono molto limitati in termini di prestazioni e possibilità d’impiego e ancora più di frequente non sono sufficientemente flessibili o non possono essere integrati in ambienti IT più ampi, ad esempio perché non supportano connessioni fibre channel.
Le tecnologie di storage software-defined in grado di eseguire l’I/O parallelo permettono invece di ottenere un livello più elevato di flessibilità e sfruttare la potenza dei server multi-core in modo che per eseguire il lavoro è sufficiente un numero più ridotto di nodi, rendendoli più convenienti.
Il software può inoltre integrare lo storage su flash e su disco esistente senza dover creare silo aggiuntivi, migrare e gestire dati attraverso l’intera infrastruttura storage, e utilizzare efficacemente i dati memorizzati nel cloud.
“Le intere infrastrutture dati, compresi i sistemi iper-convergenti, possono beneficiare di queste migliorie attraverso le tecnologie software avanzate di I/O parallelo, che può aumentare sostanzialmente la produttività liberando la potenza che risiede nei server multi-core standard. Anche se iper-convergenza è la parola magica di oggi, il vero obiettivo è quello di ottenere la maggior produttività possibile a un costo più basso, e che quindi la chiave è quella di utilizzare meglio storage e server esistenti per gestire le applicazioni”, osserva Teixeira.