Cerca
Lingue
3 minuti di lettura

Tom’s Hardware: Più produttività e meno costi con l’elaborazione parallela

https://www.tomshw.it/piu-produttivita-e-meno-costi-con-l-elaborazione-parallela-82887

Tom ;s Hardware: Più produttività e meno costi con l ;elaborazione parallelaNel 2017 il software di elaborazione parallela rivoluzionerà la produttività cambiando le regole del gioco. George Teixeira di DataCore spiega perchè

La virtualizzazione ha spostato in alto l’asticella della produttività ed ha permesso allo stesso tempo di sfruttare meglio le risorse e di ridurre il Capex dei sistemi informativi.

Esiste però ancora una grande potenza di calcolo non adeguatamente sfruttata. Il problema è però vedere quali spazi tecnologici ci sono per farlo. La soluzione, evidenzia George Teixeira, President e CEO di DataCore Software, una sorta di uovo di colombo tecnologico, consiste nel ricorrere all’elaborazione parallela.

Secondo il manager, che in pochi anni ha portato DataCore ad affermarsi a livello mondiale nel settore della virtualizzazione dello storage,  il 2017 sarà quello in cui il software di elaborazione parallela permetterà di liberare l’immensa potenza di calcolo dei moderni sistemi multi-core, con un impatto fortemente positivo sia sugli aspetti economici che e sulla produttività dei sistemi IT.

Perché ciò possa avvenire il software deve però diventare semplice da usare e non interferire con le applicazioni, e aprirsi ad un uso più generalizzato.

Il catalizzatore dell’evoluzione saranno le nuove tecnologie software per l’I/O parallelo, che oggi sono disponibili e facili da usare, dato che non richiedono modifiche alle applicazioni e che sono in grado di sfruttare del tutto o quasi la potenza dei sistemi multi-core per aumentare notevolmente la produttività e superare il collo di bottiglia sino ad ora costituito dalla velocità dell’I/O.

L’effetto combinato di tempi di risposta più veloci e dell’impatto sulla produttività attraverso l’elaborazione parallela aprirà la strada agli analytics in “tempo reale” e porterà le prestazioni di big data e database a un nuovo livello.

“La nostra esperienza nell’elaborazione parallela, nell’I/O in tempo reale e nel software-defined storage ci ha messo in grado come nessun altro di trarre vantaggio dalle prossime grandi sfide, in un mondo che richiede a una gran quantità di interazioni e transazioni di essere trattate con un passo più veloce e con tempi di risposta ancora più rapidi”, ha osservato Teixeira.

Le implicazioni sulla produttività e sulla capacità di prendere decisioni in base alle informazioni estratte dai dati in aree come la finanza, il banking, il retail, l’identificazione delle frodi, la sanità e la genomica, così come nelle applicazioni che riguardano il machine learning e l’Internet of Things, saranno profonde.

Dal parallel I/O all’iperconvergenza

Con l’avanzare del 2017, anche il software iper-convergente continuerà a incrementare la sua popolarità. Per farlo però, gli utilizzatori dovranno essere in grado di trarre pieno vantaggio dalla  promessa di una maggiore produttività. Di certo, osserva DataCore, la  potenza del software di elaborazione parallela permetterà di sfruttare al meglio ciò che hardware e software possono fare.

DataCore PrevisioniPIC Nel 2017 crescerà il calcolo parallelo e l’iperconvergenza

Gli attuali sistemi iper-convergenti sono in sostanza un server più un’infrastruttura software-defined, ma in molti casi sono molto limitati in termini di prestazioni e possibilità d’impiego e ancora più di frequente non sono sufficientemente flessibili o non possono essere integrati in ambienti IT più ampi, ad esempio perché non supportano connessioni fibre channel.

Le tecnologie di storage software-defined in grado di eseguire l’I/O parallelo permettono invece di ottenere un livello più elevato di flessibilità e sfruttare la potenza dei server multi-core in modo che per eseguire il lavoro è sufficiente un numero più ridotto di nodi, rendendoli più convenienti.

Il software può inoltre integrare lo storage su flash e su disco esistente senza dover creare silo aggiuntivi, migrare e gestire dati attraverso l’intera infrastruttura storage, e utilizzare efficacemente i dati memorizzati nel cloud.

“Le intere infrastrutture dati, compresi i sistemi iper-convergenti, possono beneficiare di queste migliorie attraverso le tecnologie software avanzate di I/O parallelo, che può aumentare sostanzialmente la produttività liberando la potenza che risiede nei server multi-core standard. Anche se iper-convergenza è la parola magica di oggi, il vero obiettivo è quello di ottenere la maggior produttività possibile a un costo più basso, e che quindi la chiave è quella di utilizzare meglio storage e server esistenti per gestire le applicazioni”, osserva Teixeira. 

Maximize the Potential
of Your Data

Looking for higher availability, greater performance, stronger security, and flexible infrastructure options?

Contact Us Now

Post correlati
 
Il ruolo cruciale dello storage persistente nei moderni data center
Alexander Best
Il ruolo cruciale dello storage persistente nei moderni data center
 
Your Data, Our Priority: migliorate la vostra strategia digitale con DataCore
Vinod Mohan
Your Data, Our Priority: migliorate la vostra strategia digitale con DataCore
 
Direttiva NIS2: una nuova era per la Cybersecurity in UE
Vinod Mohan
Direttiva NIS2: una nuova era per la Cybersecurity in UE