Recherche
Langues
11 min de lecture

Prédictions de VMblog DataCore : Le logiciel de traitement en parallèle va révolutionner la productivité et changera la donne en 2017

Virtualisationet prédiction sur le cloud VMblog 2017
Contribution de George Teixeira, Président et PDG de DataCore Software
Malgré tous les progrès technologiques formidables qui se sont produits ces dernières décennies, une grande partie de la puissance informatique reste encore inutilisée en 2017. L’heure est donc venue de généraliser les logiciels de traitement en parallèle et de libérer l’immense puissance de traitement des systèmes multicœurs actuels, afin d’impacter positivement l’économie et la productivité informatiques, et les domaines et marchés où elles peuvent être appliquées.

De nouvelles innovations logicielles feront de 2017 une année déterminante pour le traitement en parallèle. La clé consiste à faciliter l’utilisation du logiciel, sans qu’il nuise aux applications, afin que son utilisation spécifique puisse évoluer vers une application générale. Cette approche entraînera un impact extrêmement fort, car les performances des applications, les charges de travail des entreprises et les densités de consolidation plus élevées sur les plate-formes virtuelles et au sein du cloud computing (qui ont été étouffées par l’écart grandissant entre le calcul de données et les E/S) ne seront dorénavant plus freinées. Cette approche sera concrétisée avec les nouvelles technologies logicielles de traitement parallèle des E/S actuellement disponibles. Elles sont faciles à utiliser, ne nécessitent pas de modifier les applications et sont capables d’exploiter au maximum la puissance des systèmes multicœurs en vue d’augmenter la productivité et de faire face à l’étranglement du traitement des E/S, lequel a constitué un frein pour le secteur. Cette évolution technologique constitue un catalyseur du changement.
Le logiciel de traitement en parallèle peut désormais dépasser le domaine des utilisations spécialisées, telles que l’HPC et les domaines de la génomique, qui se concentrent principalement sur le calcul de données. Il peut ainsi affecter le vaste monde des applications qui nécessitent des réponses et des interactions en temps réel. Cela concerne les applications et le stockage courants, à l’origine des transactions commerciales, du cloud computing, des bases de données, des analyses de données, ainsi que le monde interactif de l’apprentissage machine et de l’Internet des objets (Internet of things, ou IoT).
Le bouleversement affectant l’économie et la productivité constitue le véritable moteur du changement. Aujourd’hui, un grand nombre de nouvelles applications, telles que celles destinées aux analyses, ne sont pas pratiques car elles nécessitent des centaines, voire des milliers de serveurs pour fonctionner. Pourtant, chaque serveur est capable de prendre en charge des centaines de processeurs multithreads, qui sont tous disponibles pour traiter des charges de travail, malgré le fait qu’ils étaient auparavant peu utilisés. Nous amorçons une nouvelle ère dans laquelle un seul serveur pourra effectuer le travail de 10, voire de 100 serveurs. Ce résultat sera obtenu grâce au logiciel de traitement en parallèle qui permet la pleine utilisation des multicœurs et qui révolutionnera la productivité, en créant toute une gamme d’applications abordables qui se généraliseront en 2017.
Un impact conséquent sur les analyses en temps réel et les performances Big Data
Les temps de réponse plus rapides associés à l’effet multiplicateur sur la productivité, via la parallélisation, vont faire progresser les performances des analyses en « temps réel » du big data et des bases de données. DataCore estime que ce sera la prochaine étape à entreprendre en 2017. Notre expérience en matière de traitement parallèle, d’E/S en temps réel et de software-defined storage (stockage défini par logiciel) a permis à notre entreprise d’être particulièrement bien placée pour tirer profit de ce prochain grand défi, à l’heure où le taux et la quantité d’interactions et de transactions sont bien plus élevés, en nécessitant des temps de réponse beaucoup plus rapides.
La capacité d’effectuer plus de travail en le traitant en parallèle, et de réagir rapidement, constitue la clé de la réussite. Chez DataCore, nous estimonsqu’elle contribue au changement nécessaire pour rendre les performances des analyses en temps réel et du big data pratiques et abordables. Les conséquences seront considérables sur la productivité et la prise de décisions professionnelles en fonction des tendances issues des données, dans les domaines de la finance, des services bancaires, de la vente au détail, de la détection des fraudes, de la santé et de la génomique. L’impact sur les applications d’apprentissage machine et d’Internet des objets sera également considérable.
L’effet Microsoft est en chemin : Azure Stack, cloud hybride, Windows et SQL Server 2016
La réussite et la croissance d’Azure Cloud de Microsoft sont déjà devenues évidentes. Toutefois, le véritable impact réside dans la stratégie plus vaste de Microsoft, consistant à concilier les systèmes informatiques locaux et le cloud computing. Microsoft a été l’un des premiers fournisseurs de cloud à reconnaître la nécessité d’étendre le cloud public, afin d’arriver à associer les systèmes locaux et ceux basés sur le cloud. Azure Stack de Microsoft continue de progresser afin de parvenir à une solution homogène qui tire parti des avantages du cloud computing, que ce soit dans le cloud ou dans le cloud privé. C’est devenu le modèle des solutions hybrides de cloud computing. De même, Microsoft continue d’intégrer ses solutions Windows et serveur, de manière à collaborer de façon beaucoup plus harmonieuse avec les fonctions du cloud.
Bien que Windows et Azure accaparent l’attention, l’un des changements les plus drastiques que Microsoft ait connu a été la réinvention et la transformation de ses offres de bases de données en une véritable plate-forme de big data et d’analyses, prête à assurer l’avenir. Intéressons-nous désormais au SQL Server 2016. Beaucoup plus puissant et compétent, il peut désormais traiter tout type de données. En tant que plate-forme, il est conçu pour travailler avec le vaste écosystème de partenaires de marché de Microsoft, notamment DataCore et ses innovations en traitement parallèle, afin de redéfinir les possibilités de l’entreprise, du cloud, des performances du big data, des cas d’utilisation des analyses en temps réel pour les applications métiers, ainsi que les nouveaux cas d’utilisation en développement dans les domaines de l’apprentissage machine, de l’informatique cognitive et de l’Internet des objets.
Les systèmes de stockage se sont transformés : il s’agit désormais de serveurs associés à une infrastructure définie par logiciel !
Nous sommes au cœur d’une tendance inévitable et croissante, dans laquelle le stockage est défini par les serveurs. Surfant sur cette tendance, DataCore a utilisé des technologies logicielles d’E/S parallèles pour alimenter les serveurs multicœurs du commerce, de manière à générer les systèmes de stockage les plus rapides au monde et les meilleurs en termes de performances, de latences et de rapport prix-performances. Les systèmes de stockage traditionnels n’arrivent plus à suivre le rythme et sont sur le déclin. Ils sont par conséquent de plus en plus remplacés par des serveurs de base et des solutions d’infrastructure définie par logiciel, capables de tirer profit de leur puissance pour résoudre les problèmes liés au besoin croissant de stockage de données. La fonction de stockage et les services de données associés sont désormais pilotés par des logiciels et deviennent une autre « charge applicative » exploitée sur ces plate-formes économiques. Cette vague de systèmes de stockage flexibles, basés sur
les serveurs, entraînent déjà un effet perturbateur sur l’industrie.
Commercialisés en tant que serveurs-SAN, Virtual SAN, ou systèmes à l’échelle du Web, évolutifs et hyper-convergés, ils représentent une gamme de serveurs du commerce standards, de cartes flash et de disques durs. Malgré leurs différences, c’est véritablement le logiciel qui détermine leur valeur respective. Le stockage est désormais axé sur les serveurs. Le logiciel de traitement en parallèle et la capacité à tirer profit de la technologie de serveur multicœurs sont les principaux éléments qui changent la donne. Associés à une infrastructure définie par logiciel, ils permettront de révolutionner la productivité et de renforcer davantage les « serveurs en tant que nouveau moyen de stockage ».
Pour obtenir davantage d’informations, consultez le rapport suivant : http://wikibon.com/server-san-readies-for-enterprise-and-cloud-domination/

Qu’y-a-t-il au-delà du stockage flash ?
Vous souvenez-vous de l’époque où le stockage flash allait devenir la prochaine grande révolution ? Cette période est révolue. Quelle est la prochaine étape ? Comment pouvons-nous accélérer la cadence, tout en utilisant moins de matériel ? La réponse est évidente : l’heure est venue de paralléliser le traitement des E/S, car malgré la présence du stockage flash, les performances et la productivité posent encore problème à de nombreuses applications en entreprise, notamment dans les cas d’utilisation au niveau des bases de données.
Pourquoi ? Cette méthode permet de multiplier les possibilités, en raison du travail en parallèle de nombreux moteurs de calcul, de manière à traiter et à supprimer les goulots d’étranglement et les retards au niveau de la mise en file d’attente, plus haut sur la pile, au plus proche de l’application. De cette manière, nous pouvons éviter le maximum d’E/S au niveau des appareils, tout en générant des performances et des temps de réponse bien supérieurs à n’importe quel degré d’optimisation unique au niveau de l’appareil, que le stockage flash/SSD peut offrir à lui seul. La puissance de plusieurs excède de loin celle d’un seul : l’association du stockage flash et d’un traitement parallèle des E/S permet aux utilisateurs d’assurer davantage d’applications plus rapidement, d’effectuer plus de travail, tout en ouvrant des champs d’application et des cas d’utilisation qui n’étaient pas accessibles auparavant.
Dépasser l’hyper-convergence : l’obtention d’une hyper-productivité constitue le véritable objectif à atteindre
À mesure que 2017 avance, la popularité du logiciel hyper-convergé continue de croître. Toutefois, pour asseoir son succès, les utilisateurs devront être en mesure de profiter pleinement de la productivité promise. La puissance considérable du logiciel de traitement en parallèle permettra aux utilisateurs d’exploiter les possibilités de leur matériel et de leurs logiciels (regardez cette vidéo de ESG, à titre d’exemple).
Les systèmes hyper-convergés actuels sont composés d’un serveur et d’une infrastructure définie par logiciel, même s’ils sont souvent très limités en term
es de performances et de cas d’utilisation. De plus, ils présentent rarement la flexibilité nécessaire et ne disposent pas d’un chemin d’intégration au sein d’un environnement informatique plus large (il peut s’agir par exemple de l’absence de prise en charge du protocole fibre channel, qui est généralement essentiel à la connectivité de l’entreprise et de la base de données). Les puissantes technologies de software-defined storage (stockage défini par logiciel) qui assurent un traitement parallèle des E/S fournissent, de façon efficace, un niveau supérieur de flexibilité, tout en exploitant la puissance des serveurs multicœurs, de manière à nécessiter moins de nœuds, et donc à constituer la solution la plus rentable. De même, le logiciel peut incorporer un stockage flash/à disque existant, sans créer de silos supplémentaires. Il peut également migrer et gérer les données sur toute l’infrastructure de stockage, tout en utilisant efficacement les données stockées sur le cloud.
Les infrastructures de données comprenant des systèmes hyper-convergés peuvent toutes bénéficier de ces avancées, grâce aux technologies logicielles de traitement parallèle des E/S. Celles-ci peuvent en effet augmenter considérablement leur productivité en exploitant la puissance qui réside au sein des serveurs multicœurs standards. Bien que le mot « hyper-convergé » soit devenu tendance, n’oublions pas que le réel objectif consiste à obtenir la productivité maximale au coût le plus faible. Par conséquent, une meilleure utilisation du stockage et des serveurs reste la clé pour assurer davantage d’applications.
Le prochain pas de géant à faire : tirer profit de l’effet multiplicateur du traitement en parallèle sur la productivité
Cette association de logiciel et de serveurs puissants permettra une meilleure fonctionnalité, une automatisation accrue et des services complets, de manière à gérer et à stocker efficacement les données sur toute l’infrastructure de données. Cela permettra l’avènement d’une nouvelle ère, où les avantages d’un traitement multicœurs en parallèle pourront être appliqués universellement. Ces progrès (qui ont déjà été accomplis) sont essentiels pour résoudre les problèmes causés par la lenteur du traitement des E/S et les temps de réponse inappropriés, lesquels ont nui aux performances des charges applicatives et aux économies de coûts issues de la consolidation. Les progrès réalisés sur les logiciels multicœurs de traitement en parallèle et les infrastructures définies par logiciel sont collectivement essentiels pour effectuer le prochain pas de géant au niveau de la productivité des entreprises.

Maximize the Potential
of Your Data

Looking for higher availability, greater performance, stronger security, and flexible infrastructure options?

Contact Us Now

Publications associées
 
Votre stockage est-il prêt pour l’avenir de l’IA ?
Vinod Mohan
Votre stockage est-il prêt pour l’avenir de l’IA ?
 
Cyberstockage : Une partie intégrante de votre stratégie de sécurité des données
Vinod Mohan
Cyberstockage : Une partie intégrante de votre stratégie de sécurité des données
 
Évaluation de la cyber-résilience
Vinod Mohan
Évaluation de la cyber-résilience