Par George Teixeira, président et CEO, DataCore Software
Au cours de l’année dernière, nous avons vu les premières étapes d’une évolution vers des architectures à base logicielle. Ce phénomène a favorisé plusieurs tendances majeures qui redéfinissent ou influent sensiblement le monde du stockage d’entreprise, préparant la voie, afin que l’année 2013 devienne l’année où le stockage à base logicielle transforme le datacenter.
L’évolution d’un modèle de virtualisation à base matérielle vers un autre à base logicielle prenant en charge les applications métier stratégiques a modifié les fondements des architectures au niveau serveurs, réseau et stockage en rendant dynamique ce qui était statique. La dimension logicielle définit le cadre pour l’agilité, les interactions utilisateur et la création d’une infrastructure virtuelle pérenne qui s’adapte au changement. Le but ultime est d’accroître la productivité des utilisateurs et d’améliorer l’expérience applicative.
Tendance 1 : les applications stratégiques seront virtualisées et la performance cruciale
Les efforts pour virtualiser davantage le datacenter se poursuivent et nous allons même observer un phénomène renforcé avec la migration des applications stratégiques (ERP, bases de données, systèmes de messagerie, OLTP, etc.) vers des plates-formes de virtualisation. Le principal facteur qui l’explique réside dans des gains de rentabilité et de productivité.
Toutefois, les obstacles majeurs à la virtualisation de ces applications sont en grande partie liés au stockage.
La migration de charges de travail intensives en termes de stockage sur des machines virtuelles (VM) peut agir considérablement sur la performance et la disponibilité. Il faut donc surprovisionner et surdimensionner le stockage. En outre, au fil de la consolidation sur des plates-formes virtuelles, les entreprises doivent, d’une part investir plus pour obtenir des niveaux supérieurs de redondance afin de garantir l’absence d’interruptions et la continuité d’activité, d’autre part se préoccuper des problèmes de performances.
Les coûts élevés et la complexité du surdimensionnement annihilent l’essentiel des avantages. De ce fait, les entreprises et les DSI recherchent des solutions plus efficaces et rentables (de type logiciel intelligent), réalisant que la stratégie classique d’ajout de matériel n’offre plus une réponse viable au problème.
Tendance 2 : les technologies de mémoire Flash SSD seront utilisées universellement, le stockage ne se limitant pas aux disques durs
Une autre tendance majeure relative à la virtualisation des applications stratégiques consiste en la prolifération des technologies de mémoire Flash SSD. La raison est simple : les disques durs sont des périphériques à rotation mécanique, moins rapides que ceux utilisant une mémoire électronique ultra-rapide.
La mémoire Flash n’est pas une nouveauté, mais son coût s’avérait auparavant bien trop élevé pour une large adoption. Bien que restant plus coûteuse qu’un disque dur mécanique, son utilisation dans des tablettes et des téléphones cellulaires fait baisser son prix. Toutefois, elle se détériore, et les applications intensives en écritures peuvent réduire sa durée de vie.
Les périphériques Flash offrent néanmoins une solution d’avenir incontournable et il faut les intégrer à la conception architecturale. Les facteurs économiques incitent déjà à utiliser différentes couches de stockage (disques SSD rapides et disques durs plus lents et bon marché). Ce fait renforce, à son tour, la demande en logiciel de hiérarchisation automatique pour l’entreprise capable d’optimiser le rapport coût-performance en plaçant et transférant les données sur la couche la plus rentable qui peut assurer une efficacité acceptable.
Tendance 3 : plus de stockage va entraîner une automatisation accrue
Il existe un besoin constant et insatiable en capacité de stockage, avec une croissance continue dépassant 50 % par an. Toutefois, il ne se limite pas à plus de matériel pour fournir un volume brut. Les utilisateurs souhaitent plutôt une solution alliant automatisation, autogestion, évolutivité, provisionnement rapide, performance et continuité d’activité optimale.
De nouveau, seul un logiciel intelligent peut simplifier et automatiser la gestion du stockage.
Tendance 4 : une architecture de stockage à base logicielle va primer sur le materiel
Ces tendances, et le fait de permettre aux DSI de rendre interchangeable le matériel de stockage dans des infrastructures virtuelles, va profondément modifier notre manière de concevoir, acheter et utiliser ce matériel.
En 2013 et au-delà, les DSI vont devoir adopter le stockage à base logicielle comme un élément essentiel des datacenters.
Les utilisateurs, devant faire face à la nouvelle dynamique et au rythme accéléré du marché actuel, ne peuvent s’enfermer dans les anciennes architectures physiques rigides. L’infrastructure repose sur trois piliers (serveurs, réseau et stockage) et, à chaque niveau, les décisions en termes de matériel vont dépendre d’un monde dominé par le logiciel et axé sur les applications.
Incontestablement, la grande réussite de VMware et de Microsoft Hyper-V démontre les avantages clés qu’offre la virtualisation des serveurs. De même, l’hyperviseur de stockage et la virtualisation du stockage sont cruciaux pour libérer les freins matériels qui entravent l’évolution des datacenters.
Tendance 5 : le stockage à base logicielle rend nécessaire un hyperviseur de stockage
La même réflexion qui a changé nos visions du serveur s’impose pour gérer le stockage, le catalyseur résidant dans un logiciel intelligent. En effet, le rôle premier d’un hyperviseur de stockage est de virtualiser les ressources de stockage pour obtenir les mêmes avantages (agilité, efficacité et flexibilité) que pour les ressources de serveur (processeurs et mémoire).
Le logiciel va donc prendre tout son sens et commencer à transformer notre mode de conception du stockage.
Le but ultime : une meilleure expérience applicative grâce à un stockage à base logicielle
La virtualisation a transformé l’informatique et les applications dont l’entreprise dépend. Le stockage en entreprise et dans le cloud reste néanmoins dominé par la dimension physique et matérielle. Nous devons modifier notre approche et considérer de quelle manière le stockage influe sur l’expérience applicative en le concevant comme à base logicielle, les services et fonctions de stockage devenant disponibles dans toute l’entreprise et pas uniquement intégrés à un périphérique propriétaire.
Pourquoi acheter un matériel spécifique pour n’obtenir qu’une fonction logicielle ? Pourquoi limiter une fonction à une seule plate-forme au lieu de l’utiliser dans toute l’entreprise ? Cette approche est dépassée et, avant la virtualisation, ainsi fonctionnait le monde des serveurs. À présent, grâce à VMware ou Hyper-V, nous considérons la manière de déployer des VM et non la question de savoir si elles s’exécutent sur un système Dell, HP, Intel ou IBM.
Le stockage subit une transformation similaire et, dans l’année qui vient, un logiciel intelligent va permettre d’offrir une meilleure solution.