Quatre tendances majeures apparaissent :
1 – Le software-defined storage jouera un rôle charnière dans les data centers modernes
La première étape vers la modernisation d’un data center consiste à abattre les silos, à mettre fin à la dépendance vis-à-vis des fournisseurs et à supprimer les cycles de renouvellement imposés par ces derniers. C’est pourquoi le software-defined est la pierre angulaire des data centers modernes. La première vague, celle du calcul software-defined (virtualisation), est désormais bien établie. Le réseau (SDN) et la sécurité suivent, mais sont encore immatures. Le software-defined storage, lui, est parvenu à maturité. Il est bien implanté et connaît un taux d’adoption rapide.
Les cycles de renouvellement du matériel représentent notamment l’un des aspects les plus délicats pour l’IT, surtout pour le matériel de stockage. En général, le service IT entreprend de moderniser son matériel de stockage tous les trois à cinq ans mais, dans certains cas, le matériel peut être utilisé plus longtemps. Le software-defined storage est extrêmement souple et permet d’ajouter du stockage et des technologies nouvelles sans interruption de service, qu’il s’agisse de baies AFA, de NVMe, de containers ou de stockage sur le cloud. Avec lui, il est facile d’intégrer dans l’environnement le matériel le plus récent et le plus performant dès sa sortie afin de moderniser le data center et d’augmenter la réactivité de l’infrastructure, cela sans devoir tout remplacer lorsque de nouvelles technologies arrivent sur le marché. Le software-defined storage facilite également l’adoption de différents types de stockage (à connexion directe, sur baies, JBOD, NVMe, etc.) et de nouvelles configurations, telles que les solutions hyperconvergées ou hybrides-convergées.
Le data center moderne devra en outre intégrer des technologies de stockage compatibles avec la mise en miroir synchrone dans des clusters locaux et métropolitains, avec la réplication asynchrone à des fins de reprise après sinistre et avec des solutions de Continuous Data Protection (CDP). Celles-ci agissent comme une machine à remonter le temps afin d’effacer toute trace d’attaques par ransomware. Le paramètre le plus important pour garantir la disponibilité est la récupération. Elle doit être instantanée et automatique, avec des fonctions de basculement et de reconstruction sans intervention.
À mesure que les services informatiques chercheront à profiter des avantages du data center software-defined, ils engrangeront également les avantages offerts par le software-defined storage en termes de performances, de temps de disponibilité et de flexibilité. Ils pourront ainsi consacrer moins de temps à des tâches répétitives et appliquer plus largement la technologie à leurs ressources informatiques, notamment des charges de travail ou des data centers supplémentaires.
2 – Avec l’adoption plus large des containers, de nouveaux problèmes de stockage apparaîtront
Les containers offrent une mobilité, une facilité et une efficacité sans précédent lorsqu’il s’agit de déployer et d’actualiser les applications. Ils sont maintenant solidement implantés et, à mesure que leur adoption s’étendra encore, ils joueront un rôle majeur en informatique dans les années qui viennent, sachant que leur parcours d’adoption est nettement plus rapide que celui de la virtualisation ou du cloud.
À mesure que les déploiements passent de la phase d’évaluation et de test à l’étape de production, les services informatiques doivent pouvoir offrir les mêmes services de stockage de données que ceux actuellement fournis par les architectures d’applications monolithiques. Surtout, une solution doit pouvoir fournir un stockage partagé à des infrastructures d’applications virtualisées physiques existantes. Elle doit aussi permettre aux ingénieurs DevOps de consommer du stockage à la demande, de veiller à ce que les données des applications stateful soient persistantes et de fournir le même niveau de disponibilité et de performance que ceux qu’offrent actuellement les infrastructures applicatives classiques.
Le software-defined storage peut permettre aux administrateurs de présenter du stockage persistant aux host de containers déployés sous forme de machines virtuelles sur des host virtuels, avec la possibilité de fournir ultérieurement du stockage persistant aux hosts de containers déployés sur du matériel physique. La présentation de stockage persistant devra se faire à travers des contrôles natifs de solutions d’orchestration, comme Kubernetes, et mettre à profit des capacités de stockage avancées comme le continuous data protection (ou CDP), la hiérarchisation automatique et la mise en miroir synchrone.
Les utilisateurs seront ainsi en mesure de gérer la mise en place du stockage sur des déploiements de containers avec la même plateforme que le reste des charges de travail applicatives. Ils pourront aussi fournir le niveau de service de stockage qu’exigent tous les environnements de production stratégiques. Cela contribuera à favoriser toujours plus l’adoption des containers.
3 – Le software defined storage accélérera les déploiements NVMe
Le NVMe (Non-Volatile Memory Express) est l’une des technologies qui agitent le plus le monde professionnel à l’heure actuelle. Il s’agit d’un protocole qui permet d’accéder à du stockage haut débit. Il promet donc d’offrir de nombreux avantages par rapport à des protocoles plus anciens tels que le SAS ou le SATA. Compte tenu des exigences aujourd’hui de pouvoir disposer de données toujours accessibles et en temps réel, c’est une promesse particulièrement séduisante. Toutefois, bien que son adoption reste lente, l’enthousiasme pour cette technologie paraît indéniable et son avenir brillant. IDC prévoit que d’ici à 2021, les baies NVMe utilisant des connexions hosts NVMe over Fabric (NVMe-oF) généreront plus de la moitié du chiffre d’affaires issu dans le domaine du stockage.
La lenteur de l’adoption de cette technologie s’explique en partie par le fait que, bien que le NVMe et le NVMe over Fabric (NVMe-oF) promettent des niveaux de performances accrus pour les systèmes de stockage sur flash, la difficulté consiste à déployer, gérer et déplacer les données et les applications lorsqu’il s’agit de grands systèmes distribués. On constate un manque de logiciels et de services de données qui permettraient aux entreprises d’effectuer facilement la transition sans devoir subir les coûts et les perturbations qui accompagnent inévitablement la mise en place de cette technologie. Les clients sont en général contraints par leurs fournisseurs de stockage de renoncer à leurs investissements actuels et de tout remplacer.
Les déploiements de NVMe et de NVMe-oF auront besoin de logiciels éprouvés pour accélérer leur adoption par le marché. Par exemple, le software-defined storage peut jouer le rôle de passerelle qui unifie et abstrait le stockage ancien et nouveau, permettant ainsi aux utilisateurs d’intégrer sans peine de nouvelles technologies telles que le NVMe-oF et d’en récolter les bénéfices sans avoir à sacrifier leurs investissements passés.
Le software-defined storage peut servir de base pour gérer tous les types de stockage à la vitesse requise pour profiter des avantages du NVMe. Un software-defined storage efficace peut éliminer les changements apportés aux hosts, garantir la qualité des services, automatiser la migration des données, prendre en charge le NVMe avec le réseau de fabric existant et offrir une large gamme de services de données, tels que le continuous data protection (CDP), l’équilibrage de charge, la mise en miroir HA, la hiérarchisation automatique et la migration des données. Le software-defined storage permet d’adopter le NVMe sous diverses formes, dont des SSD locaux et un NVMe-oF utilisant des HBA standard, ou encore un NVMe de bout en bout pour les charges de travail exigeant une latence minimale.
Les performances, la simplicité de déploiement et la possibilité d’utiliser le stockage existant sont des facteurs critiques pour faciliter l’adoption du NVMe. À mesure que la prochaine évolution des performances et la baisse de la latence s’approchent grâce au NVMe/NVMe-oF, le software-defined storage peut considérablement améliorer les performances et l’utilisation, réduire les interruptions de service, tout en limitant les coûts et la complexité de gestion.
4 – Les entreprises utiliseront de plus en plus les analyses de données comme une ressource stratégique pour devenir plus efficaces
Une fois transformées en informations, les données peuvent devenir la pierre angulaire d’une transformation positive. Ces informations fournissent des éléments clés utilisables et pertinents à tous les niveaux de l’entreprise. Elles favorisent les résultats commerciaux, influencent les comportements et permettent de prendre des décisions mieux étayées, rendant à terme l’entreprise plus efficace et plus intelligente. La capacité des entreprises à transformer les données en informations constituera un facteur de démarcation clé dans les dix prochaines années.
Les informations sont transformées en connaissances reposant sur des données grâce aux modèles de collecte, de synthèse, d’analyse et de visualisation désormais disponibles. Par ailleurs, à mesure que le paysage des données continue de mûrir, les algorithmes, l’apprentissage machine et l’intelligence artificielle (IA) seront de plus en plus utilisés pour extraire des informations. Ces « systèmes d’analyse intelligents » pourront traiter de vastes quantités de données et en tirer des recommandations intelligentes.
À mesure que les entreprises compteront sur les données pour se créer de futures opportunités et que le volume de ces données continuera de croître, les services informatiques devront adopter des technologies telles que le software-defined storage pour pouvoir gérer le tout.
***
À propos de DataCore
DataCore offre l’assurance d’une donnée en temps réel. La société, pionnière de la technologie de virtualisation de stockage, propose sa technologie afin d’optimiser le temps de réponse de la charge de travail et l’utilisation des ressources. Elle permet aux entreprises de disposer de systèmes de données toujours disponibles, performants et efficaces. Sa technologie brevetée élimine les goulots d’étranglement de stockage grâce à l’optimisation du traitement des I/O en parallèle, permet une mise en miroir synchrone sans interruption et offre une véritable architecture matérielle indépendante amenant à une flexibilité, une efficacité des ressources et une réduction des coûts. La qualité des solutions de DataCore a été prouvée avec plus de 10 000 déploiements dans des environnements traditionnels, hyperconvergents, Cloud et hybrides. Les logiciels DataCore représentent la nouvelle génération du Software-Defined-Storage.
Pour en savoir plus, rendez-vous sur : https://www.datacore.fr
Contact presse
Agence the messengers
Elodie Antoine
01 40 41 19 62