La croissance incontrôlée des données entraîne souvent un épuisement rapide des capacités de stockage. Résultat : les équipes informatiques ne cessent d'ajouter du matériel, ce qui occasionne des frais inutiles et une surcharge des ressources. Les données en double exemplaire, en particulier, contribuent grandement au problème. C'est également le cas des ensembles de données stockés dans leur taille d'origine, alors qu'ils pourraient être compressés et occuper moins d'espace de stockage. Pourtant, il est possible de résoudre ces problèmes grâce à une optimisation efficace de la capacité de stockage.
La solution de software-defined storage DataCore SANsymphony propose deux techniques de réduction des données en vue d'optimiser la capacité. La fonctionnalité Deduplication élimine les données redondantes. La compression condense l'espace nécessaire au stockage des données. Ces deux techniques permettent d'éviter toute perte de données et de toujours maintenir leur intégrité.
En quoi consistent la déduplication et la compression ?
La fonction Deduplication analyse les blocs de données et crée un hachage unique pour chaque bloc de données. Si un nouveau bloc écrit sur le disque a la même valeur de hachage qu'un bloc existant, il sera remplacé par un identifiant pointant simplement vers le bloc de données existant.
Il est possible de remplacer plusieurs copies redondantes des données par des références à une seule copie, ce qui réduit la capacité nécessaire.
La déduplication est plus avantageuse lorsque plusieurs blocs de données sont identiques, par exemple, des images VDI ou des snapshots redondants.
La compression est un processus algorithmique qui réduit la taille des données en commençant par trouver les séquences de données identiques qui apparaissent dans une ligne afin de n'enregistrer que la première et de remplacer les suivantes par des informations sur leur nombre d'apparition dans la ligne.
Comme seule la première séquence de données est stockée telle quelle, moins d'espace disque est nécessaire pour représenter à nouveau les mêmes informations. En général, la compression dépend de la nature de l'ensemble de données lui-même : s'il est dans un format compressible et quelle quantité peut être compressée.
Avantages de la déduplication et de la compression
- Réduction des besoins en espace disque pour une allocation optimisée du stockage
- Plus d'économies sur les coûts informatiques et un meilleur retour sur investissement
- Réduction de l'encombrement matériel, ce qui réduit l'espace au sol et les besoins énergétiques
- Amélioration de l'efficacité du stockage
Deux méthodes de déduplication et de compression des données
DataCore SANsymphony propose deux méthodes de déduplication et de compression du stockage. Vous pouvez choisir la méthode appropriée en fonction de vos besoins métier et informatiques.
Déduplication et compression en ligne : dans ce cas, la réduction des données se produit avant que les données ne soient écrites sur le disque. SANsymphony examine et analyse les données entrantes afin de détecter d'éventuelles opportunités d'optimisation et effectue la déduplication et la compression. Le traitement en ligne réduit les besoins en capacité de disque car les données sont dédupliquées et compressées avant d'être stockées. Lorsque les opérations de sauvegarde sont fréquentes et que le nombre de données redondantes générées est élevé, le traitement en ligne est la méthode recommandée, car il réduit la taille des données avant de stocker la sauvegarde.
La déduplication et la compression en ligne sont prises en charge uniquement avec l'édition EN de SANsymphony et peuvent être activées individuellement ou ensemble (déduplication, compression ou les deux) si nécessaire.
Déduplication et compression post-traitement : dans ce cas, la réduction des données se produit après l'écriture des données sur le disque. SANsymphony stocke d'abord les données brutes dans le dispositif de stockage cible. Les données stockées sont ensuite examinées et analysées pour détecter les opportunités d'optimisation. Les données dédupliquées et compressées sont réécrites sur le périphérique de stockage et occupent désormais moins de capacité qu'auparavant. Il faut noter que l'allocation initiale de capacité sur le dispositif cible est plus importante avec le post-traitement car les données brutes sont d'abord stockées telles quelles avant de subir une réduction de données. Le post-traitement permet de planifier l'optimisation de la capacité aux heures creuses, afin de limiter l'impact sur les IOPS pendant les heures de pointe.
La déduplication et la compression post-traitement sont prises en charge par les éditions EN, ST et LS de SANsymphony. Comparez les éditions de SANsymphony.
De nombreux facteurs déterminent l'efficacité et le résultat de la déduplication et de la compression : le type de données, la fréquence des modifications apportées aux données, la fréquence d'accès, la fréquence de sauvegarde, etc. Certaines charges de travail éliminent un certain degré de redondance au niveau de l'application de façon intrinsèque, ce qui permet d'obtenir des taux de déduplication et de compression plus faibles. En revanche, d'autres charges de travail (comme la VDI qui fait plusieurs copies de la même image du système d'exploitation) engendrent des taux de déduplication et de compression plus élevés lors des sauvegardes. Les fichiers les plus susceptibles de bénéficier de la déduplication et de la compression sont ceux qui contiennent des blocs de données répétitifs, un contenu relativement statique et qui sont rarement consultés. Les deux techniques d'optimisation des capacités en ligne et en post-traitement aident les équipes informatiques à réaliser des économies de coûts d'investissement (CAPEX). Les économies réelles dépendent de l'efficacité des opérations de déduplication et de compression et de leurs taux respectifs d'optimisation de la capacité.