La fragmentation massive des données

prise en charge de Hero Banner

Qu’est-ce que la fragmentation massive des données ?

La fragmentation massive des données est la prolifération importante et croissante des données dans une myriade d’emplacements, de silos d’infrastructure et de systèmes de gestion différents. Ces données qui ne sont pas utilisées tous les jours ont généralement une faible latence, mais elles constituent la grande majorité des données d’une entreprise et doivent souvent être conservées pendant certaines périodes pour répondre aux exigences de l’industrie ou des pouvoirs publics. Ces données sont généralement contenues dans les sauvegardes de gestion des données, les archives, les partages de fichiers, les magasins d’objets, les systèmes de test et de développement et les systèmes d’analyse.

Pourquoi la fragmentation massive des données est-elle importante ?

À l’heure où tous les secteurs subissent une transformation numérique, les données sont devenues la ressource numérique la plus précieuse d’une entreprise, un atout concurrentiel. Pourtant, la fragmentation massive des données en a fait un casse-tête informatique coûteux et risqué pour de nombreuses organisations. Les équipes qui n’ont pas résolu le problème de la fragmentation massive des données ne peuvent pas utiliser l’ensemble de leurs données structurées et non structurées pour en tirer le maximum d’avantages, en raison de leur prolifération considérable dans divers emplacements et systèmes sur site et dans le cloud Résoudre le problème de la fragmentation massive des données est un objectif clé pour les organisations soucieuses d’extraire des informations et de valoriser pleinement leurs données pour en tirer un avantage concurrentiel. Les équipes qui veulent accélérer la transformation numérique en abandonnant l’infrastructure existante au profit d’environnements hybrides ou multicloud pour une agilité maximale.

Qu’est-ce que la fragmentation des données ?

Les données fragmentées sont des données réparties dans des environnements sur site et multicloud, dans différents systèmes et emplacements. La fragmentation des données empêche les organisations d’exploiter pleinement la valeur de leurs données à leur avantage.

Que sont les données de masse ?

Les données de masse sont des quantités importantes et croissantes de données structurées et non structurées stockées sous forme numérique.

Quelle est la cause de la fragmentation ?

La cause de la fragmentation des données est souvent involontaire. Les organisations adoptent de nouveaux produits ou de nouvelles approches, comme les clouds multiples, et tout d’un coup, elles stockent des données dans plusieurs environnements, lieux, silos, clouds et systèmes de gestion. Les organisations qui s’appuient sur une plateforme unique de gestion des données multicloud évitent les causes de la fragmentation massive des données.

Pourquoi la fragmentation massive des données est-elle importante ?

La fragmentation massive des données a de graves conséquences pour les entreprises. En tête de liste : elle entrave la transformation numérique. Lorsque les données sont fragmentées entre les systèmes, les emplacements et les silos, les organisations ne peuvent pas les utiliser pour en tirer un avantage commercial maximal sans dépenser davantage de ressources, notamment en termes de temps, de personnel et de budget.

Pourquoi la fragmentation massive des données constitue-t-elle une menace importante pour l’entreprise ?

Dans une récente enquête de Vanson Bourne, les responsables informatiques interrogés ont déclaré en moyenne que la fragmentation massive des données leur coûtait :

  • Plus de temps : les équipes informatiques passent en moyenne 19 semaines par an à gérer l’infrastructure de données et d’applications dans les environnements de cloud public ;
  • Plus de personnel : les équipes informatiques devraient compter plus d’un tiers de personnel en plus pour bénéficier d’une visibilité optimale sur les données stockées dans les clouds publics ;
  • Plus d’argent : il faudrait augmenter les budgets informatiques de près de 50 %.

Pourquoi les silos de données sont-ils devenus des problèmes de gestion ?

Les silos de données et l’infrastructure héritée posent des problèmes de gestion métier et informatique importants, qui coûtent aux équipes du temps, de l’argent et du budget pour essayer de tirer de la valeur des données qu’elles capturent et stockent.

À cause des silos de données, les données sont inefficaces et inexploitées. Comme il n’y a pas de partage de données entre les fonctions, les organisations ne peuvent pas optimiser la capacité. Résultat : de multiples copies de données sont générées et occupent inutilement de la capacité, ou de l’espace de stockage, ce qui demande plus de temps et d’énergie à l’informatique pour les gérer. Les silos de données compromettent également l’efficacité opérationnelle, car le personnel informatique doit gérer et coordonner de multiples systèmes et interfaces utilisateur propriétaires, chacun d’entre eux nécessitant un spécialiste, plutôt qu’un généraliste de l’informatique, pour le comprendre.

Les données fragmentées sont aussi souvent appelées données sombres ou cachées. En effet, lorsqu’il n’existe pas de vue unique de ces données à partir d’une solution moderne de gestion ou de protection des données, le service informatique ne sait pas où se trouvent toutes ses données, et encore moins de quoi il s’agit (données structurées ou non, objets et fichiers, etc.). Les données cloisonnées peuvent ainsi devenir non seulement un cauchemar opérationnel, car elles ne peuvent être optimisées, mais aussi un risque de conformité ou de sécurité potentiellement grave.

 

Cohesity et la fragmentation massive des données

Trois facteurs clés contribuent à la fragmentation massive des données :

  • Des produits ponctuels multiples gérant des silos de données fragmentés et une infrastructure ancienne, ce qui ajoute à la complexité ;
  • Un manque d’intégration des produits ponctuels dans le noyau, les clouds multiples et les sites périphériques, ce qui accroît le risque ;
  • Des copies de données, qui génèrent des coûts supplémentaires et des problèmes de conformité.

Cohesity résout le problème de la fragmentation massive des données grâce à une gestion et une protection des données multicloud qui font converger la sauvegarde et la restauration, les services de fichiers et d’objets, la reprise après sinistre, les environnements de développement et de test et l’analyse sur une seule et même plateforme.

Grâce à Cohesity, les organisations atteignent rapidement leurs objectifs métiers :

  • Suppression des produits ponctuels pour la gestion et la protection des données, ce qui réduit la complexité ;
  • Intégration transparente des solutions existantes (VMware, Microsoft, Pure, etc.) et intégration native dans le cloud (AWS, Azure et Google Cloud) ;
  • Élimination des copies de données, réduction des coûts et rationalisation de la conformité.

L’approche de Cohesity supprime les silos tout en simplifiant radicalement l’infrastructure ou en renforçant les capacités de gestion et de protection des données en tant que SaaS. Grâce à Cohesity, les organisations optimisent considérablement leurs dépenses d’investissement et opérationnelles et exploitent toutes leurs données pour en tirer un avantage concurrentiel.

Résoudre la fragmentation massive des données

X
Icon ionic ios-globe

Vous êtes sur le point de visualiser du contenu en anglais, souhaitez-vous continuer ?

Ne pas afficher cet avertissement