Les entreprises accumulent des données en masse, sans distinction de secteur d'activité. De plus avec les contraintes légales pesant sur la durée de conservation des informations, le stockage est devenu une véritable problématique professionnelle.

Écartons tout de suite les solutions de sauvegarde sur bande ou logicielles peu adaptées pour des volumétries importantes. Pour évaluer et préconiser les solutions de stockage les plus adaptées aux entreprises, voici les 3 clés à retenir : sécurité, accès et capacité

  •  Le scandale PRISM a au moins le mérite de réveiller les consciences et de remettre la sécurité au cœur du Cloud et du stockage en particulier. Cependant, la confidentialité n'est pas suffisante, il faut aussi s'assurer de l'intégrité et la disponibilité des données stockées
  •  La disponibilité aux données est rendue possible par un accès rapide. Or avec une bande passante de 1 mégabit par seconde, pour sauvegarder 1 gigaoctet de données, comptez plus de 2 heures... Seule la fibre optique s'avère vraiment appropriée pour ce type d'usage.
  •  Les besoins de stockage ne s'évaluent désormais plus en Gigas mais en Téras, voire en Pétas. Les capacités des solutions doivent s'avérer scalables et sans limite.


Compte-tenu de ces contraintes, certaines entreprises se sont dotées de leur propre datacenter relié en fibre optique. Sécurisée, cette solution reste néanmoins coûteuse et techniquement limitée. En effet, avec les technologies actuelles, de type NFS / CIFS ou SAN avec serveur centralisé, l'augmentation des capacités de stockage consiste à ajouter des disques aux serveurs. L'ajout de disques peut dégrader peu à  peu les performances du serveur ainsi que la sécurité globale de la solution. Et quand il n'y a plus de place dans le serveur, il faut le remplacer par un autre plus gros et plus cher avec les contraintes de migration.

Les entreprises peuvent aussi externaliser leurs données dans le "nuage" avec des offres IaaS ou Infrastructure as a Service. Coûts avantageux car mutualisés, capacités flexibles et absence de matériel spécifique participent au succès de ces offres. Cependant, après étude, le panel de fournisseurs reste limité. Les prestataires globaux, plutôt nord-américains pour ne pas les citer, et les brokers de Cloud (bien français quant à eux) ne garantissent en rien la localisation des données et du coup leur confidentialité (syndrome PRISM à nouveau). De plus, les technologies et accès des solutions ne sont pas connues, donc le niveau de performance ne peut pas être évalué objectivement. Basées le plus souvent sur des technologies SAN, leur coût peut devenir prohibitif au delà de 100 téraoctets. De plus, la portabilité des données entre solutions concurrentes n'est pas assurée ce qui peut poser soucis en cas de migration notamment.

Les entreprises ont donc intérêt à s'orienter vers des fournisseurs prouvant que leurs stockages s'effectuent dans des centres informatiques, localisés en France, sécurisés et accessibles via la fibre optique. De plus, elles devront exiger des capacités de stockage sans limite ou un stockage élastique. Ces offres sont rendues possibles grâce à la nouvelle génération de clusters de machines ou « fermes de calcul » construits sans base MySQL (NoSQL hiérarchique). Cette technologie  révolutionne encore confidentiellement mais très sûrement le marché. Dans le cluster, l'ajout de machines n'amoindrit pas les performances, bien au contraire il renforce les capacités de traitement, tout en augmentant les capacités de stockage. Plus vous consommez, plus le système devient performant et économique...

C'est pourquoi le mode de facturation devient révélateur de la technologie et de la pérennité de l'offre. Choisissez des offres sans coût fixe, sans minimum ni maximum tout simplement.

Zafi Ramarosandratana
Ingénieur Systèmes - équipe de R&D de CELESTE