L’art de sécuriser ses données

Dématérialisation, numérisation, digitalisation… le papier ne cesse de refluer et nos documents et données dont désormais très largement stockés sous forme numérique, représentant des volumes toujours plus considérables.  Les sociétés doivent donc repenser la façon dont elles sécurisent leurs données numériques. Il n’est plus acceptable de couper l’accès à l’informatique pendant une demi journée ou davantage.

Mon système d’information est-il assez sécurisé ? Si non, comment construire sa solution ? comment garantir la disponibilité de mon système d’information ? Comment assurer la protection de mes données et leur restauration en cas de sinistre ?

Serveur physique ou virtuel, haute disponibilité, sauvegarde des données, sauvegarde locale ou distante, architecture redondée, externalisation, datacenter…comment s’y retrouver dans les offres de services et construire, sans peser sur son budget, la solution adaptée à une PME ou une collectivité de taille intermédiaire ? Voici un tour d’horizon de l’état de l’art.

Les risques du serveur physique dans les locaux de l’entreprise

Le serveur physique installé en interne est traditionnellement la base du système d’information en  PME. Simple, peu couteux, il n’est plus du tout adapté et présente des risques importants.

Le premier risque est celui d’une panne matérielle ; même s’il a gagné en fiabilité et en dispositif de sécurité, un serveur physique est toujours à la merci d’une panne (fréquente) de disque, d’une corruption de données, d’une panne système. Sans redondance du serveur, le délai de rétablissement sera de plusieurs heures à plusieurs jours selon le type de maintenance prévue. Et il ne faut pas oublier qu’une fois le matériel remis en service, il faut rétablir le système, l’applicatif, les données, et rattraper les transactions non saisies pendant la panne.

Le deuxième type de risque est l’incident externe à l’informatique : le vol, le vandalisme, la coupure électrique brutale lors d’un orage,  un sinistre  par le feu ou une inondation. Dans ce cas, le serveur ne peut être remis en service et il va falloir approvisionner un nouveau matériel  (avec un délai de livraison) et le réinstaller complètement. Cette fois ci, nous sommes en jours pour le délai de relance.

Enfin, et on y pense moins, l’utilisateur lui-même peut être à l’origine d’une perte de données. Une mauvaise manipulation suffit à anéantir plusieurs années de travail !

Si le serveur est ancien, avec une version d’OS et d’applicatifs dépassé, cette réinstallation sera difficile.

Dernier pont de faiblesse, la sauvegarde.  Elle doit être effectuée tous les jours, et si possible externalisée, soit manuellement avec un fort risque de ne pas être systématique,  soit de manière automatisée en sauvegarde à distance que nous verrons plus loin.

Dans la majorité des cas, le risque d’incident, la contrôle des sauvegardes, et le scénario de redémarrage sont  sous-évalués, et le rétablissement sera beaucoup plus long, laborieux et stressant qu’imaginé.

Conserver son informatique sur un serveur physique n’est donc pas en phase avec les exigences de disponibilité et de sécurité d’aujourd’hui.

La sauvegarde distante, une solution éprouvée mais qui présente des limites

La télé-sauvegarde consiste à faire répliquer la totalité ou une partie de ses données pour en stocker une copie sur une site distant sécurisé en datacenter. Via une connexion internet, le prestataire va automatiquement venir recopier les données du serveur et les stocker chez lui. C’est une bonne solution, éprouvée, performante, fiable, et sécurisante. Elle est incontestablement supérieure à la sauvegarde locale externalisée manuellement.

Mais elle présente aussi des limites.

Tout d’abord, une telle sauvegarde s’effectuera la nuit, avec donc un rétablissement à J-1, avec donc la perte d’une journée d’opérations.

Deuxièmement, si les volumes sont conséquents, la sauvegarde ne pourra être récupérée par l’accès réseau car trop volumineuse, il faudra faire un transfert via un moyen de  stockage physique d’où un délai de rétablissement qui sera plus long.

Par ailleurs, parce qu’il s’agit d’un service clé en main, nombreuses sont les entreprises qui utilisent ce service comme une assurance et la laisse fonctionner en tache de fond, négligeant de la superviser, de vérifier que les sauvegardes sont bien positionnées, et de faire un test de restauration. Cette exploitation doit être organisée et menée par le client régulièrement :

  • Le paramétrage de la sauvegarde doit être vérifié pour vérifier l’exhaustivité des sauvegardes. Combien de fois, un répertoire critique s’est avéré ne pas être sauvegardé correctement !
  • Des tests de restauration doivent être effectués à échéances régulières pour en vérifier la qualité et le temps nécessaire au rétablissement. Plus le volume de données est important, plus la sauvegarde sera complexe, et plus le temps nécessaire à sa restauration sera important.

Enfin,  la télé-sauvegarde reste un dispositif relativement couteux, par son prix au volume et  par la bande passante qu’elle nécessite et consomme. La perception de ce coût est d’autant plus élevée qu’elle n’apporte rien à l’utilisateur au quotidien ; c’est une sécurité, mais pas un moyen de prévention.

L’externalisation en datacenter sur un serveur virtuel : la continuité d’activité

La sauvegarde est un dispositif qui permet d’assurer une reprise d’activité dans un délai plus ou moins long avec un niveau de sécurité satisfaisant.

Pour mieux protéger son activité elle-même dépendante des systèmes et données, une entreprise doit mettre en place une solution dite de continuité d’activité : l’objectif est de rendre les systèmes beaucoup plus protégés et résistants contre une panne ou incident, tout en disposant d’une solution de reprise d’activité plus rapide et performante.

Une solution de continuité passe par trois éléments :

  1. L’hébergement du système d’information dans un datacenter sécurisé, qui protégera des risques d’intrusion, de panne électrique, ou d’un sinistre (incident, innondation…)
  2. Une architecture haute disponibilité, qui protège le système d’une panne matérielle et permet soit une continuité totale d’activité ( pas de coupure du tout), soit un reprise garantie dans un délai très bref (<1h)
  3. Une solution de rétablissement rapide en cas de perte de données ou de corruption de système,…

Nous ne décrirons pas ici les caractéristiques d’un datacenter, disons juste qu’il est conçu pour protéger vos systèmes à 99,99% ou 99,999% de disponibilité. Les datacenters modernes, exploités par un prestataire de qualité sont un élément considérable de sécurité.

Rappelons enfin qu’en cas de sinistre dans vos locaux, vous pourrez toujours accéder à distance à vos systèmes qui seront restés à l’abri dans le datacenter.

Ensuite, dans son datacenter, votre prestataire disposera de moyens techniques bien plus complets et sécurisés que ceux dont une entreprise moyenne pourrait se doter sur ses seuls ressources et compétences.

En particulier, le prestataire pourra proposer une plateforme sécurisée de serveurs virtuels dédiés ou VPS.

La virtualisation de serveur permet de faire tourner un serveur logique (systèmes, applicatifs et bases de données) sur n’importe quel serveur physique, et de le déplacer automatiquement sur un autre en cas de surcharge, de panne ou d’obsolesecence.   Le client n’achète plus un matériel fixe et limité, mais un service de mise à disposition da puissance serveur sur une infrastructure redondée  Le fournisseur se charge de toute la partie matérielle, de manière complètement transparente pour le client, il n’y aura plus de changement de matériel ou de renouvellement. La puissance souscrite est ajustable à tout moment, à la hausse comme à la baisse, sans délai, sans coupure de service, sans contrainte matérielle.

Ainsi un serveur virtuel peut être totalement à l’abri de toute panne matérielle, on parle de haute disponibilité avec un engagement de rétablissement de 1h ou 2h en cas d’incident vraiment complexe. C’est la continuité d’activité. Le client doit toutefois bien vérifier que son serveur virtuel est bien installé en haute disponibilité sur une ferme de serveurs physiques dans un architecture qui permet bien depour bénéficier de cette continuité d’activité (voir notre article sur le sujet). La virtualisation sur un serveur physique isolé réduit la majorité des avantages de cette solution.

Enfin, un serveur virtuel peut se sauvegarder avec un méthode bien plus efficace : on sauvegarde ce que l’on appelle une « image » du serveur virtuel, et on peut restaurer celui ci en un délai de quelques dizaines de minutes en cas de corruption par exemple, car on ne « réinstalle » pas le serveur mais on le « redémarre » à partir de sa sauvegarde. Enfin, le prestataire fournit sa solution de sauvegarde comme un service qu’il se charge de contrôler lui-même et sur lequel il s’engage.

On voit ainsi qu’avec l’externalisation en datacenter sur un serveur virtuel dédié haute disponibilité, sauvegardé en « image « de serveur, le client dispose d’un niveau de sécurité très élevé, d’une continuité d’activité bien supérieure, et d’un délai de restauration bien plus court et performant. Il peut exploiter ses applications en toute sécurité avec une garantie de disponibilité maximale pour un coût très raisonnable.

Le serveur de fichiers en ligne

Ces dernières années, se sont développées des solutions clés en main de serveur de fichiers qui reposent sur les mêmes principes que ci-dessus : hébergement en datacenter sécurisé, architecture redondée virtualisé, sauvegarde contrôlée.

Leur niveau de sécurité est très élevé mais en plus, elles apportent des fonctionnalités spécifiques pour un serveur de fichiers : le partage de dossiers ou documents, le transfert de fichiers volumineux et la synchronisation sur le poste de travail.

Cette synchronisation est particulièrement intéressante pour les collaborateurs nomades ou travaillant d’un site distant. Cela leur permet de travailler en local sur leur poste de travail tout en sécurisant leurs données sur le serveur.

Par ailleurs, ces serveurs de fichiers bénéficient d’un service de sauvegarde intégrée en continue, qui permet à l’utilisateur de revenir en cours de journée à une version antérieure de son fichier.

En conclusion

Si la solution du serveur « physique » associé à de la télé-sauvegarde remplit correctement son rôle, il n’est pas à la hauteur des enjeux actuels de sécurité et de disponibilité.  Il existe aujourd’hui des solutions beaucoup plus efficaces et moins coûteuses pour les entreprises.

La solution du serveur virtuel dédié hébergé correspond aux usages et exigences de l’informatique d’aujourd’hui. Il devient compliqué de s’en passer lorsque l’on aborde les questions de sécurité mais aussi de mobilité ou de multi-site.

Pourtant,  de nombreuses entreprises restent réticentes à l’idée d’externaliser leur données. Elles ont le sentiment d’une perte de contrôle et craignent un usage abusif de leurs données hébergées. La virtualisation est un concept abstrait et au premier abord mois rassurant qu’un matériel. Pourtant, les solutions hébergées sont intrinsèquement beaucoup plus sécurisées et assurent une bien meilleure protection contre le piratage informatique.  Comme tout niveau dispositif, il faut s’informer précisément, croiser les avis pour prendre une décision en toute confiance et ainsi ne pas rester en situation de risque sur une solution inadaptée aux enjeux actuels.

Laisser un commentaire

*

Be sure to include your first and last name.

If you don't have one, no problem! Just leave this blank.