latribuneducloud

Home » Les solutions » Infrastructure » ASP Serveur présente le cloud quantique

ASP Serveur présente le cloud quantique

Archives

Calendrier

April 2013
M T W T F S S
« Mar   May »
1234567
891011121314
15161718192021
22232425262728
2930  

Le fournisseur de services managés ASP Serveur présente une solution technique baptisée cloud quantique dont les principales caractéristiques sont d’atteindre 100% de disponibilité et de s’affranchir des pannes et des pertes de données. Ce projet est le résultat de 4 années de recherche et a bénéficier du Crédit Impôt Recherche. L’appellation cloud quantique est trompeuse car elle fait penser à celle d’ordinateur quantique avec laquelle elle n’a aucun lien. Ici, le terme cloud, imaginé par ASP Serveur, a été conçu pour désigner un service de cloud Computing dont les données coexistent en temps réel sur plusieurs data centers. Il fait référence à la physique quantique et plus particulièrement aux « particules intriquées».

L’intrication quantique est un phénomène observé en mécanique quantique dans lequel l’état quantique de deux objets doit être décrit globalement, sans pouvoir séparer un objet de l’autre, bien qu’ils puissent être spatialement séparés. Lorsque deux systèmes – ou plus – sont placés dans un état intriqué, il y a des corrélations entre les propriétés physiques observées des deux systèmes qui ne seraient pas présentes si l’on pouvait attribuer des propriétés individuelles à chacun des deux objets

S1 et S2. En conséquence, même s’ils sont séparés par de grandes distances spatiales, les deux systèmes ne sont pas indépendants et il faut considérer {S1+S2} comme un système unique.

Les 3 principaux apports de la solution d’ASP Serveur sont la disponibilité, l’affranchissement des PRA et PCA et la résilience des données.

Niveau de disponibilité de 100%

Le niveau de disponibilité théorique du cloud quantique est de 100% par addition des niveaux de disponibilité des data centers de type Tier III (les plus couramment répandus), chaque data center de type Tier III affichant une disponibilité théorique de 99.982% par an.

Le cloud quantique permet la reprise immédiate, automatique, à chaud et sans perte de données des services de cloud Computing sur un second data center. Le niveau de disponibilité de 100 % est actuellement impossible à atteindre avec n’importe quelle autre technologie. Une infrastructure basée sur un seul data center ne pourra jamais dépasser la disponibilité théorique de ce data center, soit 99.982% pour les data centers de TIER III et 99.995% pour les data centers de TIER IV.

Affranchissement total des PRA et PCA (Plans de reprise d’activité et Plan de continuité d’activité)

Le cloud quantique dispose par conception d’un mécanisme de reprise ou de continuité d’activité sur un second data center. Le jeu de données étant cloné de manière synchrone entre les data centers, la reprise d’activité est immédiate et sans aucune perte de données.

Le temps de bascule en cas de panne est si instantané (inferieur à quelques millisecondes) qu’il est imperceptible par les clients distants (Navigateur, RDP, VNC, CITRIX…)

Cette nouvelle technologie n’affranchit pas de la mise en place d’archivage (sauvegarde sur plusieurs jours glissants par exemple) si vous souhaitez retrouver un jeu de données antérieur à la date du jour.

Résilience record des données

Dans le cadre de l’utilisation du cloud quantique, les données coexistent en temps réel sur deux data centers distants. Un incident dans un des data centers intriqués n’affecte pas la résilience des données. La résilience totale signifie que la perte de données n’est plus possible théoriquement sauf cas extrême (bombardement atomique…)

Principe de fonctionnement simplifié

L’infrastructure nécessaire pour le cloud quantique est la suivante :
– Placement des data centers distants dans le même LAN (Local Area Network).
– Duplication des réseaux de sortie opérateurs sur les data centers distants.
– Synchronisation des équipements réseau.
– Interconnexion des data centers distants à très haute vitesse et très faible latence réseau (fibres FC400 et latence réseau inférieure à 1 milliseconde).
– Mise en place d’un système de stockage capable d’un clonage synchrone des données sur deux data centers distants dans un contexte de très haute connectivité (technologie NetApp MetroCluster).
– Mise en place d’un « Orchestrateur » capable de piloter la plupart des hyperviseurs du marché (Xen, VMWare, KVM, OpenStack). Cet orchestrateur prendra la décision de migrer à chaud et automatiquement les Machines Virtuelles en cas de défaillance d’un serveur hôte, d’un élément d’un data center ou d’un data center complet.
– Mise en place d’un cluster actif/actif de Load-Balancer physiques (CISCO CSS).

Une fois ces éléments mis en place, il suffit de placer les serveurs hôtes dans deux data centers A et B. La partie stockage des serveurs hôtes n’est jamais en local mais elle est confiée au MetroCluster

NetApp qui assure le clonage synchrone des données. Les données étant les mêmes sur chaque data center, en cas de panne d’un serveur hôte ou du data center A, l’hyperviseur du data center B va simplement utiliser les données présentes sur le data center B. Il n’y a pas copie de données, pour cette raison la migration à chaud est instantanée. Les data centers étant placés dans le même réseau, l’adressage IP ne change pas et il n’y a donc pas de délais de propagation.

Les Load-Balancer physiques offre une fonctionnalité supplémentaire en ajoutant la répartition de charge sur plusieurs data centers en plus de la tolérance de panne. Ils permettent aussi la virtualisation des adresses IP.


Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s

%d bloggers like this: