Options de reseau Azure

Déployer votre site sur Azure

La première étape est probablement de recréer votre configuration locale dans le cloud.

Cette configuration de base vous donne une idée de la façon dont les réseaux sont configurés et dont le trafic réseau entre dans Azure et en sort.

Utilisation d’une architecture multiniveau

Une architecture multiniveau représente un modèle d’architecture qui peut être utilisé pour créer des systèmes à couplage faible.

Une architecture multiniveau divise une application en deux niveaux logiques ou plus. Du point de vue de l’architecture, une couche plus élevée peut accéder aux services d’une couche moins élevée, mais une couche moins élevée ne doit jamais accéder à une couche plus élevée.

Le terme à trois niveaux fait référence à une application multiniveau comportant trois niveaux. Votre application web d’e-commerce suit l’architecture à trois niveaux suivante :

  • Le niveau Web fournit l’interface web à vos utilisateurs par le biais d’un navigateur.
  • Le niveau Application exécute la logique métier.
  • La couche Données inclut des bases de données et d’autres formes de stockage qui contiennent des informations sur les produits et les commandes des clients.
  • L’illustration suivante montre le flux d’une requête, de l’utilisateur à la couche Données.

couche OSI

Quand l’utilisateur clique sur le bouton pour passer la commande, la demande est envoyée au niveau Web, avec l’adresse de l’utilisateur et les informations de paiement. La couche Web transmet ces informations à la couche Application, qui valide les informations de paiement et vérifie le stock. La couche Application peut ensuite stocker la commande dans la couche Données pour qu’elle soit récupérée ultérieurement afin d’être traitée.

Supposons que vous choisissiez d’exécuter votre site d’e-commerce sur des machines virtuelles. Voici à quoi cela pourrait ressembler dans votre environnement de test s’exécutant sur Azure. L’illustration suivante montre une architecture à trois niveaux s’exécutant sur des machines virtuelles avec les fonctionnalités de sécurité activées pour limiter les demandes entrantes.

exemple de découpage réseau

Qu’est-ce qu’un réseau virtuel ?

Un réseau virtuel est un réseau isolé logiquement sur Azure. Les réseaux virtuels Azure vous sont familiers si vous avez déjà configuré des réseaux sur Hyper-V, VMware ou même sur d’autres clouds publics. Un réseau virtuel permet aux ressources Azure de communiquer de manière sécurisée entre elles, avec Internet et avec les réseaux locaux. Un réseau virtuel se limite à une seule région. Toutefois, plusieurs réseaux virtuels de différentes régions peuvent être connectés à l’aide du peering de réseau virtuel.

Qu’est-ce qu’un groupe de sécurité réseau ?

Un groupe de sécurité réseau autorise ou refuse le trafic réseau entrant vers vos ressources Azure. Considérez un groupe de sécurité réseau comme un pare-feu au niveau du cloud pour votre réseau.

Par exemple, notez que la machine virtuelle dans le niveau Web autorise le trafic entrant sur les ports 22 (SSH) et 80 (HTTP). Le groupe de sécurité réseau de cette machine virtuelle autorise le trafic entrant sur ces ports depuis toutes les sources. Vous pouvez configurer un groupe de sécurité réseau pour accepter le trafic uniquement en provenance de sources connues, comme des adresses IP que vous approuvez.

Questionnaire

  1. Qu’est-ce qu’une région Azure ?

Un ou plusieurs centres de données Azure dans un emplacement géographique spécifique.

Un moyen de diviser des réseaux en réseaux plus petits.

Les règles de pare-feu qui définissent le flux de trafic entrant et sortant d’Azure.

  1. Laquelle des affirmations suivantes concernant les réseaux virtuels est vraie ?

Vous configurez les réseaux virtuels par le biais d’un logiciel.

Un réseau virtuel accepte le trafic réseau sur tous les ports. Vous configurez le pare-feu via des machines virtuelles.

Les réseaux virtuels sont toujours accessibles à partir d’Internet.

Mettre à l’échelle avec Azure Load Balancer

Par exemple, que se passe-t-il quand vous devez effectuer la maintenance hebdomadaire ? Votre service sera toujours inaccessible pendant votre fenêtre de maintenance. Et comme votre site atteint des utilisateurs partout le monde, il n’y a pas de moment idéal pour arrêter vos systèmes à des fins de maintenance. Vous pouvez également rencontrer des problèmes de performances si un trop grand nombre d’utilisateurs se connectent en même temps.

Qu’est-ce que la disponibilité et la haute disponibilité ?

La disponibilité fait référence à la durée pendant laquelle votre service est opérationnel sans interruption. La haute disponibilité, ou hautement disponible, fait référence à un service qui est opérationnel pendant une longue période de temps.

Vous avez peut-être entendu des termes comme « disponibilité cinq neuf ». La disponibilité cinq neuf signifie que l’exécution du service est garantie 99,999 % du temps. Même s’il soit difficile d’atteindre 100 % de disponibilité, de nombreuses équipes s’efforcent d’obtenir au moins cinq neuf.

Qu’est-ce que la résilience ?

La résilience fait référence à la capacité d’un système à rester opérationnel en cas de conditions anormales.

Ces conditions sont notamment les suivantes :

  • Catastrophes naturelles
  • Maintenance du système, aussi bien planifiée que non planifiée, en incluant les mises à jour logicielles et les mises à jour de sécurité.
  • Pics de trafic sur votre site
  • Menaces émanant de tiers malveillants, par exemple les attaques DDoS (déni de service distribué)

Qu’est-ce qu’un équilibreur de charge ?

Un équilibreur de charge répartit le trafic de manière équitable entre tous les systèmes dans un pool. Un équilibreur de charge peut vous aider à atteindre une haute disponibilité et obtenir une résilience.

La réponse consiste à utiliser un équilibreur de charge pour répartir le trafic. L’équilibreur de charge devient le point d’entrée de l’utilisateur. L’utilisateur ne sait pas (ou n’a pas besoin de savoir) quel système l’équilibreur de charge choisit pour recevoir la demande.

L’illustration suivante montre le rôle d’un équilibreur de charge.

schema HA

L’équilibreur de charge reçoit la requête de l’utilisateur et la dirige vers l’une des machines virtuelles de la couche Web. Si une machine virtuelle est non disponible ou cesse de répondre, l’équilibreur de charge cesse de lui envoyer du trafic. L’équilibreur de charge redirige alors le trafic vers l’un des serveurs en mesure de répondre.

Qu’est-ce qu’Azure Load Balancer ?

Azure Load Balancer est un service d’équilibreur de charge fourni par Microsoft. Il prend en charge la maintenance à votre place. Load Balancer prend en charge les scénarios entrants et sortants, il offre une latence faible et un débit élevé. Il est scalable jusqu’à plusieurs millions de flux pour toutes les applications TCP (Transmission Control Protocol) et UDP (User Datagram Protocol).

L’illustration suivante montre le rôle des équilibreurs de charge Azure dans une architecture à plusieurs couches.

HA multicouche

Azure Application Gateway

Si tout votre trafic est de type HTTP, il existe une meilleure option qui consiste à utiliser Azure Application Gateway. Application Gateway est un équilibreur de charge conçu pour les applications web. Il utilise Azure Load Balancer au niveau du transport (TCP) et applique des règles de routage sophistiquées basées sur les URL pour prendre en charge plusieurs scénarios avancés.

Azure Application Gateway

Voici quelques avantages liés à l’utilisation d’Azure Application Gateway sur un équilibreur de charge simple :

  • Affinité des cookies.
  • Arrêt SSL.
  • Pare-feu d’applications web.
  • Routes basées sur des règles d’URL.
  • Réécrire les en-têtes HTTP.

Qu’est-ce qu’un réseau de distribution de contenu ?

Un CDN (réseau de distribution de contenu) est un réseau distribué de serveurs capables de fournir efficacement du contenu web aux utilisateurs. Il s’agit d’un moyen de transmettre du contenu aux utilisateurs en fonction de la région dans laquelle ils se trouvent pour réduire le temps de latence. Un CDN peut être hébergé dans Azure ou tout autre emplacement.

Qu’en est-il du DNS ?

DNS (Domain Name System) est une façon d'‘associer des noms conviviaux sur leur adresse IP. Vous pouvez considérer DNS comme l’annuaire téléphonique d’Internet.

Par exemple, votre nom de domaine, contoso.com, peut être mappé sur l’adresse IP de l’équilibreur de charge de la couche Web, 40.65.106.192.

Vous pouvez apporter votre propre serveur DNS ou utiliser Azure DNS, un service d’hébergement pour les domaines DNS qui s’exécute sur l’infrastructure Azure.

L’illustration suivante montre Azure DNS. Quand l’utilisateur accède à contoso.com, Azure DNS route le trafic vers l’équilibreur de charge.

DNS Azure

Questionnaire

  1. Parmi les affirmations sur Azure Load Balancer, laquelle est vraie ?

Vous devez utiliser Azure Load Balancer si vous voulez répartir le trafic entre vos machines virtuelles s’exécutant dans Azure.

Azure Load Balancer fonctionne uniquement avec le trafic sur Internet.

Azure Load Balancer répartit le trafic entre des systèmes similaires, ce qui augmente la haute disponibilité de vos services.

Réduire la latence avec Azure Traffic Manager

Qu’est-ce que la latence réseau ?

La latence correspond au temps nécessaire pour que les données transitent sur le réseau. La latence est généralement mesurée en millisecondes.

Certains facteurs comme le type de connexion que vous utilisez et la façon dont votre application est conçue peuvent affecter la latence. Mais le facteur le plus important est peut-être la distance.

Questionnaire

Qu’est-ce que la latence réseau ?

La quantité de données pouvant être prise en charge sur la connexion.

La distance que les données doivent parcourir pour atteindre sa destination.

Le temps nécessaire pour que les données transitent sur le réseau.

  1. Comment Azure Traffic Manager réduit-il la latence ?

Il choisit seulement les réseaux les plus rapides entre des points de terminaison.

Il choisit le point de terminaison le plus proche du serveur DNS de l’utilisateur.

Il met en cache le contenu, d’une façon similaire au fonctionnement des réseaux de distribution de contenu.