Comment utiliser QoS pour assurer l'accès à Internet

La QO est la possibilité de fournir un niveau de service spécial pour des utilisateurs ou des applications spécifiques sans préjudice du reste du trafic. L'objectif principal QoS est d'assurer un comportement plus prévisible du réseau de données lors de la collaboration avec le fil ou un autre type de trafic, en fournissant la bande passante nécessaire, en contrôlant le délai et la gigue et améliore les caractéristiques lorsque la perte de paquets. Les algorithmes de QoS réalisent ces objectifs en limitant le trafic, l'utilisation plus efficace des canaux de transmission et le but de certaines politiques de trafic. QoS fournit une transmission intellectuelle sur réseau d'entrepriseet, avec le réglage correct, améliore les indicateurs de performance.

QoS politiciens

Type de trafic QoS. Sécurité Lorsque?
Vote Retarder moins de 150 ms dans une direction Cryptage au niveau de transfert lundi vendredi
Système de planification des ressources d'entreprise Fournir une bande passante accessible d'au moins 512 kb / s Crypté 24 heures par jour, 7 jours sur 7, 365 jours par an
Trafic créé par logiciel et logiciel d'équipement Fournir une bande passante accessible d'au moins 256 kb / s Ouvert lundi vendredi
Trafic de l'utilisation des ressources Internet HTTP / HTTPS Livraison négociée sur le principe du meilleur effort Serveur proxy http Du lundi au vendredi de 8h à 21h.

La mise en œuvre de la qualité de service dans des réseaux de communication unifiées

Conditionnellement, le processus de mise en œuvre de QoS dans les réseaux Communications unifiées. (Communications unifiées), peuvent être divisées en 3 étapes:

  1. Détermination du type de trafic sur le réseau et ses exigences. À ce stade, vous devez enseigner au réseau pour identifier les types de trafic pour appliquer celles ou d'autres algorithmes de QoS;
  2. Avec les mêmes exigences de QoS. Par exemple, vous pouvez définir 4 types de trafic: la voix, le trafic hautement prioritaire, le trafic à faible priorité et le trafic d'utiliser un navigateur pour afficher les pages Web;
  3. Attribuer des stratégies de QOSappliqué aux classes définies dans la clause 2.

Dans les réseaux d'entreprise modernes, la circulation vocale nécessite toujours un délai minimal. Le trafic qui génère des applications essentielles nécessite un petit retard (par exemple, des informations relatives aux services bancaires). D'autres types d'informations peuvent ne pas être aussi sensibles aux retards, par exemple, transfert de fichiers ou e-mail. L'utilisation habituelle d'Internet à des fins personnelles au travail peut également être limitée ou même interdite.

Selon ces principes, trois polices de QoS peuvent être distinguées:

  • Sans délai: Attribue au trafic vocal;
  • Meilleur service: Assigne au trafic avec la priorité la plus élevée;
  • Du repos: Attribué au trafic de navigateur basse priorité et de navigateur Web;
Étape 1: Détermination du type de trafic

La première étape vers la mise en œuvre du QO consiste à identifier les types de trafic sur le réseau et à déterminer les exigences spécifiques de chaque type. Avant de mettre en œuvre la qualité de service, il est fortement recommandé de procéder à un audit de réseau afin de bien comprendre comment et quelles applications fonctionnent dans le réseau d'entreprise. Si je mettez en œuvre les stratégies de QoS sans avoir une compréhension complète du segment de réseau d'entreprise, les résultats peuvent être déplorables.

Ensuite, vous devez déterminer les problèmes des utilisateurs lorsque vous travaillez avec celles ou d'autres applications réseau: par exemple, l'application fonctionne lentement à cause de ce qui a une performance de mauvaise performance. Il est nécessaire de mesurer le trafic réseau pendant l'horloge de la plus grande charge en utilisant des utilitaires spéciaux. Pour comprendre les processus du réseau, l'étape nécessaire consiste à mesurer le chargement du processeur de chacune des unités d'équipement de réseau actif pendant la plus grande charge de travail pour savoir clairement où les problèmes peuvent potentiellement se produire.

Après cela, il est nécessaire de déterminer les objectifs commerciaux et les modèles de travail et de faire une liste des besoins en entreprise. Selon les résultats de ces actions, chacun des éléments de la liste peut être comparé à une ou plusieurs catégories de trafic.

À la fin, il est nécessaire de déterminer les niveaux de service requis pour un type de trafic différent en fonction de la disponibilité et de la vitesse requises.

Étape 2: Trafic de groupement en cours

Après avoir identifié le trafic réseau, vous devez utiliser une liste des besoins professionnels, compilée à la première étape pour déterminer les classes de trafic.

La circulation vocale est toujours déterminée par une classe distincte. Cisco a les mécanismes développés de QoS pour le trafic vocal, par exemple, File d'attente de latence faible (LLQ) dont le but est de contrôler le vote pour recevoir un avantage dans la maintenance. Une fois les applications les plus critiques identifiées, vous devez déterminer les classes de la circulation à l'aide d'une liste des besoins professionnels.

Chaque application n'a pas sa propre classe de services. De nombreuses applications ayant des exigences similaires pour les QoS sont regroupées en une seule classe.

Exemple de classification du trafic

Le paysage d'entreprise typique définit 5 classes de trafic:

  • Vote: La priorité la plus élevée pour le trafic VoIP;
  • Extrêmement important: Un petit ensemble d'applications de manière critique importante pour les entreprises;
  • Transactions: Dans cette classe, il existe des services de base de données, un trafic interactif et un trafic de réseau préféré;
  • Livraison négarienne: Travaille sur le principe du meilleur effort, qui est littéralement traduit par «meilleur effort». Cette classe comprend le trafic Internet et le courrier électronique.

Étape 3: Trafic groupé à des cours

La troisième étape doit être décrite par les stratégies de QoS pour chacune des classes de trafic comportant les actions suivantes:

  • Attribuer une quantité minimale de bande passante garantie;
  • Attribuez la taille de la largeur de bande maximale;
  • Attribuer des priorités pour chacune des classes;
  • Utilisez la technologie QOS, telle que les algorithmes de contrôle de la file d'attente pour le contrôle de la surcharge.

Considérez la définition des stratégies de QoS pour chacune des classes:

  1. Vote: Une bande passante est disponible - 1Mbps. Utilisez l'étiquette du code de service de services différencié (DSCP) avec la valeur EF. Le label EF (expédition accélérée) signifie que les packages avec une telle marqueur reçoivent la priorité dans la file d'attente selon le principe du plus petit retard. De plus, l'algorithique LLQ est utilisé;
  2. Extrêmement important: La bande passante minimale est de 1 mbit / s. Utilisez l'étiquette de la fonction de code de services différencié (DSCP) avec la valeur AF31 (étiquette dans le champ DSCP 011010), ce qui garantit la probabilité la plus petite de laisser tomber l'emballage. L'utilisation parallèle de l'algorithme CBWFQ assure la bande passante nécessaire pour le trafic marqué;
  3. Livraison négarienne: La largeur de bande maximale est de 500 Kbps. Utilisez l'étiquette du code de services de services différencié (DSCP) avec la valeur par défaut (étiquette dans le champ DSCP 000000), qui fournit la maintenance par défaut. L'algorithme CBWFQ fournit une "livraison si possible", ce qui est inférieur à la priorité des classes "voix" et "de manière critique".

Utilisez-vous cet article?

S'il vous plaît dites-nous pourquoi?

Il est dommage que l'article n'était pas utile pour vous: (s'il vous plaît, si cela ne le rend pas difficile, indiquez pour quelle raison? Nous serons très reconnaissants pour la réponse détaillée. Merci de nous avoir aidé devenez mieux!

Il n'y a pas une seule personne qui aurait lu une FAQ sur Windows XP au moins une fois. Et si oui, tout le monde sait qu'il existe une qualité de service aussi nuisible - Abrévied QoS. Lorsque vous configurez le système, il est fortement recommandé de le désactiver, car il est par défaut la bande passante du réseau de 20% et comme si ce problème existe sous Windows 2000.

Ces lignes sont:

Q: Comment désactiver complètement le service QoS (qualité de service)? Comment le configurer? Est-il vrai qu'il limite la vitesse du réseau?
A: En effet, par défaut, la qualité de service se réserve 20% de la bande passante du canal (tout - au moins un modem à 14400, au moins un gigabit Ethernet). De plus, même si vous supprimez le service de planificateur de paquets Qos à partir de connexions de propriétés, ce canal n'est pas publié. Vous pouvez libérer sur la chaîne ou simplement configurer le QOS ici. Exécutez l'applet de stratégie de groupe (gpedit.msc). Dans la politique de groupe, nous trouvons une stratégie informatique locale et cliquez sur les modèles d'administration. Sélectionnez Réseau - Qos Packet Sheeduler. Activer la limite de la bande passante réservable. Maintenant, nous réduisons la limite de la bande passante de 20% à 0% ou tout simplement éteint. Si vous le souhaitez, vous pouvez également configurer d'autres paramètres QoS. Pour activer les modifications apportées, il reste seulement de redémarrer.

20% est bien sûr beaucoup. Vraiment Microsoft - Mazdai. L'approbation de ce type de fouille de la FAQ de la FAQ, du forum au forum, des médias du média, est utilisé dans toutes sortes de "Twikals" - "Configuration de" programmes pour Windows XP (en passant, ouverte " Politiques de groupe "et" Politiques de sécurité locales ", et aucune" Twikalka "ne comparera pas avec eux sur la richesse des options de réglage). Pour exposer les déclarations sans scrupules de ce type, il est nécessaire de veiller à ce que nous appliquions maintenant une approche systématique. C'est-à-dire étudier minutieusement la question problématique, basée sur des sources officielles.

Qu'est-ce qu'un réseau avec service qualitatif?

Prenons la définition simplifiée suivante du système de réseau. Les applications sont lancées et utilisées sur des hôtes et échangent des données les unes des autres. Applications Envoyer des données système opérateur Pour la transmission sur le réseau. Une fois que les données sont transférées sur le système d'exploitation, elles deviennent un trafic réseau.

Réseau qoS. Comptez sur la capacité du réseau à traiter ce trafic afin que vous soyez garanti d'effectuer des demandes de certaines applications. Cela nécessite l'existence d'un mécanisme fondamental de traitement du trafic de réseau capable d'identifier le trafic qui a le droit de traiter spécial et du droit de gérer ces mécanismes.

Fonctionnalité Les QoS sont conçus pour satisfaire deux entités de réseau: applications réseau et administrateurs de réseau. Ils ont souvent des désaccords. L'administrateur réseau limite les ressources utilisées par l'application spécifique, en même temps que l'application tente de capturer autant de ressources du réseau que possible. Leurs intérêts peuvent être convenus, en tenant compte du fait que l'administrateur du réseau joue un rôle principal dans toutes les applications et utilisateurs.

Les principaux paramètres de QoS.

Diverses applications ont des exigences différentes pour traiter leur trafic réseau. Les applications sont plus ou moins tolérantes aux retards et aux pertes de trafic. Ces exigences ont été appliquées dans les paramètres suivants associés à la QoS:

  • Bande passante (bande passante) - la vitesse avec laquelle le trafic généré par l'application doit être transmis sur le réseau;
  • Latence - un retard que l'application peut être autorisée à fournir un paquet de données;
  • Jitter - changer le délai;
  • La perte (perte) est le pourcentage de données perdues.

Si des ressources réseau sans fin étaient disponibles, tout le trafic de trafic pourrait être transféré à la vitesse requise, avec une durée de retard de zéro, zéro changement dans le temps de retard et la perte nulle. Cependant, les ressources du réseau ne sont pas sans limites.

Le mécanisme QoS surveille la distribution des ressources réseau pour le trafic d'applications pour effectuer les exigences de son transfert.

Mécanismes de traitement des ressources et de trafic de la Trafic fondamentaux

Réseaux que les hôtes de liaison utilisent une variété de périphériques réseau, y compris des adaptateurs réseau d'hôtes, de routeurs, de commutateurs et de moyeux. Chacun d'entre eux a des interfaces réseau. Chaque interface réseau peut accepter et transmettre du trafic à une vitesse finale. Si la vitesse avec laquelle le trafic est dirigé vers l'interface est supérieure à la vitesse avec laquelle l'interface transmet le trafic plus loin, la surcharge se produit.

Les périphériques réseau peuvent gérer l'état de la surcharge en organisant la file d'attente de la circulation dans la mémoire de l'appareil (en mémoire tampon) jusqu'à ce que la surcharge passe. Dans d'autres cas matériel réseau Peut refuser du trafic pour faciliter la surcharge. En conséquence, les applications sont confrontées à la modification du temps d'attente (car le trafic est stocké dans les files d'attente des interfaces) ou avec une perte de circulation.

La capacité des interfaces réseau à transférer le trafic et la disponibilité de la mémoire permettant d'économiser du trafic dans des périphériques réseau (tant que le trafic peut être envoyé plus loin) constituent des ressources fondamentales nécessaires pour fournir des voiles de signalisation des demandes de signalisation.

Distribution des ressources de QoS sur les périphériques réseau

Les dispositifs de support de QO utilisent raisonnablement des ressources réseau pour la transmission de la circulation. C'est-à-dire que le trafic d'applications, plus tolérants à retarder, devient la file d'attente (stockée dans la mémoire tampon en mémoire) et le trafic d'applications, essentiel des retards, est transmis davantage.

Pour effectuer cette tâche, le périphérique réseau doit identifier le trafic en classant des paquets, ainsi que d'avoir des files d'attente et de mécanismes de maintenance.

Mécanisme de traitement de la circulation

Le mécanisme de traitement de la circulation comprend:

  • 802.1P;
  • Services différenciés par saut-comportements (DIFFSERV PHB);
  • Services intégrés (INTSERV);
  • ATM et al.

La plupart des réseaux locaux sont basés sur la technologie IEEE 802, y compris Ethernet, Token-Ring et al. 802.1P est un mécanisme de traitement de la circulation permettant de supporter les QoL dans de tels réseaux.

802.1P Définit le champ (niveau 2 dans modèle de réseau OSI) dans l'en-tête de l'emballage 802, qui peut transporter l'une des huit valeurs prioritaires. En règle générale, hôtes ou routeurs, envoi du trafic sur le réseau local, étiqueter chaque package envoyé, attribuant une certaine valeur de priorité. On suppose que les périphériques réseau, tels que les commutateurs, les ponts et les moyeux, les paquets de traitement en conséquence, à l'aide de mécanismes de file d'attente. La portée de 802.1P est limitée au réseau local (LAN). Dès que le paquet traverse le réseau local (via 3 niveau OSI), la priorité 802.1P est supprimée.

DIFSERV est un mécanisme de niveau 3. Il définit le champ dans l'en-tête de paquet IP de niveau 3 appelé DiffServ DodePoint (DSCP).

IntServ est toute une gamme de services qui définit un service de service et de service garanti. Le service garanti promet de mener un certain volume de trafic avec des retards mesurables et limités. Le responsable de service accepte de mener un certain volume de trafic avec l'avènement de la charge lumineuse. Ce sont des services mesurables en ce sens qu'ils sont définis pour fournir des QoS mesurables à un certain nombre de trafic.

Étant donné que la technologie ATM fragmentez des paquets dans des cellules relativement petites, il peut offrir un temps de retard très bas. Si vous devez transférer le paquet de manière urgente, l'interface ATM peut toujours être libérée pour la transmission pour le temps que vous souhaitez transmettre une cellule.

La QO a beaucoup plus de mécanismes complexes différents qui assurent le travail de cette technologie. Nous notons qu'un seul point important: afin que les QoS gagnent, le soutien de cette technologie est nécessaire et le paramètre correspondant tout au long de la transmission du point de départ à la finale.


Actuellement, avec une augmentation systématique des taux de transmission de données dans les télécommunications, la proportion de trafic interactif augmente, extrêmement sensible aux paramètres de l'environnement de transport. Par conséquent, la tâche de maintenir la qualité de service (qualité de service - QoS) devient de plus en plus pertinente.

L'examen de la question de cette difficulté est préférable de commencer par des exemples simples et compréhensibles de configuration de l'équipement, par exemple Cisco. Le matériel présenté ici n'est certainement pas concrétiquement avec www.cisco.com. Notre tâche est la classification initiale d'une énorme quantité d'informations sur une forme compacte afin de faciliter la compréhension et une étude complémentaire.

1. Définitions et termes.

Les définitions de trimestre de la qualité de service sont tellement nombreuses que nous choisissons la seule vraie - droite, de Cisco: "QoS-QoS fait référence à la capacité d'un réseau à fournir un meilleur service au trafic réseau sélectionné sur diverses technologies sous-jacentes ...". Ce qui peut être littéraire pour traduire comme suit: "QoS - la capacité du réseau à assurer le service nécessaire du trafic spécifié dans un cadre technologique."

Le service nécessaire est décrit par de nombreux paramètres, nous notons parmi eux les plus importants.

Bande passante (BW) - La bande passante décrit la bande passante nominale du support de transfert d'informations, détermine la largeur du canal. Mesuré en bit / s (BPS), Kbit / S (Kbps), Mbit / s (Mbps).

RETARD.- Retarder lors du transfert d'un package.

Gigue. - oscillation (variation) de retard pendant la transmission de paquets.

Perte de paquets - Perte de paquet. Détermine le nombre de paquets mis au rebut par le réseau pendant la transmission.

Le plus souvent, pour décrire la bande passante du canal, l'analogie avec un tuyau de plomberie est effectuée. Dans son cadre, la bande passante est la largeur du tuyau et le délai est la longueur.

Temps de transfert de paquet via l'heure de transmission [S] \u003d Taille de paquets / canal BW.

Par exemple, nous trouverons un temps de transmission de paquet de 64 octets dans un canal 64 kilobite largeur canal / C:

Taille du paquet \u003d 64 * 8 \u003d 512 (bit) Time de transmission \u003d 512/64000 \u003d 0,008 (c)

2. Modèles de service QoS.

2.1. Service de meilleur effort.

Livraison non enregistrée. Manque absolu de mécanismes de QoS. Toutes les ressources réseau disponibles sont utilisées sans sélection de classes individuelles de trafic et de réglementation. On pense que le meilleur mécanisme QoS est d'augmenter la bande passante. Ceci est essentiellement correct, mais certains types de trafic (par exemple, la voix) sont très sensibles aux retards de paquet et aux variations de la vitesse de leur passage. Le meilleur modèle de service d'effort Même avec de grandes réserves permet aux surcharges en cas d'éclat de trafic tranchant. Par conséquent, d'autres approches de la fourniture de QoS ont été développées.

2.2. Service intégré (INTSERV).

Service intégré (INTSERV, RFC 1633) est un modèle de service intégré. Il peut fournir un service de qualité (bout à bout), garantissant la bande passante nécessaire. INTSERV utilise le protocole d'alarme RSVP à ses fins. Permet aux applications d'exprimer des exigences de ressources de bout en bout et de contenir les mécanismes permettant de fournir ces exigences. IntServ peut être brièvement décrit comme réservation de ressources (réservation de ressources).

2.3. Service différencié (DiffServ).

Un service différencié (DIFFSERV, RFC 2474/2475) est un modèle de service différencié. Détermine la fourniture de QO basée sur des composants bien définis, combinés pour fournir les services requis. L'architecture DIFSERV suppose la présence de classificateurs et de formateurs de trafic à la frontière réseau, ainsi que de la prise en charge de la fonction de distribution de ressources dans le noyau du réseau afin de garantir la politique étape par étape requise (comportement perrobé - PHB). Partage le trafic vers des classes, introduisant plusieurs niveaux de QoS. DIFSERV comprend les blocs fonctionnels suivants: Formeurs de trafic de frontières (classification des emballages, marquage, gestion de l'intensité) et implémentations de stratégie de PHB (allocation de ressources, politique de jet de paquet). DiffServ peut être brièvement décrit comme priorisation de la circulation (hiérarchisation).

3. Fonctions de base QoS.

Les fonctions de base du QO sont de garantir les paramètres nécessaires du service et sont déterminés par rapport au trafic que: Classification, balisage, contrôle de surcharge, surcharge et réglementation. La classification et le balisage fonctionnel sont les plus souvent fournis aux ports d'entrée de l'équipement, ainsi que la prévention du contrôle et de la surcharge - le week-end.

3.1. Classification et marquage (classification et marquage).

Classification par paquets (classification du paquet) est un mécanisme de corrélation de paquets à une classe de trafic spécifique.

Une autre tâche tout aussi importante lorsque le traitement des paquets est un marquage de paquets - attribuant la priorité appropriée (balises).

Selon le niveau de considération (fait référence à l'OSI), ces tâches sont résolues de différentes manières.

3.1.1. COUCHE 2 Classification et marquage.

Les commutateurs Ethernet (couche 2) utilisent des protocoles de niveau de canal. Le protocole Ethernet sous forme pure ne supporte pas le champ de priorité. Par conséquent, sur les ports Ethernet (port d'accès) n'est que interne (par rapport à la classification du commutateur) par le numéro de port entrant et il n'y a pas d'étiquetage.

Une solution plus flexible consiste à utiliser la norme IEEE 802.1P, qui a été développée en conjonction avec 802.1Q. La hiérarchie de la relation ici est la suivante: 802.1D décrit la technologie de pont et est la base de 802.1Q et 802.1P. 802.1q décrit la technologie réseaux virtuels (VLAN) et 802.1P fourniture de qualité de service. En général, l'inclusion du support 802.1Q (tronc avec Vilanami) permet automatiquement 802.1P. Selon la norme, 3 bits sont utilisés dans l'en-tête de deuxième niveau, appelé classe de service (COS). Ainsi, COS peut prendre des valeurs de 0 à 7.

3.1.2. Couche 3 Classification et marquage.

L'équipement de routage (couche 3) exploite des paquets IP dans lesquels le champ correspondant dans le type de service de titre (TOS) est prévu pour les objectifs de marquage. TOS peut être rempli d'une précédente IP ou d'un classificateur DSCP en fonction de la tâche. La précédente IP (IPP) a une dimension de 3 bits (prend des valeurs 0-7). DSCP fait référence au modèle DiffServ et se compose de 6 bits (valeurs 0-63).

En plus de la forme numérique, les valeurs DSCP peuvent être exprimées à l'aide de spécial. mots clés: Livraison Si possible, le meilleur effort, la livraison garantie AF - Transfert assuré et expédition urgente EF - Expédition accélérée. En plus de ces trois classes, il existe des codes de sélection de classes ajoutés à la désignation de classe et à l'arrière sont compatibles avec IPP. Par exemple, la valeur de DSCP égale à 26 peut être écrite comme AF31, qui est totalement équivalente.

MPLS contient l'indicateur QOS à l'intérieur de l'étiquette dans les bits d'EXP MPLS correspondants (3 bits).

Marquez les paquets IP avec la valeur QOS de différentes manières: PBR, voiture, BGP.

Exemple 1. Marquage PBBR

La route basée sur les stratégies (PBR) peut être utilisée pour marquer, ce qui la produisant dans le sous-programme approprié (carte de route peut contenir le paramètre Set IP PRECÉDENCE):

!
Interface FASTERSNET0 / 0
Politique IP Route-Carte Mark
Vitesse 100.
Un duplex plein
Pas d'activer CDP
!
!
Permis de marque de la carte de route 10
Correspondre l'adresse IP 1
Définir la priorité de la précédente IP
!

Sur la sortie de l'interface, vous pouvez voir le résultat (par exemple, TCPDump sous Unix):

# Tcpdump -vv -n -i em0
... IP (TOS 0x20 ...)

Exemple 2. Marquage de la voiture.

Le mécanisme de taux d'accès engagé (voiture) est conçu pour limiter la vitesse, mais peut en outre marquer les paquets (paramètre de transmission défini dans la limite de taux):

!
Interface FASTERSNET0 / 0
Adresse IP 192.168.0.2 255.255.255.252
Taux-Limiter les entrées d'accès-Groupe 1 1000000 10000 10000 Conforme-Action Set-EMPRÉPRÉE DE DÉPART-EXPÉDENT DÉCESS-ACTION-EXPRESSE 3
Pas d'activer CDP
!
Liste d'accès 1 Permis 192.168.0.0 0.0.0.255
!

#fsh interface FASETERTERT0 / LIMITE DE TARIF

3.2. Gestion des surcharges (gestion de la congestion). Le mécanisme de la file d'attente.

3.2.1. Surcharge (congestions).

La surcharge se produit dans le cas de tampons de sortie débordant du trafic d'équipement émetteur. Les principaux mécanismes de surcharge de surcharges (ou, d'équivalents, de congestions de clusters) sont l'agrégation de la circulation (lorsque la vitesse du trafic entrant dépasse le taux de sortant) et de l'incohérence des vitesses sur les interfaces.

La commande de bande passante dans le cas de surcharges (places étroites) est effectuée à l'aide du mécanisme de la file d'attente. Les colis sont placés dans la file d'attente, qui sont commandés sur un algorithme spécifique. En fait, le contrôle des surcharges est une définition de l'ordre dans lequel les packages sortent de l'interface (files d'attente) en fonction des priorités. S'il n'y a pas de surcharge - les files d'attente ne fonctionnent pas (et non nécessaires). Nous répertorions les méthodes de traitement de la file d'attente.

3.2.2. Couche 2 file d'attente.

Le dispositif physique de l'interrupteur classique peut être simplifié comme suit: le paquet se situe sur le port d'entrée, traitéé par le mécanisme de commutation, qui décide où envoyer le package et se situe dans la queue matérielle du port de sortie. Les files d'attente matérielles sont rapidement stockées avant de toucher directement le port de sortie. En outre, selon un mécanisme de traitement spécifique, les packages sont extraits des files d'attente et laissent le commutateur. Initialement, les files d'attente sont égales et le mécanisme de traitement de la file d'attente (la planification) détermine la priorisation. Habituellement, chaque port de commutation contient un nombre limité de files d'attente: 2, 4, 8, etc.

En termes généraux, le réglage de la priorité est la suivante:

1. Initialement, les files d'attente sont égales. Par conséquent, il est pré-obligé de les configurer, c'est-à-dire pour déterminer la commande (ou la proportionnalité du volume) de leur traitement. Le plus souvent, cela se fait par des priorités contraignantes 802.1P aux files d'attente.

2. Il est nécessaire de configurer le gestionnaire de file d'attente (planificateur). Le plus souvent utilisé par un algorithme cyclique pondéré (Round Round Round WRR) ou une file d'attente prioritaire stricte (file d'attente de priorité stricte).

3. Attribuez la priorité des forfaits entrants: au port d'entrée, sur COS ou, au cas où caractéristiques supplémentaires (Commutateur de couche 3), pour certains champs IP.

Cela fonctionne tout cela comme suit:

1. Le paquet tombe dans l'interrupteur. S'il s'agit d'un package Ethernet régulier (port d'accès client), il n'a pas d'étiquettes prioritaires et cela peut être réglé sur le commutateur, par exemple, par le numéro de port d'entrée, si nécessaire. Si le port d'entrée est coffre (802.1q ou ISL), le package peut porter l'étiquette de priorité et le commutateur peut l'accepter ou le remplacer par le nécessaire. Dans tous les cas, le colis à ce stade est arrivé à l'interrupteur et a le marquage de la COS nécessaire.

2. Après traitement du processus de commutation, le package conformément à l'étiquette de priorité COS est envoyé au classificateur (classement) à la file d'attente appropriée du port de sortie. Par exemple, le trafic critique tombe dans une priorité élevée et moins importante dans les files d'attentes à faible priorité.

3. Le mécanisme de traitement (planification) extrait des packages de files d'attente en fonction de leurs priorités. De la file d'attente à haute priorité par unité de temps sera émise sur le port de sortie plus de paquets que de la priorité basse.


3.2.3. Couche 3 file d'attente.

Les appareils de routage fonctionnent avec des packages sur la troisième niveau OSI (Couche 3). Le plus souvent, le soutien de la file d'attente est fourni par programme. Cela signifie dans la plupart des cas l'absence de restrictions matérielles sur leur nombre et une configuration plus flexible de mécanismes de traitement. Le paradigme général de la couche de QoS 3 comprend l'étiquetage et la classification des paquets d'entrée (marquage et classification), distribution par files d'attente et leur traitement (planification) selon certains algorithmes.

Et une fois encore, nous soulignons que la priorité (la file d'attente) n'est requise principalement que dans des endroits étroits et chargés lorsque la bande passante de la chaîne ne suffit pas pour transmettre tous les paquets entrants et il est nécessaire de différencier d'une manière ou d'une autre différencie leur traitement. De plus, la priorité est nécessaire et dans le cas de la prévention de l'impact des surtensions activité de réseau Sur les retards sensibles du trafic.

Nous allons classer la couche 3 QO selon les méthodes de traitement de la file d'attente.

3.2.3.1. FIFO.

La file d'attente élémentaire avec le passage séquentiellement des paquets opérant sur le principe du premier arrivé - la première à gauche (premier dans la première sortie - FIFO), qui a l'équivalent russe qui est entré pour la première fois dans ces baskets. En fait, il n'y a pas de priorisation. Il s'allume par défaut sur les interfaces avec une vitesse de plus de 2 Mbps.

3.2.3.2. PQ. Files d'attente prioritaires.

Queue prioritaire (PQ) fournit une priorité inconditionnelle de certains forfaits sur d'autres. Total 4 files d'attente: haut, moyen, normal et faible. Le traitement est effectué de manière séquentielle (de haute à faible), commence à une file d'attente haute priorité et avant nettoyage complet Ne va pas à des files d'attente moins prioritaires. Ainsi, il est possible de monopoliser le canal par des files d'attente haute priorité. Le trafic, dont la priorité n'est clairement pas spécifiée, sera dans la file d'attente par défaut (par défaut).

Paramètres de commande.
Distribution des protocoles de la file d'attente:
PROTOCOLE DE PROTOCOLE DE PROTOCOLE DU PROTOCOLE DE LA LISTE PRIORITÉ (HIGH | MOYEN | NORMAL | NORMAL | LOW) Liste Access_List_Number
Définition de la file d'attente par défaut:
Priorité-list_number par défaut (haut | moyen | normal | faible)
Définition de la taille de la file d'attente (dans les paquets):
Priority-list list_number Queue-Limite High_Queue_Size Medium_Queue_Size normal_queue_size low_queue_size_size

désignation:
LIST_NUMBER - PQ (feuille) Numéro de gestion
Protocole - Protocole
Access_list_number - Numéro de feuilles AKSSSS
High_Queue_Size - Taille haute file d'attente
Medium_Queue_Size - Taille moyenne de la file d'attente
NORMAL_QUEUE_SIZE - Taille de la file d'attente normale
LOW_QUEUE_SIZE - Taille de la file d'attente basse

Paramètres d'algorithme.

1. Déterminez 4 files d'attente
Access-List 110 Permis IP Toute personne de précédence
Accès-list 120 Permis IP Toute priorité critique
Accès-List 130 Permis IP Toutes les priorités Internet
Access-List 140 Permis IP Toute routine de préséance

priority-List 1 Protocole IP High List 110
Priority-List 1 Protocole IP Medium List 120
Priorité - Liste 1 Protocole IP Normal List 130
Priority-List 1 Protocole IP Low Low Low 140
Priorité-liste 1 par défaut bas


Priorité - Liste 1 Queue-Limite 30 60 90 120

2. Déchirez à l'interface

!
Interface FASTERSNET0 / 0
Adresse IP 192.168.0.2 255.255.255.0
Vitesse 100.
Un duplex plein
Priorité-groupe 1
Pas d'activer CDP
!

3. Voir le résultat
# SH FIGHTER LA PRIORITE

Configuration de la file d'attente prioritaire actuelle:

Lister La file d'attente arguments. - - 1 faible. défaut. - 1 haute protocole IP. liste 110. 1 moyen. protocole IP. liste 120. 1 normal protocole IP. liste 130. 1 faible. protocole IP. liste 140.

#fsh interface attachétersnet 0/0

Stratégie de file d'attente: priorité-liste 1


Stratégie d'attente d'une interface FASTERSNET0 / 0: priorité


HAUX / 19 MOYEN / 0 NORMAL / 363 BAS / 0

3.2.3.3. Cq. Files d'attente arbitraires.

Queue personnalisée (CQ) fournit des files d'attente personnalisables. Au-dessus de la gestion du partage de la bande passante de la chaîne pour chaque file d'attente. 17 files d'attente sont prises en charge. La file d'attente Systemic 0 est réservée aux paquets de contrôle hautement prioritaires (routage, etc.) et l'utilisateur n'est pas disponible.

Les files d'attente coûtent de manière cohérente, en commençant par le premier. Chaque file d'attente contient un compteur d'octets, qui au début du contournement contient une valeur spécifiée et diminue à la taille du paquet ignoré de cette file d'attente. Si le compteur n'est pas zéro, le package suivant est entièrement passé, et non son fragment égal au résidu du compteur.

Paramètres de commande.
Détermination de la bande passante de la file d'attente:
Queue-Numéro de liste de liste de la file d'attente Queue Queue_Number Byte-Nombre
Byte_cout.

définition de la taille de la file d'attente:
Liste de la file d'attente-Numéro de numéro d'attente Queue_number Limit Queue_Size

désignation:
Numéro de liste - Numéro de gestionnaire
Queue_Number - Numéro de la file d'attente
BYTE_COUT - Taille de la file d'attente en packs

Paramètres d'algorithme.

1. Nous définissons la file d'attente
Access-List 110 Permis hôte IP 192.168.0.100
Accès-List 120 Permis House IP 192.168.0.200

queue-List 1 Protocole IP 1 Liste 110
Queue-list 1 Protocole IP 2 Liste 120
Queue-list 1 Par défaut 3

queue-Liste 1 Queue 1 octet-chef 3000
Queue-Liste 1 File d'attente 2 octets-Nombre 1500
Queue-Liste 1 Queue 3 octets-compte 1000

De plus, vous pouvez définir les tailles des files d'attente dans des packages
Queue-Liste 1 Quue 1 Limite 50
Queue-List 1 File d'attente 2 Limite 50
Queue-Liste 1 Queue 3 Limite 50

2. Apporter à l'interface
!
Interface FASTERSNET0 / 0
Adresse IP 192.168.0.2 255.255.255.0
Vitesse 100.
Un duplex plein
Custom-Whee-List 1
Pas d'activer CDP
!

3. Voir résultat
#sh faire la queue coutume

Configuration actuelle de la file d'attente personnalisée:

Lister File d'attente. Arguments. - 1 3 défaut. - 1 1 protocole IP. liste 110. 1 2 protocole IP. liste 120. 1 1 nombre d'octets 1000 - 1 2 nombre d'octets 1000 - 1 3 byte compte 2000 -

#fsh Interface FastetHernet0 / 0

Stratégie de file d'attente: Custom-List 1

#sh file d'attente Interface FATETERSNET 0/0
Interface FATEETERSNET0 / 0 Stratégie de mise en file d'attente: personnalisé

Utilisation de la file d'attente de sortie (file d'attente / compte)
0/90 1/0 2/364 3/0 4/0 5/0 6/0 7/0 8/0
9/0 10/0 11/0 12/0 13/0 14/0 15/0 16/0

3.2.3.4. Wfq. Files d'attente équitables pondérées.

La fidèle de la foire pondérée (WFQ) brise automatiquement le trafic vers des flux (flux). Par défaut, leur nombre est de 256, mais il peut être modifié (le paramètre Dynamic-files de files d'attente dans la commande Fair-Weue). S'il y a plus de flux que des files d'attente, plusieurs flux sont placés dans une file d'attente. Le paquet appartenant au flux (classification) est déterminé sur la base des adresses IP source de la source, de l'adresse IP de destination, du port de la source et du port de destination. Chaque flux utilise une file d'attente distincte.

Le gestionnaire WFQ (planificateur) fournit une séparation uniforme (juste - honnête) de la bande entre les threads existants. Pour cela, la bande disponible est divisée en nombre de flux et reçoit chacun une partie égale. De plus, chaque fil reçoit son poids (poids), avec un certain coefficient inversement proportionnel à la priorité (TOS). Le poids du flux est également pris en compte par le gestionnaire.

En conséquence, WFQ et distribue de manière tétitée allemande la bande passante disponible, considérant en outre la TOS. Les ruisseaux avec les mêmes priorités de TOS recevront une part égale de la bande passante; Fils avec une grande priorité IP - une grande part de la bande. Dans le cas des surcharges, les flux à haute priorité non chargés fonctionnent inchangés et à faible priorité, à haute priorité - limitée.

Avec WFQ gère RSVP. Par défaut, WFQ est activé sur des interfaces à basse vitesse.

Paramètres d'algorithme.
1. Nous notons le trafic de quelque manière que ce soit (installer la priorité IP - TOS) ou l'obtenir marquée

2. Allumez le WFQ sur l'interface
Interface FASTERSNET0 / 0
Faible-file d'attente.

interface FASTERSNET0 / 0
Fair-file d'attente congestive_discard_threshold dynamic_Quues

Paramètres:
Congestive_discard_threshold - Nombre de paquets dans chaque file d'attente, lorsque le dépassement des packages est ignoré (par défaut - 64)
Dynamic_Quues - le nombre de parfums pour lesquels le trafic est classé (par défaut - 256)

3. Voir le résultat
# SHVeoir juste
# SHIGHT FIERING INTERING FATEETERSNET0 / 0

3.2.3.5. Cbwfqq.

La fidangeaison équitable basée sur la classe (CBWFQ) est conforme aux mécanismes de file d'attente de service de classe. Tout le trafic est divisé en 64 note basée sur les paramètres suivants: Interface d'entrée, liste d'accès (liste d'accès), protocole, valeur DSCP, étiquette QOS de MPLS.

La bande passante totale de l'interface de sortie est distribuée par des classes. La bande passante allouée à chaque classe peut être définie comme dans la valeur absolue (bande passante dans Kbit / s) ou en pourcentage (pour cent de bande passante) par rapport à la valeur définie sur l'interface.

Les packages qui ne tombent pas dans des classes configurées tombent dans la classe par défaut, qui peut être configuré en outre et qui reçoit la largeur de bande libre restante. En cas de débordement de la file d'attente de n'importe quel pack de classe cette classe ignorer. Algorithme d'écart d'emballage Dans chaque classe, vous pouvez choisir: Le paramètre par défaut est le paramètre de chute par défaut (Tail-goutte, paramètre de la limite de la file d'attente) ou TED (paramètre de détection aléatoire). Ce n'est que pour la classe par défaut, vous pouvez activer la bande uniforme (honnête) (paramètre de la file d'attente).

CBWFQ prend en charge l'interaction avec RSVP.

Paramètres de commande.

critères de sélection de paquets Classe:
Match de classe-carte-TOUTES
Match Access-Group
Match Input-Interface
Protocole de match
Match IP DSCP.
Match IP RTP.
Match mpls expérimental

définition de la classe:

classe de classe.
Bande passante de bande passante.
Limite de la file d'attente de la file d'attente
Détecter au hasard.

définition par défaut (par défaut):

classe de classe par défaut
Bande passante de bande passante.
Bande passante pour cent bande passante de bande.
Limite de la file d'attente de la file d'attente
Détecter au hasard.
Faible-file d'attente.

désignation:
Classe - Nom de la classe.
La bande passante est la bande minimale de Kbit / s, la valeur est indépendante de la bande passante de l'interface.
Bandwidth_percent est un pourcentage de bande passante sur l'interface.
Limite de la file d'attente - quantité maximale Forfaits en ligne.
Détection aléatoire - à l'aide de TED.
Fair-file d'attente - Division de la bande uniforme uniquement pour la classe par défaut

Par défaut, la valeur absolue de la bande passante de la classe CBWFQ ne peut dépasser 75% de la valeur de bande passante sur l'interface. Cela peut être modifié par la commande max-réservée-bande passante de l'interface.

Paramètres d'algorithme.

1. Distribution des paquets de classe - Carte de la classe

correspondance de la carte de classe-TOUT CLASS1
Match Access-Group 101

2. Description des règles pour chaque classe - Carte de la politique
Politique de la carte de politique1
Classe classe1
Bande passante 100.
Queue-limite 20
Classe de classe par défaut
Bande passante 50.
Détecter au hasard.

3. Exécutez une stratégie donnée sur l'interface - Politique de service
Interface FASTERSNET0 / 0
Bande passante 256.

4. Voir les résultats
#sh classe classe1
# Politique de politique #SH1
Interface de stratégie #HSH FATETERSNET0 / 0

Exemple 1.

Division d'une bande commune de classes en pourcentage (40, 30, 20).
Accès-List 101 Permis IP Host 192.168.0.10
Liste d'accès 102 Permis hôte IP 192.168.0.20
Liste d'accès 103 Permis House IP 192.168.0.30

correspondance de la carte de la classe-All Platinum
Match Access-Group 101
Correspondance de la carte de classe-All Gold
Match Access-Group 102
Match de la classe-Carte-All Silver
Match Access-Group 103

politique-Carte ISP
Classe platine
Bande passante pour pourcentage 40.
Classe Gold.
Pourcentage de bande passante 30.
Classe argent
Pourcentage de bande passante 20.

interface FASTERSNET0 / 0
Bande passante 256.
ISP de sortie de stratégie de service

3.2.3.6. Llq.

Queue de file d'attente de latence (LLQ) - priorité à faible retard. LLQ peut être considéré comme un mécanisme CBWFQ avec une file d'attente prioritaire PQ (LLQ \u003d PQ + CBWFQ).
PQ in LLQ vous permet de maintenir le retard de la circulation sensible. LLQ est recommandé dans le cas d'une circulation vocale (VoIP). De plus, cela fonctionne bien avec la vidéoconférence.

Paramètres d'algorithme.

1. Distribution des paquets de classe - Carte de la classe
Liste d'accès 101 Permis IP Toute priorité critique

correspondance de la carte de classe-Toute la voix
Match IP PRECÉDENCE 6
Correspondance de la carte de classe-TOUT CLASS1
Match Access-Group 101

2. Description des règles pour chaque classe - Carte de la politique

Semblable à CBWFQ, uniquement pour une classe de priorité (il en est un) indique le paramètre prioritaire.
Politique de la carte de politique1
Voix de classe
Priorité 1000.
Classe classe1
Bande passante 100.
Queue-limite 20
Classe de classe par défaut
Bande passante 50.
Détecter au hasard.

3. Exécutez une stratégie donnée sur l'interface - Politique de service
Interface FASTERSNET0 / 0
Bande passante 256.
Politique de sortie de la politique de service1

Exemple 1.
Croyez la classe de voix à PQ, et tout le reste à CQWFQ.
!
Correspondance de la carte de la classe-Toute voix
Match IP PRECÉDENCE 5
!
Policy-Carte Voice
Voix de classe
Priorité 1000.
Classe VPN.
Bande passante pour pourcentage 50.
Classe de classe par défaut
Foire à la file d'attente 16
!
Interface X.
SEVICE-POLITIQUE SORTIE VOIX
!

Exemple 2.
En outre, limitez la vitesse globale de la PQ dans LLQ de sorte qu'elle ne monopolise pas tout le canal en cas d'opération incorrecte.
!
Correspondance de la carte de la classe-Toute voix
Match IP PRECÉDENCE 5
!
Policy-Carte Voice
Voix de classe
Priorité 1000.
Police 1024000 32000 32000 Conforme-action Transmettre la dépense dépasse l'action
Classe VPN.
Bande passante pour pourcentage 50.
Classe de classe par défaut
Foire à la file d'attente 16
!
Interface FASTERSNET0 / 0
Voix de sortie de la politique de service
!

Il n'y a pas une seule personne qui aurait lu une FAQ sur Windows XP au moins une fois. Et si oui, tout le monde sait qu'il existe une qualité de service aussi nuisible - Abrévied QoS. Lorsque vous configurez le système, il est fortement recommandé de le désactiver, car il est par défaut la bande passante du réseau de 20% et comme si ce problème existe sous Windows 2000.

Ces lignes sont:

"Q: Comment désactiver complètement le service QoS (qualité de service)? Comment le configurer? Est-il vrai qu'il limite la vitesse du réseau?
A: En effet, par défaut, la qualité de service se réserve 20% de la bande passante du canal (tout - au moins un modem à 14400, au moins un gigabit Ethernet). De plus, même si vous supprimez le service de planificateur de paquets Qos à partir de connexions de propriétés, ce canal n'est pas publié. Vous pouvez libérer sur la chaîne ou simplement configurer le QOS ici. Exécutez l'applet de stratégie de groupe (gpedit.msc). Dans la politique de groupe, nous trouvons une stratégie informatique locale et cliquez sur les modèles d'administration. Sélectionnez Réseau - Qos Packet Sheeduler. Activer la limite de la bande passante réservable. Maintenant, nous réduisons la limite de la bande passante de 20% à 0% ou tout simplement éteint. Si vous le souhaitez, vous pouvez également configurer d'autres paramètres QoS. Pour activer les modifications apportées, il reste seulement de redémarrer. "
20% est bien sûr beaucoup. Vraiment Microsoft - Mazdai. L'approbation de ce type de fouille de la FAQ de la FAQ, du forum au forum, des médias du média, est utilisé dans toutes sortes de "Twikals" - "Configuration de" programmes pour Windows XP (en passant, ouverte " Politiques de groupe "et" Politiques de sécurité locales ", et aucune" Twikalka "ne comparera pas avec eux sur la richesse des options de réglage). Pour exposer les déclarations sans scrupules de ce type, il est nécessaire de veiller à ce que nous appliquions maintenant une approche systématique. C'est-à-dire étudier minutieusement la question problématique, basée sur des sources officielles.

Qu'est-ce qu'un réseau avec un service de haute qualité?

Prenons la définition simplifiée suivante du système de réseau. Les applications sont lancées et utilisées sur des hôtes et échangent des données les unes des autres. Les applications envoient des données au système d'exploitation pour la transmission sur le réseau. Une fois que les données sont transférées sur le système d'exploitation, elles deviennent un trafic réseau.
Le service réseau QoS s'appuie sur la capacité réseau à traiter ce trafic afin de vous garantir à certaines applications. Cela nécessite l'existence d'un mécanisme fondamental de traitement du trafic de réseau capable d'identifier le trafic qui a le droit de traiter spécial et du droit de gérer ces mécanismes.

La fonctionnalité Qos est conçue pour satisfaire deux sujets de réseau: applications réseau et administrateurs de réseau. Ils ont souvent des désaccords. L'administrateur réseau limite les ressources utilisées par l'application spécifique, en même temps que l'application tente de capturer autant de ressources du réseau que possible. Leurs intérêts peuvent être convenus, en tenant compte du fait que l'administrateur du réseau joue un rôle principal dans toutes les applications et utilisateurs.

Les principaux paramètres de QoS.

Diverses applications ont des exigences différentes pour traiter leur trafic réseau. Les applications sont plus ou moins tolérantes aux retards et aux pertes de trafic. Ces exigences ont été appliquées dans les paramètres suivants associés à la QoS:

  • Bande passante (bande passante) - la vitesse avec laquelle le trafic généré par l'application doit être transmis sur le réseau;
  • Latence - Un retard que l'application peut être autorisée à la livraison d'un paquet de données.
  • Jitter - Modifiez le délai.
  • La perte (perte) est le pourcentage de données perdues.

Si des ressources réseau sans fin étaient disponibles, tout le trafic de trafic pourrait être transféré à la vitesse requise, avec une durée de retard de zéro, zéro changement dans le temps de retard et la perte nulle. Cependant, les ressources du réseau ne sont pas sans limites.

Le mécanisme QoS surveille la distribution des ressources réseau pour le trafic d'applications pour effectuer les exigences de son transfert.

Mécanismes de traitement des ressources et de trafic de la Trafic fondamentaux

Réseaux que les hôtes de liaison utilisent une variété de périphériques réseau, y compris des adaptateurs réseau d'hôtes, de routeurs, de commutateurs et de moyeux. Chacun d'entre eux a des interfaces réseau. Chaque interface réseau peut accepter et transmettre du trafic à une vitesse finale. Si la vitesse avec laquelle le trafic est dirigé vers l'interface est supérieure à la vitesse avec laquelle l'interface transmet le trafic plus loin, la surcharge se produit.

Les périphériques réseau peuvent gérer l'état de la surcharge en organisant la file d'attente de la circulation dans la mémoire de l'appareil (en mémoire tampon) jusqu'à ce que la surcharge passe. Dans d'autres cas, le matériel de réseau peut refuser du trafic pour faciliter la surcharge. En conséquence, les applications sont confrontées à la modification du temps d'attente (car le trafic est stocké dans les files d'attente des interfaces) ou avec une perte de circulation.

La capacité des interfaces réseau à transférer le trafic et la disponibilité de la mémoire permettant d'économiser du trafic dans des périphériques réseau (tant que le trafic peut être envoyé plus loin) constituent des ressources fondamentales nécessaires pour fournir des voiles de signalisation des demandes de signalisation.

Distribution des ressources de QoS sur les périphériques réseau

Les dispositifs de support de QO utilisent raisonnablement des ressources réseau pour la transmission de la circulation. C'est-à-dire que le trafic d'applications, plus tolérants à retarder, devient la file d'attente (stockée dans la mémoire tampon en mémoire) et le trafic d'applications, essentiel des retards, est transmis davantage.

Pour effectuer cette tâche, le périphérique réseau doit identifier le trafic en classant des paquets, ainsi que d'avoir des files d'attente et de mécanismes de maintenance.

Mécanisme de traitement de la circulation

Le mécanisme de traitement de la circulation comprend:

  • 802.1P.
  • Services différenciés par saut-comportements (DIFFSERV PHB).
  • Services intégrés (INTSERV).
  • ATM et al.

La plupart des réseaux locaux sont basés sur la technologie IEEE 802, y compris Ethernet, Token-Ring et al. 802.1P est un mécanisme de traitement de la circulation permettant de supporter les QoL dans de tels réseaux.

802.1P Définit le champ (niveau 2 du modèle réseau OSI) dans l'en-tête de l'emballage 802, qui peut transporter l'une des huit valeurs prioritaires. En règle générale, hôtes ou routeurs, envoi du trafic sur le réseau local, étiqueter chaque package envoyé, attribuant une certaine valeur de priorité. On suppose que les périphériques réseau, tels que les commutateurs, les ponts et les moyeux, les paquets de traitement en conséquence, à l'aide de mécanismes de file d'attente. La portée de 802.1P est limitée au réseau local (LAN). Dès que le paquet traverse le réseau local (via 3 niveau OSI), la priorité 802.1P est supprimée.

DIFSERV est un mécanisme de niveau 3. Il définit le champ dans l'en-tête de paquet IP de niveau 3 appelé DiffServ DodePoint (DSCP).

IntServ est toute une gamme de services qui définit un service de service et de service garanti. Le service garanti promet de mener un certain volume de trafic avec des retards mesurables et limités. Le responsable de service accepte de mener un certain volume de trafic avec l'avènement de la charge lumineuse. Ce sont des services mesurables en ce sens qu'ils sont définis pour fournir des QoS mesurables à un certain nombre de trafic.

Étant donné que la technologie ATM fragmentez des paquets dans des cellules relativement petites, il peut offrir un temps de retard très bas. Si vous devez transférer le paquet de manière urgente, l'interface ATM peut toujours être libérée pour la transmission pour le temps que vous souhaitez transmettre une cellule.

La QO a beaucoup plus de mécanismes complexes différents qui assurent le travail de cette technologie. Nous notons qu'un seul point important: afin que les QoS gagnent, le soutien de cette technologie est nécessaire et le paramètre correspondant tout au long de la transmission du point de départ à la finale.

Pour plus de clarté, considérons le riz. une.

Nous acceptons ce qui suit:

  • Tous les routeurs sont impliqués dans le transfert des protocoles nécessaires.
  • Une session QoS nécessitant 64 Kbps est initialisée entre l'hôte A et l'hôte B.
  • Une autre session nécessitant 64 Kbps est initialisée entre l'hôte A et l'hôte D.
  • Pour simplifier le schéma, nous supposons que les routeurs sont configurés afin que toutes les ressources du réseau puissent récupérer.

Dans notre cas, une demande de réservation 64 Kbps réalisera trois routeurs sur le chemin de données entre l'hôte A et l'hôte B. Une autre demande de 64 Kbps atteindrait trois routeurs entre l'hôte A et l'hôte D. Routeurs compléteraient ces demandes de Réservation de ressources, car ils ne dépassent pas le maximum. Si, à la place, chacun des hôtes B et C a simultanément initialisé 64 Kbps QoS-session avec l'hôte A, le routeur servant ces hôtes (B et C) empêcherait l'un des composés.

Supposons maintenant que l'administrateur réseau désactive le traitement de la qualité de service dans trois routeurs inférieurs desservant les hôtes B, C, D, E. Dans ce cas, des demandes de ressources allant jusqu'à 128 Kbps seraient satisfaites, quel que soit l'emplacement de l'hôte participant à la connexion hôte. Dans le même temps, l'assurance qualité serait faible car le trafic d'un hôte aurait exprimé le risque d'autre trafic. La qualité de service pourrait être enregistrée si le routeur supérieur limitait toutes les demandes de 64 Kbps, mais cela entraînerait une utilisation inefficace des ressources du réseau.

D'autre part, la bande passante de toutes les connexions réseau pourrait être augmentée à 128 Kbps. Mais l'augmentation de la bande passante ne sera utilisée que lorsque les hôtes B et C (ou D et E) nécessitent simultanément des ressources. Si ce n'est pas le cas, les ressources réseau seront utilisées à nouveau inefficace.

Composants Microsoft QoS

Windows 98 contient des composants QoS uniquement au niveau de l'utilisateur, y compris:

  • Composants d'application.
  • API GQOS (partie WINSOCK 2).
  • Fournisseur de service QoS.

Le système d'exploitation Windows 2000 / XP / 2003 contient tous les composants suivants décrits ci-dessus:

  • Protocole de service de service de réservation de ressources (RSVPSP.DLL) et RSVP (RSVP.EXE) et QOS ACS. Sous Windows XP, 2003 n'est pas utilisé.
  • Gestion du trafic (trafic.dll).
  • Classificateur de paquets génériques (msgpc.sys). Le classificateur d'emballage définit la classe de service à laquelle appartient l'emballage. Dans ce cas, le colis sera livré dans la file d'attente appropriée. Les quêtes sont gérées par le calendrier de package QoS.
  • Calendrier de package QoS (PSCHED.SYS). Définit les paramètres QOS pour un flux de données spécifique. Trafic marqué d'une certaine valeur de priorité. Le planificateur de package QOS définit la planification de la définition de chaque package et traite des demandes concurrentes entre les packages livrés à la file d'attente qui ont besoin d'un accès simultanément au réseau.

Le diagramme de la Fig. 2 illustre la pile de protocoles, les composants de Windows et leur interaction sur l'hôte. Les éléments utilisés dans Windows 2000, mais non utilisés dans Windows XP / 2003, ne sont pas présentés dans le diagramme.

Les applications sont en haut de la pile. Ils peuvent savoir ou ne pas savoir sur QoS. Pour utiliser la puissance de tous les QoS, Microsoft recommande d'utiliser les applications génériques d'appel d'API Qos. Ceci est particulièrement important pour les applications nécessitant des garanties de service de haute qualité. Certains utilitaires peuvent être utilisés pour appeler QoS au nom d'applications qui ne connaissent pas les QoS. Ils travaillent à travers l'API de contrôle de la circulation. Par exemple, NetMeeting utilise l'API GQOS. Mais pour de telles applications, la qualité n'est pas garantie.

Dernier ongle

Les moments théoriques ci-dessus ne donnent pas une réponse sans équivoque à la question où le notoire 20% est argumenté (qui, notification, personne n'a pas mesuré exactement). Sur la base de ce qui précède, cela ne devrait pas être. Mais les adversaires avancent un nouvel argument: le système QOS est bon et la mise en œuvre de la courbe. Il est devenu 20%, toujours "arrêté". Voir, le problème de la protéine et du géant du logiciel, car il a déjà été privé de tels tissus pendant une longue période.

Cependant, nous donnerons la Parole aux développeurs et présenterons les moments préférés de l'article "316666 - Améliorations et comportements de la qualité des services de Windows XP (QoS)" par la langue littéraire:

«Cent cent pour cent de la bande passante du réseau est disponible pour attribuer tous les programmes si un programme ne demande clairement pas une bande passante prioritaire. Cette bande passante« réservée »est disponible pour d'autres programmes si le programme qui le demande n'envoie pas de données.

Par défaut, les programmes peuvent réserver jusqu'à 20% de la vitesse de connexion principale sur chaque interface informatique. Si un programme réservé à la bande passante n'envoie pas beaucoup de données à l'utiliser complètement, une partie inutilisée de la bande passante réservée est disponible pour d'autres flux de données.

Il y avait des applications dans divers articles techniques et téléconférences que Windows XP se réserve toujours une bande passante accessible à 20% pour la QoS. Ces déclarations sont incorrectes. "

Si quelqu'un d'autre a une "arrêt" 20% de la bande passante, ce qui, je peux conseiller et continuer à utiliser plus de toutes sortes de "Twikal" et des courbes des pilotes de réseau. Pas tellement de choses "enlever".

Tout, mythe à propos de Qo, meurez!

Sur quels problèmes peuvent être en ligne et la manière dont la Qo peut les affecter. Dans cet article, nous parlerons des mécanismes de QoS.

Mécanismes QoS

En raison du fait que les applications peuvent nécessiter différents niveaux de QO, de nombreux modèles et mécanismes surviennent à satisfaire ces besoins.

Considérez les modèles suivants:

  • Meilleur effort La livraison préalable est utilisée dans tous les réseaux par défaut. Le côté positif réside dans le fait que ce modèle ne nécessite absolument aucun effort à mettre en œuvre. Aucun mécanisme de QoS n'est utilisé, tout le trafic est servi sur le principe "est venu d'abord - servi en premier." Un tel modèle ne convient pas aux médias de réseau modernes;
  • Services intégrés (IntServ) - Ce modèle de service intégré utilise la méthode de sauvegarde. Par exemple, si l'utilisateur souhaitait effectuer un défi VoIP 80 Kbit / s via Data Network, le réseau s'est développé exclusivement pour le modèle. IntServ., Je réserverais 80 Kbps sur chaque périphérique de réseau entre deux points d'extrémité VoIP utilisant le protocole de redondance de ressources RSVP (protocole de réservation de ressources). Pendant l'appel, ces 80 Kbps ne seront pas disponibles pour d'autres utilisations, à l'exception de l'appel VoIP. Bien que le modèle IntServ. C'est le seul modèle qui assure la bande passante garantie, cela a également des problèmes d'évolutivité. Si une réservation suffisante est terminée, le réseau a simplement épuisé la bande passante;
  • Services différenciés (DiffServ) - Le modèle de service différencié est le modèle le plus populaire et le plus flexible pour l'utilisation de QoS. Dans ce modèle, vous pouvez configurer chaque périphérique de manière à pouvoir utiliser diverses méthodes de QoS, en fonction du type de trafic. Vous pouvez spécifier quel trafic entre dans une certaine classe et comment cette classe doit être traitée. Contrairement au modèle IntServ.Le trafic n'est pas absolument garanti, car les appareils réseau ne réservent pas complètement la bande passante. mais Différend Obtient une bande proche d'une bande passante garantie, en même temps résoudre des problèmes d'évolutivité IntServ.. Cela a permis à ce modèle de devenir un modèle QoS standard;

Outils de QoS

Les mécanismes QoS eux-mêmes constituent un certain nombre d'outils combinés pour assurer le niveau de service que la circulation est nécessaire. Chacun de ces outils s'intègre dans l'une des catégories suivantes:

  • Classification et marquage (classification et marquage) - Ces outils vous permettent d'identifier et d'étiqueter l'emballage de manière à ce que les périphériques réseau puissent l'identifier facilement comme se croisent au réseau. En règle générale, le premier appareil qui accepte le package l'identifie à l'aide d'outils tels que les listes d'accès (liste d'accès), les interfaces entrantes ou l'inspection de paquets profonds (DPI), qui considère les données d'application elles-mêmes. Ces outils peuvent être exigeants des ressources du processeur et ajouter un délai dans l'emballage. Ainsi, une fois que le paquet est initialement identifié, il est immédiatement marqué. Le marquage peut être dans l'en-tête de niveau 2 ( liaison de données), permettant aux commutateurs de la lire et / ou de la tête de niveau 3 ( réseau) Pour que les routeurs puissent la lire. Pour le protocole utilisé du deuxième niveau 802.1P.et pour le troisième niveau que le champ est utilisé Type de service.. Ensuite, lorsque le paquet traverse le reste du réseau, les périphériques réseau regardent simplement l'étiquette pour le classer et ne pas regarder au plus profond de l'emballage;
  • Gestion des surcharges (gestion de la congestion)- Les surcharges se produisent lorsque le tampon d'entrée de l'appareil est débordé et le temps de traitement de l'emballage augmente en raison de cela. Les stratégies de file d'attente déterminent les règles que le routeur doit être appliquée en cas de surcharge. Par exemple, si l'interface E1 WAN a été complètement saturée de trafic, le routeur commencera à contenir des paquets en mémoire (file d'attente) pour les envoyer lorsque la bande passante devient disponible. Toutes les stratégies de file d'attente visent à répondre à une question: "Lorsqu'il y a une bande passante accessible, quel paquet est d'abord?";
  • Evitesse de congestion (évitement de la congestion) - La plupart des mécanismes QOS sont appliqués uniquement lorsque la surcharge survient sur le réseau. L'objectif des outils consistant à éviter la congestion est de supprimer un nombre suffisant de packages d'un trafic non essentiel (ou non très important) afin d'éviter des surcharges graves survenues en premier lieu;
  • Contrôle et mise en forme (maintien de l'ordre et mise en forme) - Ce mécanisme limite la bande passante de certains trafic de réseau. Ceci est utile pour de nombreuses "Emours de bande" typiques sur le réseau: applications P2P, navigation Web, FTP et autres. La mise en forme peut également être utilisée pour limiter la bande passante de certains trafic de réseau. Ceci est nécessaire pour les réseaux où la vitesse réelle autorisée est plus lente que la vitesse d'interface physique. La différence entre ces deux mécanismes est que la façonnement génère une file d'attente du trafic redondant pour l'envoyer plus tard, tandis que la police réinitialise généralement l'excès de trafic;
  • Raccordement de liaison (efficacité de liaison) - Ce groupe d'outils se concentre sur la livraison du trafic le plus façon efficace. Par exemple, certains liaisons à basse vitesse peuvent mieux fonctionner si vous passez du temps à compresser le trafic réseau avant de l'envoyer (la compression est l'un des outils d'efficacité de la liaison);
Mécanismes Efficacité de la liaison

Lorsque vous utilisez des interfaces lentes, il y a deux problèmes principaux:

  • L'absence de bande passante rend difficile l'envoi de la quantité requise de données;
  • Les vitesses lentes peuvent affecter de manière significative le délai de bout en bout en raison du processus de sérialisation (la quantité de temps que le routeur est nécessaire pour transférer un package du tampon de mémoire sur le réseau). Sur ces liens lents, plus le paquet, le retard de sérialisation plus long;

Pour surmonter ces problèmes ce qui suit Lien efficacité Mécanismes:

  • Suggestion de compression de charge utile (compression de la charge utile) - serre les données d'application envoyées sur le réseau, de sorte que le routeur envoie des données plus petites, le long de la ligne lente;
  • Compression d'en-tête - Certains trafic (par exemple, tels que la VoIP) peuvent avoir une petite quantité de données d'application (Audio RTP) dans chaque package, mais en général, envoyer beaucoup de packages. Dans ce cas, le nombre d'informations d'information devient un facteur important et consomme souvent plus de bande passante que des données. La compression d'en-tête résout directement ce problème, éliminant ainsi de nombreux champs redondants dans l'en-tête de l'emballage. Étonnamment, la compression de l'en-tête RTP, également appelée compressée protocole de transport temps réel ( Protocole de transport en temps réel compressé - CRTP) Réduit le titre de 40 octets à 2-4 octets!;
  • Fragmentation et entrelacement (fragmentation de liaison et entrelacement) - LFI résout le problème du délai de sérialisation en meulant de gros paquets dans des parties plus petites avant de les envoyer. Cela permet au routeur de déplacer le trafic VoIP critique entre les parties fragmentées des données (qui sont appelées "alternance" de la voix);
Charger des algorithmes

    Mise en scène dans la file d'attente ( faire la queue.) Détermine les règles que le routeur doit être appliquée lorsqu'il est surchargé. La plupart des interfaces réseau par défaut utilisent l'initialisation de base. Premier dans, premier sorti (FIFO). Dans cette méthode, tout paquet est envoyé pour la première fois, qui vient en premier. Bien que cela semble juste, tout le trafic réseau n'est pas créé égal. La tâche principale de la file d'attente est de garantir que le trafic réseau servant des applications commerciales importantes ou dépendantes de manière critique a été disputée avant le trafic de réseau non essentiel. En plus de l'ordre de FIFO, trois algorithmes de séquence principale sont utilisés:

  • Faible en file d'attente pondérée (WFQ)- WFQ tente d'équilibrer la bande passante disponible entre tous les expéditeurs de manière uniforme. Utilisation de cette méthode, l'expéditeur à bande passante élevée reçoit moins de priorité que l'expéditeur à faible bande passante;
  • Faible Fairement basée sur la classe (CBWFQ) - Cette méthode de maintenance de masse vous permet de spécifier des niveaux de bande passante garanti pour différentes classes de trafic. Par exemple, vous pouvez spécifier que le trafic Web reçoit 20% de bande passante, tandis que le trafic Citrix reçoit 50% de la bande passante (vous pouvez spécifier des valeurs en pourcentage ou une valeur de bande passante spécifique). Ensuite, WFQ est utilisé pour tout le trafic non spécifié (les 30% restants dans l'exemple);
  • File d'attente de latence faible (LLQ) - LLQ est souvent appelé PQ-CBWFQ, fonctionne donc de la même manière que cbwfq, mais le composant prioritaire de la file d'attente est ajouté ( Queue prioritaire - PQ). Si vous spécifiez qu'un certain trafic réseau devrait entrer dans une file d'attente prioritaire, le routeur fournit non seulement un débit de trafic, mais vous garantit également la première bande passante. Par exemple, l'utilisation de PURE CBWFQ, Citrix Traffic peut être garantie 50% de la bande passante, mais elle peut obtenir cette bande passante après que le routeur fournisse d'autres garanties de trafic. Lorsque vous utilisez LLQ, le trafic de priorité est toujours envoyé avant d'effectuer d'autres garanties. Cela fonctionne très bien pour la VoIP, la création d'algorithme de la file d'attente de la file d'attente de la file d'attente LLQ;

Il existe de nombreux autres algorithmes pour les files d'attente, ces trois couvrent les méthodes utilisées par la plupart des réseaux modernes.

Utilisez-vous cet article?

S'il vous plaît dites-nous pourquoi?

Il est dommage que l'article n'était pas utile pour vous: (s'il vous plaît, si cela ne le rend pas difficile, indiquez pour quelle raison? Nous serons très reconnaissants pour la réponse détaillée. Merci de nous avoir aidé devenez mieux!

Avez-vous aimé l'article? Partager avec des amis: