Mythe à propos du service Qos. Vue d'ensemble de la technologie IP de qualité de service

La QO est la possibilité de fournir un niveau de service spécial pour des utilisateurs ou des applications spécifiques sans préjudice du reste du trafic. L'objectif principal QoS est d'assurer un comportement plus prévisible du réseau de données lors de la collaboration avec le fil ou un autre type de trafic, en fournissant la bande passante nécessaire, en contrôlant le délai et la gigue et améliore les caractéristiques lorsque la perte de paquets. Les algorithmes de QoS réalisent ces objectifs en limitant le trafic, l'utilisation plus efficace des canaux de transmission et le but de certaines politiques de trafic. QoS fournit une transmission intellectuelle sur réseau d'entreprise, et avec réglage approprié, améliore les indicateurs de performance.

QoS politiciens

Type de trafic QoS. Sécurité Lorsque?
Vote Retarder moins de 150 ms dans une direction Cryptage au niveau de transfert lundi vendredi
Système de planification des ressources d'entreprise Fournir une bande passante accessible d'au moins 512 kb / s Crypté 24 heures par jour, 7 jours sur 7, 365 jours par an
Trafic créé par logiciel et logiciel d'équipement Fournir une bande passante accessible d'au moins 256 kb / s Ouvert lundi vendredi
Trafic de l'utilisation des ressources Internet HTTP / HTTPS Livraison négociée sur le principe du meilleur effort Serveur proxy http Du lundi au vendredi de 8h à 21h.

La mise en œuvre de la qualité de service dans des réseaux de communication unifiées

Conditionnellement, le processus de mise en œuvre de QoS dans les réseaux Communications unifiées. (Communications unifiées), peuvent être divisées en 3 étapes:

  1. Détermination du type de trafic sur le réseau et ses exigences. À ce stade, vous devez enseigner au réseau pour identifier les types de trafic pour appliquer celles ou d'autres algorithmes de QoS;
  2. Avec les mêmes exigences de QoS. Par exemple, vous pouvez définir 4 types de trafic: la voix, le trafic hautement prioritaire, le trafic à faible priorité et le trafic d'utiliser un navigateur pour afficher les pages Web;
  3. Attribuer des stratégies de QOSappliqué aux classes définies dans la clause 2.

Dans les réseaux d'entreprise modernes, la circulation vocale nécessite toujours un délai minimal. Le trafic qui génère des applications essentielles nécessite un petit retard (par exemple, des informations relatives aux services bancaires). D'autres types d'informations peuvent ne pas être aussi sensibles aux retards, par exemple, transfert ou courrier électronique. L'utilisation habituelle d'Internet à des fins personnelles au travail peut également être limitée ou même interdite.

Selon ces principes, trois polices de QoS peuvent être distinguées:

  • Sans délai: Attribue au trafic vocal;
  • Meilleur service: Assigne au trafic avec la priorité la plus élevée;
  • Du repos: Attribué au trafic de navigateur basse priorité et de navigateur Web;
Étape 1: Détermination du type de trafic

La première étape vers la mise en œuvre du QO consiste à identifier les types de trafic sur le réseau et à déterminer les exigences spécifiques de chaque type. Avant de mettre en œuvre la qualité de service, il est fortement recommandé de procéder à un audit de réseau afin de bien comprendre comment et quelles applications fonctionnent dans le réseau d'entreprise. Si je mettez en œuvre les stratégies de QoS sans avoir une compréhension complète du segment de réseau d'entreprise, les résultats peuvent être déplorables.

Ensuite, vous devez déterminer les problèmes des utilisateurs lorsque vous travaillez avec celles ou d'autres applications réseau: par exemple, l'application fonctionne lentement à cause de ce qui a une performance de mauvaise performance. Il est nécessaire de mesurer le trafic réseau pendant l'horloge de la plus grande charge en utilisant des utilitaires spéciaux. Pour comprendre les processus du réseau, l'étape nécessaire consiste à mesurer le chargement du processeur de chacune des unités d'équipement de réseau actif pendant la plus grande charge de travail pour savoir clairement où les problèmes peuvent potentiellement se produire.

Après cela, il est nécessaire de déterminer les objectifs commerciaux et les modèles de travail et de faire une liste des besoins en entreprise. Selon les résultats de ces actions, chacun des éléments de la liste peut être comparé à une ou plusieurs catégories de trafic.

À la fin, il est nécessaire de déterminer les niveaux de service requis pour un type de trafic différent en fonction de la disponibilité et de la vitesse requises.

Étape 2: Trafic de groupement en cours

Après avoir identifié le trafic réseau, vous devez utiliser une liste des besoins professionnels, compilée à la première étape pour déterminer les classes de trafic.

La circulation vocale est toujours déterminée par une classe distincte. Cisco a les mécanismes développés de QoS pour le trafic vocal, par exemple, File d'attente de latence faible (LLQ) dont le but est de contrôler le vote pour recevoir un avantage dans la maintenance. Une fois les applications les plus critiques identifiées, vous devez déterminer les classes de la circulation à l'aide d'une liste des besoins professionnels.

Chaque application n'a pas sa propre classe de services. De nombreuses applications ayant des exigences similaires pour les QoS sont regroupées en une seule classe.

Exemple de classification du trafic

Le paysage d'entreprise typique définit 5 classes de trafic:

  • Vote: La priorité la plus élevée pour le trafic VoIP;
  • Extrêmement important: Un petit ensemble d'applications de manière critique importante pour les entreprises;
  • Transactions: Dans cette classe, il existe des services de base de données, un trafic interactif et un trafic de réseau préféré;
  • Livraison négarienne: Travaille sur le principe du meilleur effort, qui est littéralement traduit par «meilleur effort». Cette classe comprend le trafic Internet et le courrier électronique.

Étape 3: Trafic groupé à des cours

La troisième étape doit être décrite par les stratégies de QoS pour chacune des classes de trafic comportant les actions suivantes:

  • Attribuer une quantité minimale de bande passante garantie;
  • Attribuez la taille de la largeur de bande maximale;
  • Attribuer des priorités pour chacune des classes;
  • Utilisez la technologie QOS, telle que les algorithmes de contrôle de la file d'attente pour le contrôle de la surcharge.

Considérez la définition des stratégies de QoS pour chacune des classes:

  1. Vote: Une bande passante est disponible - 1Mbps. Utilisez l'étiquette du code de service de services différencié (DSCP) avec la valeur EF. Le label EF (expédition accélérée) signifie que les packages avec une telle marqueur reçoivent la priorité dans la file d'attente selon le principe du plus petit retard. De plus, l'algorithique LLQ est utilisé;
  2. Extrêmement important: La bande passante minimale est de 1 mbit / s. Utilisez l'étiquette de la fonction de code de services différencié (DSCP) avec la valeur AF31 (étiquette dans le champ DSCP 011010), ce qui garantit la probabilité la plus petite de laisser tomber l'emballage. L'utilisation parallèle de l'algorithme CBWFQ assure la bande passante nécessaire pour le trafic marqué;
  3. Livraison négarienne: La largeur de bande maximale est de 500 Kbps. Utilisez l'étiquette du code de services de services différencié (DSCP) avec la valeur par défaut (étiquette dans le champ DSCP 000000), qui fournit la maintenance par défaut. L'algorithme CBWFQ fournit une "livraison si possible", ce qui est inférieur à la priorité des classes "voix" et "de manière critique".

Utilisez-vous cet article?

S'il vous plaît dites-nous pourquoi?

Il est dommage que l'article n'était pas utile pour vous: (s'il vous plaît, si cela ne le rend pas difficile, indiquez pour quelle raison? Nous serons très reconnaissants pour la réponse détaillée. Merci de nous avoir aidé devenez mieux!

Sur quels problèmes peuvent être en ligne et la manière dont la Qo peut les affecter. Dans cet article, nous parlerons des mécanismes de QoS.

Mécanismes QoS

En raison du fait que les applications peuvent nécessiter différents niveaux de QO, de nombreux modèles et mécanismes surviennent à satisfaire ces besoins.

Considérez les modèles suivants:

  • Meilleur effort La livraison préalable est utilisée dans tous les réseaux par défaut. Côté positif C'est que ce modèle ne nécessite absolument aucun effort à mettre en œuvre. Aucun mécanisme de QoS n'est utilisé, tout le trafic est servi sur le principe "est venu d'abord - servi en premier." Un tel modèle ne convient pas aux médias de réseau modernes;
  • Services intégrés (IntServ) - Ce modèle de service intégré utilise la méthode de sauvegarde. Par exemple, si l'utilisateur souhaitait effectuer un défi VoIP 80 Kbit / s via Data Network, le réseau s'est développé exclusivement pour le modèle. IntServ., Je réserverais 80 Kbps sur chaque périphérique de réseau entre deux points d'extrémité VoIP utilisant le protocole de redondance de ressources RSVP (protocole de réservation de ressources). Pendant l'appel, ces 80 Kbps ne seront pas disponibles pour d'autres utilisations, à l'exception de l'appel VoIP. Bien que le modèle IntServ. C'est le seul modèle qui assure la bande passante garantie, cela a également des problèmes d'évolutivité. Si une réservation suffisante est terminée, le réseau a simplement épuisé la bande passante;
  • Services différenciés (DiffServ) - Le modèle de service différencié est le modèle le plus populaire et le plus flexible pour l'utilisation de QoS. Dans ce modèle, vous pouvez configurer chaque périphérique de manière à pouvoir utiliser diverses méthodes de QoS, en fonction du type de trafic. Vous pouvez spécifier quel trafic entre dans une certaine classe et comment cette classe doit être traitée. Contrairement au modèle IntServ.Le trafic n'est pas absolument garanti, car les appareils réseau ne réservent pas complètement la bande passante. mais Différend Obtient une bande proche d'une bande passante garantie, en même temps résoudre des problèmes d'évolutivité IntServ.. Cela a permis à ce modèle de devenir un modèle QoS standard;

Outils de QoS

Les mécanismes QoS eux-mêmes constituent un certain nombre d'outils combinés pour assurer le niveau de service que la circulation est nécessaire. Chacun de ces outils s'intègre dans l'une des catégories suivantes:

  • Classification et marquage (classification et marquage) - Ces outils vous permettent d'identifier et d'étiqueter l'emballage de manière à ce que les périphériques réseau puissent l'identifier facilement comme se croisent au réseau. En règle générale, le premier appareil qui accepte le package l'identifie à l'aide d'outils tels que les listes d'accès (liste d'accès), les interfaces entrantes ou l'inspection de paquets profonds (DPI), qui considère les données d'application elles-mêmes. Ces outils peuvent être exigeants des ressources du processeur et ajouter un délai dans l'emballage. Ainsi, une fois que le paquet est initialement identifié, il est immédiatement marqué. Le marquage peut être dans l'en-tête de niveau 2 ( liaison de données), permettant aux commutateurs de la lire et / ou de la tête de niveau 3 ( réseau) Pour que les routeurs puissent la lire. Pour le protocole utilisé du deuxième niveau 802.1P.et pour le troisième niveau que le champ est utilisé Type de service.. Ensuite, lorsque le paquet traverse le reste du réseau, les périphériques réseau regardent simplement l'étiquette pour le classer et ne pas regarder au plus profond de l'emballage;
  • Gestion des surcharges (gestion de la congestion)- Les surcharges se produisent lorsque le tampon d'entrée de l'appareil est débordé et le temps de traitement de l'emballage augmente en raison de cela. Les stratégies de file d'attente déterminent les règles que le routeur doit être appliquée en cas de surcharge. Par exemple, si l'interface E1 WAN a été complètement saturée de trafic, le routeur commencera à contenir des paquets en mémoire (file d'attente) pour les envoyer lorsque la bande passante devient disponible. Toutes les stratégies de file d'attente visent à répondre à une question: "Lorsqu'il y a une bande passante accessible, quel paquet est d'abord?";
  • Évitement de la congestion - La plupart des mécanismes QOS sont appliqués uniquement lorsque la surcharge survient sur le réseau. L'objectif des outils consistant à éviter la congestion est de supprimer un nombre suffisant de packages d'un trafic non essentiel (ou non très important) afin d'éviter des surcharges graves survenues en premier lieu;
  • Contrôle et mise en forme (maintien de l'ordre et mise en forme) - Ce mécanisme limite la bande passante de certains trafic de réseau. Ceci est utile pour de nombreuses "Emours de bande" typiques sur le réseau: applications P2P, navigation Web, FTP et autres. La mise en forme peut également être utilisée pour limiter la bande passante de certains trafic de réseau. Ceci est nécessaire pour les réseaux où la vitesse réelle autorisée est plus lente que la vitesse d'interface physique. La différence entre ces deux mécanismes est que la façonnement génère une file d'attente du trafic redondant pour l'envoyer plus tard, tandis que la police réinitialise généralement l'excès de trafic;
  • Raccordement de liaison (efficacité de liaison) - Ce groupe d'outils se concentre sur la livraison du trafic le plus façon efficace. Par exemple, certains liaisons à basse vitesse peuvent mieux fonctionner si vous passez du temps à compresser le trafic réseau avant de l'envoyer (la compression est l'un des outils d'efficacité de la liaison);
Mécanismes Efficacité de la liaison

Lorsque vous utilisez des interfaces lentes, il y a deux problèmes principaux:

  • L'absence de bande passante rend difficile l'envoi de la quantité requise de données;
  • Les vitesses lentes peuvent affecter de manière significative le délai de bout en bout en raison du processus de sérialisation (la quantité de temps que le routeur est nécessaire pour transférer un package du tampon de mémoire sur le réseau). Sur ces liens lents, plus le paquet, le retard de sérialisation plus long;

Pour surmonter ces problèmes ce qui suit Lien efficacité Mécanismes:

  • Suggestion de compression de charge utile (compression de la charge utile) - serre les données d'application envoyées sur le réseau, de sorte que le routeur envoie des données plus petites, le long de la ligne lente;
  • Compression d'en-tête - Certains trafic (par exemple, tels que la VoIP) peuvent avoir une petite quantité de données d'application (Audio RTP) dans chaque package, mais en général, envoyer beaucoup de packages. Dans ce cas, le nombre d'informations d'information devient un facteur important et consomme souvent plus de bande passante que des données. La compression d'en-tête résout directement ce problème, éliminant ainsi de nombreux champs redondants dans l'en-tête de l'emballage. Il est surprenant que la compression de l'en-tête du RTP, appelée également le protocole de transport compressé de temps réel ( Protocole de transport en temps réel compressé - CRTP) Réduit le titre de 40 octets à 2-4 octets!;
  • Fragmentation et entrelacement (fragmentation de liaison et entrelacement) - LFI résout le problème du délai de sérialisation en meulant de gros paquets dans des parties plus petites avant de les envoyer. Cela permet au routeur de déplacer le trafic VoIP critique entre les parties fragmentées des données (qui sont appelées "alternance" de la voix);
Charger des algorithmes

    Mise en scène dans la file d'attente ( faire la queue.) Détermine les règles que le routeur doit être appliquée lorsqu'il est surchargé. La plupart des interfaces réseau par défaut utilisent l'initialisation de base. Premier dans, premier sorti (FIFO). Dans cette méthode, tout paquet est envoyé pour la première fois, qui vient en premier. Bien que cela semble juste, tout le trafic réseau n'est pas créé égal. La tâche principale de la file d'attente est de garantir que le trafic réseau servant des applications commerciales importantes ou dépendantes de manière critique a été disputée avant le trafic de réseau non essentiel. En plus de l'ordre de FIFO, trois algorithmes de séquence principale sont utilisés:

  • Faible en file d'attente pondérée (WFQ)- WFQ tente d'équilibrer la bande passante disponible entre tous les expéditeurs de manière uniforme. Utilisation de cette méthode, l'expéditeur à bande passante élevée reçoit moins de priorité que l'expéditeur à faible bande passante;
  • Faible Fairement basée sur la classe (CBWFQ) - Cette méthode de maintenance de masse vous permet de spécifier des niveaux de bande passante garanti pour différentes classes de trafic. Par exemple, vous pouvez spécifier que le trafic Web reçoit 20% de bande passante, tandis que le trafic Citrix reçoit 50% de la bande passante (vous pouvez spécifier des valeurs en pourcentage ou une valeur de bande passante spécifique). Ensuite, WFQ est utilisé pour tout le trafic non spécifié (les 30% restants dans l'exemple);
  • File d'attente de latence faible (LLQ) - LLQ est souvent appelé PQ-CBWFQ, fonctionne donc de la même manière que cbwfq, mais le composant prioritaire de la file d'attente est ajouté ( Queue prioritaire - PQ). Si vous spécifiez qu'un certain trafic réseau devrait entrer dans une file d'attente prioritaire, le routeur fournit non seulement un débit de trafic, mais vous garantit également la première bande passante. Par exemple, l'utilisation de PURE CBWFQ, Citrix Traffic peut être garantie 50% de la bande passante, mais elle peut obtenir cette bande passante après que le routeur fournisse d'autres garanties de trafic. Lorsque vous utilisez LLQ, le trafic de priorité est toujours envoyé avant d'effectuer d'autres garanties. Cela fonctionne très bien pour la VoIP, la création d'algorithme de la file d'attente de la file d'attente de la file d'attente LLQ;

Il existe de nombreux autres algorithmes pour les files d'attente, ces trois couvrent les méthodes utilisées par la plupart des réseaux modernes.

Utilisez-vous cet article?

S'il vous plaît dites-nous pourquoi?

Il est dommage que l'article n'était pas utile pour vous: (s'il vous plaît, si cela ne le rend pas difficile, indiquez pour quelle raison? Nous serons très reconnaissants pour la réponse détaillée. Merci de nous avoir aidé devenez mieux!

Qos est un gros sujet. Avant de parler des subtilités des paramètres et de diverses approches dans l'application des règles de la circulation, il est logique de rappeler ce que la qualité de service est généralement.

Qualité de service (QoS) - Technologie fournissant diverses classes de trafic de diverses priorités en matière de maintenance.

Premièrement, il est facile de comprendre que toute hiérarchisation n'a de sens que lorsqu'un service de service survient. Il est là, en ligne, vous pouvez "glisser" le premier, en utilisant votre droite.
La file d'attente est formée où il est étroitement (généralement de tels endroits sont appelés «cou de bouteille», cou de bouteille). Typique "gorryshko" - accès au bureau Internet, où les ordinateurs sont connectés au réseau au moins à une vitesse de 100 Mbps, tous utilisent une chaîne vers un fournisseur, qui dépasse rarement 100 Mbps et me rend souvent maigre 1-2-10MBIT / s. Pour tout le monde.

Deuxièmement, QO n'est pas une panacée: si le "cou" est trop étroit, le tampon d'interface physique est souvent submergé, où tous les colis sont placés pour sortir de cette interface. Et puis les derniers forfaits seront détruits, même s'ils sont superficiels. Par conséquent, si la file d'attente de l'interface dépasse en moyenne 20% de la taille maximale (sur des routeurs Cisco, la taille de la file d'attente maximale est généralement de 128-256 paquets), il y a une raison de penser fermement sur la conception de votre réseau, Pave itinéraires supplémentaires ou élargir la bande au fournisseur.

Nous allons traiter avec des éléments composites de la technologie

(plus loin sous la coupe, beaucoup)

Marquage. Dans les champs d'en-tête de divers protocoles de réseau (Ethernet, IP, ATM, MPLS, etc.), des champs spéciaux sont alloués au marquage de la circulation. Marquer le même trafic est nécessaire pour le traitement ultérieur plus facile dans les files d'attente.

Ethernet. Champ de classe de service (COS) - 3 bits. Vous permet de diviser le trafic sur 8 threads avec un marquage différent

IP. Il existe 2 normes: anciennes et nouvelles. Dans l'ancien, il y avait un champ de TOS (8 bits), à partir desquels 3 bits appelés précédentes de propriété intellectuelle ont été distingués. Ce champ a été copié dans le champ Ethernet COS.
Plus tard, a été défini une nouvelle norme. Le champ TOS a été renommé DIFFSERV et 6 bits sont alloués au champ Point de code de service différent (DSCP), dans lequel vous pouvez transmettre les paramètres requis pour ce type.

Les données marquées sont les meilleures plus proches de la source de ces données. Pour cette raison, la plupart des téléphones IP ajoutent de manière indépendante le champ DSCP \u003d EF ou CS5 à l'en-tête des paquets vocaux. De nombreuses applications étiqueter également la circulation de manière indépendante dans l'espoir que leurs packages seront traités la priorité. Par exemple, ces réseaux de thé "sin".

Files d'attente.

Même si nous n'utilisons aucune technologies prioritaires, cela ne signifie pas qu'il n'y a pas de files d'attente. Dans un endroit étroit, la file d'attente se posera dans tous les cas et fournira le mécanisme de la FIFO standard (premier en premier out). Une telle file d'attente permettra évidemment de ne pas détruire les paquets à la fois, les garder avant d'envoyer dans le tampon, mais aucune préférence, par exemple, ne fournira pas de trafic vocal.

Si vous souhaitez fournir une classe distinctive une priorité absolue (c'est-à-dire des paquets de cette classe seront toujours traités d'abord), alors une telle technologie est appelée Queue prioritaire.. Tous les emballages situés dans la mémoire tampon d'interface sortante physique seront divisés en 2 files d'attente logiques et des paquets de la file d'attente privilégiée seront envoyés jusqu'à ce qu'il soit vide. Seulement alors commencera les paquets transmis de la deuxième étape. Cette technologie est simple, plutôt rugueuse, elle peut être considérée comme obsolète, car Le traitement du trafic non prioritaire s'arrêtera constamment. Sur les routeurs Cisco peuvent être créés
4 files d'attente avec des priorités différentes. La hiérarchie stricte est observée en eux: les paquets de files d'attentes moins privilégiées ne seront entretenues que lorsque tous les virages d'une priorité plus élevée sont vides.

File d'attente équitable ( Faible mise en file d'attente.). Technologie qui permet à chaque classe de trafic de fournir les mêmes droits. En règle générale, non utilisée, parce que Cela donne peu de points de vue de l'amélioration de la qualité de service.

Fête équitable pondérée ( Foire pondérée Foire, WFQ). La technologie qui fournit différentes classes de trafic de droits différents (on peut dire que le "poids" de différentes files d'attente est différente), mais sert en même temps toutes les files d'attente. "Sur les doigts", cela ressemble à ceci: Tous les colis sont divisés en files d'attente logiques en utilisant
Critères de qualité PRÉCÉDENCE IP DE TERRAIN. Ce champ est demandé et la priorité (plus c'est le meilleur). En outre, le routeur calcule, un emballage de la queue "plus rapide" pour la transmettre et le transmettre.

Il l'estime par la formule:

Dt \u003d (t (i) -t (0)) / (1 + IPP)

IPP - Champ de priorité IP
T (i) - le temps requis pour une transmission réelle du package d'interface. Peut être calculé comme L / vitesse, où L est la longueur de paquets et la vitesse est le taux de transmission d'interface

Cette file d'attente par défaut est incluse sur toutes les interfaces de routeur Cisco, à l'exception des interfaces point à point (encapsulation HDLC ou PPP).

WFQ a un certain nombre de minus: un tel tournant utilise des packages précédemment marqués plus tôt et ne permet pas de déterminer de manière indépendante les classes de trafic et la bande allouée. De plus, en règle générale, personne ne marque le champ de prime de la propriété intellectuelle, de sorte que les colis soient noubles, c'est-à-dire Tout le monde tombe en une ligne.

Le développement de WFQ est devenu une file d'attente pondérée basée sur des classes ( Faible Fairement basée sur la classe, CBWFQ). Dans cette file d'attente, l'administrateur lui-même définit les classes de la circulation, à la suite de divers critères, par exemple à l'aide d'ACL, en tant que modèle ou en analysant des en-têtes de protocole (voir .nbar). Ensuite, pour ces cours
Le "poids" et les paquets de leurs files d'attente sont servis, à la mesure du poids (plus de poids - plus de paquets de cette file d'attente prendra une unité de temps)

Mais une telle file d'attente ne fournit pas une transmission stricte des forfaits les plus importants (en règle générale de la voix ou des packages d'autres applications interactives). Par conséquent, une foire équitable pondérée de priorité hybride et basée sur la classe est apparue - PQ-CBWFQ., aussi connu sous le nom, File d'attente de latence faible (LLQ). Dans cette technologie, vous pouvez configurer jusqu'à 4 files d'attente prioritaires, les classes restantes pour maintenir des mécanismes CBWFQ

LLQ est le mécanisme le plus pratique, flexible et fréquemment utilisé. Mais il nécessite une configuration personnalisée, des paramètres de stratégie et des stratégies sur l'interface.

Ainsi, le processus de qualité du service peut être divisé en 2 étapes:
Marquage. Plus proche des sources.
Traitement de paquet. Les placer dans une file d'attente physique sur l'interface, une division en files d'attente logiques et fournissant ces files d'attente logiques de diverses ressources.

La technologie QOS est assez intense en ressources et le processeur est très significatif de manière significative. Et les charges plus fortes, plus les titres que vous devez gravir pour classer les paquets. À titre de comparaison: le routeur est beaucoup plus facile d'examiner l'en-tête du package IP et d'analyser 3 bits IPP, plutôt que de dérouler le flux au niveau de l'application, déterminant que le protocole passe à l'intérieur (technologie NBAR).

Pour simplifier le traitement ultérieur du trafic, ainsi que pour créer la soi-disant "zone de confiance" (limite de confiance), où nous croyons que tous les titres liés à la QoS, nous pouvons procéder comme suit:
1. Sur les commutateurs et les routeurs du niveau d'accès (près des machines clientes) pour attraper des packages, difformez-les dans des classes
2. En politique comme une action pour repeindre les en-têtes à sa manière ou transférer les principales titres de QoS au niveau le plus élevé.

Par exemple, sur le routeur, nous attrapons tous les colis du domaine WIFI invité (nous supposons qu'il ne peut y avoir pas géré par nos ordinateurs et nos logiciels, qui peuvent utiliser des en-têtes QoS non standard), modifier tous les en-têtes IP en cas de défaut, comparez le Headers 3 (DSCP) Niveau de titres de canal (COS),
Pour plus loin et les commutateurs peuvent faire preuve efficacement le trafic en utilisant uniquement une étiquette de niveau de canal.

Configuration de LLQ.

Configuration des files d'attente consiste à définir les classes, puis pour ces classes, il est nécessaire de déterminer les paramètres de bande passante et d'appliquer la conception complète à l'interface.

Création de cours:

nom de la carte de classe
Correspondre?

groupe d'accès. Groupe d'accès.
quelconque. Des paquets.
carte de classe Carte de classe
cos. IEEE 802.1Q / ISL Classe de service / valeurs prioritaires de l'utilisateur
adresse de destination Adresse de destination
discarde de la classe. Jeter le comportement d'identifiant
dSCP. Match DSCP dans IP (V4) et IPv6 paquets
couler Paramètres de QOS basés sur les flux
franc Match sur l'image-relais de bit
Fr-dlci Match sur fr-dlci
Interface d'entrée. Sélectionnez une interface d'entrée pour correspondre
ip Valeurs spécifiques IP.
mpls. Étiquette multi-protocole de commutation de valeurs spécifiques
pas. Nier ce résultat de match
paquet. Longueur de paquet de couche 3
priorité. Correspondre à la priorité aux paquets IP (V4) et IPv6
protocole Protocole
qOS-Group. QOS-Group.
adresse source Adresse source
vLAN. Vlans pour correspondre

Les packages dans des classes peuvent être triés par différents attributs, par exemple, spécifiant ACL sous forme de modèle ou par champ DSCP, ou en surbrillant un protocole spécifique (la technologie NBAR est incluse)

Créer une politique:

politique de la carte de politique
Nom de la classe1.
?

bande passante. Bande passante.
compression Activer la compression
tomber. Déposez tous les paquets.
enregistrer. Log Bock IPv4 et ARP paquets
netFlow-Sampler. Action NetFlow.
police. Police.
priorité. Priorité stricte de planification pour cette classe
limite de la file d'attente. File d'attente Max Seuil pour la chute de la queue
détecter au hasard. Activer la détection précoce aléatoire comme stratégie de chute
politique de service Configurer le flux suivant
eNSEMBLE. Définissez les valeurs de QoS.
façonner Mise en forme de trafic


Pour chaque classe de politique, vous pouvez soit souligner les rayures accélérer:

politique de la carte de politique
Nom de la classe1.
Priorité?

Kilo bits par seconde
pour cent % De la largeur de bande totale


Et puis, les paquets de cette classe peuvent toujours compter au moins sur cette pièce.

Soit décrire ce que "poids" a cette classe dans CBWFQ

politique de la carte de politique
Nom de la classe1.
Bande passante?

Kilo bits par seconde
pour cent % De la largeur de bande totale
restant % De la largeur de bande restante


Dans les deux cas, vous pouvez spécifier à la fois une valeur ABOOL et pourcentage de toutes les rayures disponibles.

Il y a une question raisonnable: et où le routeur connaissait-il tout le groupe? Réponse Banenal: du paramètre de bande passante sur l'interface. Même s'il n'est pas configuré explicitement, une sorte de valeur est nécessairement. Vous pouvez voir la commande sh int.

Il est également nécessaire de se rappeler que par défaut, vous ne gérez pas toute la bande, mais seulement 75%. Les emballages qui ne tombent évidemment pas dans d'autres classes tombent dans la défaillance de la classe. Ce paramètre pour la classe par défaut peut être spécifié

politique de la carte de politique
Classe de classe par défaut
Pourcentage de bande passante 10.

(Upd, merci olegd)
Changez la bande accessible maximale de la valeur de 75% par défaut par la commande de l'interface

mAX-Réservé-bande passante

Les routeurs surveillent zèle que l'administrateur n'abandonne pas la voie aléatoire, qui est et jurant à de telles tentatives.

Il semble que la politique soit émise par des classes plus que ce qui est écrit. Cependant, cette situation ne sera que si toutes les files d'attente sont remplies. Si certains sont vides, les files d'attente remplies allouées sont divisées proportionnellement à leur "poids".

Travailler tout ce modèle sera comme ceci:

S'il existe des emballages de la classe indiquant la priorité, le routeur se concentre sur la transmission de ces packages. Et parce que Il peut y avoir plusieurs files d'attente de priorité aussi, puis la bande est divisée entre eux proportionnellement au pourcentage spécifié.

Une fois que tous les packages prioritaires sont terminés, la file d'attente CBWFQ se produit. Pour chaque compte à rebours du temps de chaque file d'attente "couvert" de la part des paquets spécifiés dans le réglage de cette classe. Si une partie des files d'attente est vide, leur bande est divisée en proportion de la classe "Poids" entre les files d'attente chargées.

Application sur l'interface:

int S0 / 0
Politique de la politique de service

Que dois-je faire si vous avez besoin de hacher strictement des paquets de la classe Comolur? Après tout, l'indication de la bande passante ne distribue que la bande entre les classes lorsque les files d'attente sont chargées.

Pour résoudre ce problème pour la classe de classe dans la politique, il y a une technologie

police Conforme-Action [Action] dépasse l'action [Action]

Il vous permet de spécifier explicitement la vitesse moyenne souhaitée (vitesse), la «émission» maximale, c'est-à-dire. Le nombre de données transmises par unité de temps. Plus le taux de transmission réel est important, plus le taux de transmission réel peut s'écarter de la moyenne souhaitée. Également indiqué: Action pour le trafic normal ne dépassant pas
Vitesse et action spécifiées pour le trafic dépassant la vitesse moyenne. Les actions peuvent être

police 100000 8000 Conforme-Action?

tomber. Drop paquet.
dépasse l'action. Action lorsque le taux est conforme à la conformité et
Conforme + dépasser l'éclatement
sET-CLP-Transmettre Définir ATM CLP et l'envoyer
enregistrement-Discard-Class-Transmission Définir la classe de discarde et l'envoyer
set-DSCP-Transmettre Ensemble DSCP et envoyez-le
ensemble-frde-transmission Set FR De et l'envoyer
set-mpls-exp-imposition-transmission Ensemble exp to tag imposition et l'envoyer
sET-MPLS-EXP-EXP-TOPH Définissez EXP sur l'étiquette la plus haute et envoyez-la
set-précleuvre Réécrire la précision du paquet et l'envoyer
set-qos-transmettre Définissez QOS-Group et envoyez-le
transmettre. Transmettre le paquet.

L'autre tâche se pose souvent. Supposons que vous ayez besoin de limiter le flux qui va aller vers le voisin avec un canal lent.

Afin de prédire avec précision quels packages atteindront le voisin et qui seront détruits par la charge de travail du canal sur le côté "lent", il est nécessaire de créer une politique sur le côté "rapide", qui aurait traité les files d'attente à l'avance et détruit des packages en excès.

Et ici, nous sommes confrontés à une chose très importante: résoudre ce problème, il est nécessaire d'endommager le canal "lent". Pour cette émulation, il ne suffit pas de dédaigner les emballages dans les files d'attente, il est nécessaire de faire un tampon physique de l'interface "lente". Chaque interface a un taux de transmission de paquets. Ceux. Une unité de temps Chaque interface peut transmettre plus de n packages. Habituellement, le tampon d'interface physique est calculé de manière à fournir à l'interface «autonome» à plusieurs unités de la vérification. Par conséquent, le tampon physique, disons, Gigabitethernet sera dans des dizaines de fois plus qu'une interface série.

Qu'est-ce qui est mauvais en souvenir beaucoup? Considérons en détail ce qui se produira si le tampon sur le côté émetteur rapide sera de manière significative plus d'hôte tampon.

Supposons pour la simplicité, il y a 1 tour. Sur le côté "rapide" prenez un petit débit de transmission. Cela signifie que les packages arrivent à notre politique commenceront à s'accumuler en ligne. Parce que Le tampon physique est grand, la file d'attente logique sera impressionnante. Une partie des applications (travail via TCD) sera invitée à recevoir une notification que la partie des paquets n'est pas reçue et longue pour conserver la grande taille de la fenêtre, chargement du récepteur latéral. Cela se produira dans le cas idéal lorsque le taux de transfert sera égal ou moins de vitesse de réception. Mais l'interface hôte peut être téléchargée par d'autres packages
Et puis une petite file d'attente du côté de la réception ne sera pas en mesure d'accueillir tous les packages transmis à partir du centre. Les pertes commenceront, ce qui entraînera des transmissions supplémentaires, mais dans la mémoire tampon émettrice, car il y aura toujours une "queue" solide des paquets précédemment accumulés, qui sera transmis au "calme", \u200b\u200bcar Du côté de la réception n'a pas attendu un paquet antérieur, ce qui signifie que plus de défi ne sera tout simplement ignoré.

Par conséquent, pour la solution correcte du problème de réduire le taux de transmission à un voisin lent, le tampon physique devrait également être limité.

Ceci est fait par l'équipe

forme moyenne

Eh bien, maintenant la chose la plus intéressante: comment être, si en plus de l'émulation du tampon physique, vous devez créer des files d'attente logiques à l'intérieur? Par exemple, souligner une voix prioritaire?

Pour cela, la politique dite imbriquée est créée, qui est utilisée à l'intérieur de la principale et divise les files d'attente logiques ce qui tombe du parent.

Il est temps de démonter certains exemples de marquage en fonction de l'image ci-dessous.

Laissons collectivement créer des canaux vocaux de travail réguliers via Internet entre CO et Remote. Pour la simplicité, laissez le réseau distant (172.16.1.0/24), n'a qu'une connexion avec CO (10.0.0.0/8). La vitesse de l'interface sur une télécommande - 1 Mbps et met en évidence 25% de cette vitesse sur la circulation vocale.

Ensuite, pour un démarrage, nous devons mettre en évidence la classe de trafic de priorité des deux côtés et créer une politique pour cette classe. Créer une classe décrivant la circulation entre les bureaux

carte de classe RTP
Match Protocol RTP.

Politique-Carte RTP
Classe RTP.
Priorité pourcentage 25.

Liste d'accès IP étendue CO_REMOTE
Permis IP 10.0.0.0 0.255.255.255 172.16.1.0 0.0.0.255

Carte de classe CO_REMOTE
Match Access-List Co_remote


Sur la télécommande, nous ferons autrement: laissez-le mourir par la lait de fer, nous ne pouvons pas utiliser nbar, puis nous ne pouvons que décrits explicitement par les ports de RTP

liste d'accès IP étendue RTP
Permis UDP 172.16.1.0 0.0.0.255 Plage 16384 32768 10.0.0.0 0.255.255.255 Plage 16384 32768

Carte de classe RTP
Match Access-List RTP

Policy-Carte Qos
Classe RTP.
Priorité pourcentage 25.

policy-Carte Qos
Classe co_remote
Forme moyenne 1000000.
Politique de service RTP


et appliquer des stratégies sur l'interface

int g0 / 0
Qos de sortie de la politique de service

Sur la télécommande, définissez le paramètre de bande passante (en Kbps) conformément à la vitesse de l'interface. Permettez-moi de vous rappeler que c'est à partir de ce paramètre qui sera considéré comme 25%. Et appliquer des politiques.

int S0 / 0
Bande passante 1000.
Qos de sortie de la politique de service

L'histoire ne serait pas complète si vous ne couvrez pas les capacités des commutateurs. Il est clair que les commutateurs purement L2 ne sont pas en mesure d'avoir une apparence aussi profondément dans les emballages et de les diviser en classes en fonction des mêmes critères.

Sur des commutateurs plus intelligents L2 / 3 sur des interfaces de routage (c'est-à-dire, soit sur l'interface VLAN, ou si le port est dérivé du deuxième niveau pas de commutation.) La même conception est appliquée qu'elle fonctionne sur des routeurs et si le port ou l'ensemble du commutateur fonctionne en mode L2 (correctement pour les modèles 2950/60), il n'y a qu'une indication de la police pour la classe de trafic, la priorité ou la bande passante Ne peut pas être utilisé.

De plus, le ver est souvent couvert par les ports nécessaires à l'opération (TCR / 135,445.80, etc.) fermer simplement sur le routeur, ces ports seraient rampants, il est donc humain de faire cela:

1. Nous collectons des statistiques sur le trafic réseau. NetFlow, NBR ou SNMP.

2. révéler le profil du trafic normal, c'est-à-dire Selon les statistiques, en moyenne, protocole HTTP Il ne faut pas plus de 70%, ICMP n'est pas supérieur à 5%, etc. Ce profil peut soit créer manuellement ou appliquer les statistiques accumulées par NBAR. De plus, vous pouvez même créer automatiquement des classes, des stratégies et appliquer sur l'interface.
Équipe autoqs. :)

3. Ensuite, vous pouvez limiter le trafic réseau atypique. Si soudainement et une infection ultérieure par port non standard, il n'y aura pas de gros problème pour la passerelle: il n'y aura plus de pièce dédiée à l'interface d'échantillon chargé.

4. Créer une conception ( carte de classe - Politique-Carte - Politique de service) Vous pouvez répondre rapidement à l'apparition d'une poussée de trafic atypique, créant une classe manuelle pour elle et limitant fortement la bande de cette classe.

Bande passante Réseau local - le sujet qui devient distribué vitesse Internet de plus en plus pertinents. Chaque fois que nous essayons de connecter plus de périphériques au routeur et que le logiciel par défaut ne peut pas toujours y faire face avec eux. Dans ce cas, il s'agit de la rescousse définition des priorités de package Qos Bande passante réseau locale sur le routeur. Il attribue une priorité pour l'accomplissement de certaines tâches pour le moment et est disponible non seulement sur les meilleurs routeurs Mikrotik ou Cisco, mais également sur tout modèle de liaison TP peu coûteux, Asus, Zyxel Beenetic, D-Link.

La plupart des routeurs modernes ont une capacité intégrée à gérer les flux de trafic Internet à l'intérieur réseau localEn attribuant une priorité lors de l'exploitation d'une application particulière. Eh bien, par exemple, vous jouez un jeu en ligne ou affichez les pages de vos sites préférés. Et en parallèle, vous balancez un film intéressant sur le torrent. Dans le même temps, le jeu commence à ralentir et que le fichier bascule à peine. Que faire?

Vous devez choisir quelle action pour vous est actuellement plus importante. Probablement, c'est toujours jeu en ligne. Par conséquent, en utilisant le paramètre de planification du package QoS, nous pouvons définir la priorité pour effectuer des tâches de jeu avant de télécharger des fichiers.


Mais la bande passante du réseau local et la chaîne Internet est limitée. Le premier est les possibilités du routeur. Pepping, nous avons parlé ?.

Deuxièmement - le vôtre régime tarifaire du fournisseur. Alors, comment la priorité de la mise en œuvre de ces tâches simultanées?

En règle générale, par défaut, la priorité la plus élevée est donnée à la navigation sur le Web, c'est-à-dire le travail de votre navigateur. Mais si au moment où vous avez ouvert et lisez l'article et que vous souhaitez en même temps télécharger rapidement le film, il serait alors plus logique de donner la priorité de la séquence de fichier, pas un navigateur.

C'est pourquoi dans les routeurs, il est possible de configurer manuellement la bande passante de la bande de réseau. Nommément distribuer la priorité que vous en avez besoin. Cette fonctionnalité s'appelle QoS (qualité de service). C'est-à-dire la technologie de fournir diverses qualités de priorités de trafic dans la maintenance.

Responsable de la circulation sur ASUS ROUTLER

Dans différents modèles, ce paramètre peut être masqué sous différents noms de l'élément de menu. Mon asus routeur travaille maintenant dans le nouveau firmware - je montre la version B1 sur la RT-N10U. Et ici, le paramètre Scheduler Qos est effectué dans la section "Traffic Manager".

Pour commencer, vous devez modifier la valeur par défaut activée. mode automatique L'un des deux. "Règles de QoS définis par l'utilisateur" ou "priorité définie par l'utilisateur"

Utilisateur défini par la planification du package QoS

Ce paramètre vous permet de spécifier la priorité des programmes déjà pré-installés dans le routeur de logiciel de différentes "catégories de poids". En même temps, cela vous embêtez avec diverses formules et il n'est pas nécessaire de calculer la bande passante du réseau. Tout est déjà inventé devant nous. Sans capture d'écran, il n'est pas clair un peu, alors je l'apporte:

Donc, maintenant sur "Web Serf", c'est-à-dire sur la connexion à travers un navigateur via le port utilisé pour cela, il vaut la priorité «la plus élevée». En cliquant sur la liste déroulante, nous pouvons choisir une autre de la liste proposée. Dans le même temps, «Transfert de fichiers», c'est-à-dire pour le logiciel de chargeur de fichiers - le plus petit. En modifiant ces paramètres dans des endroits, nous obtenons l'effet que tout en téléchargeant simultanément un fichier de n'importe quel site et en regardant une page HTML, une vitesse élevée sera donnée au premier processus.


Mais ce n'est pas tout. Pour les programmes de transfert de fichiers au moyen de P2P (par exemple, BitTorrent) ou des jeux en ligne, ainsi que de nombreuses autres applications, vous pouvez spécifier vos valeurs prioritaires. Cela se fait en ajoutant une nouvelle règle aux personnes existantes.

Pour le créer, cliquez sur "Sélectionner" et dans la liste déroulante, sélectionnez le type de transfert de données ou des paramètres de préréglage qui vous intéresse pour une application spécifique. Par exemple, vous pouvez définir la priorité de bande passante réseau pour applications postales Type Outlook ou Thebat (SMTP, POP3 ...) ou pour les clients FTP (FTP, SFTP, WLM ...). Il existe également une grande liste de jeux populaires, tels que les programmes de contre-grève et des fichiers - BitTorrent, Edonkey, etc.

Choisissez une chaise à bascule de torrents. Affecter automatiquement les ports par défaut utilisés par ce programme.
Mais c'est mieux pour le mot routeur de ne pas croire et de les vérifier vous-même. Ouvrons le programme (j'ai uTorrent) et allez à "Paramètres\u003e Paramètres du programme\u003e Connexions". Voyons quel port est défini pour travailler ce programme.

S'il diffère de ceux qui ont été écrits par défaut dans les paramètres du routeur, changez. Il y a là, ou ici, la chose principale pour qu'ils soient les mêmes. Enregistrez les paramètres dans le programme et revenez à l'ajustement du routeur, appliquez les paramètres. Ils sont activés après le redémarrage de l'appareil.

Priorité de package QoS définis par l'utilisateur

Il s'agit du deuxième réglage de la bande passante réseau manuelle, ce qui vous permet de configurer les paramètres spécifiés dans la section précédente. À savoir déterminer quelle vitesse dans le pourcentage sera attribuée à chacun des paramètres de priorité.

Par exemple, pour le trafic sortant du «plus élevé» actuellement, la valeur par défaut est définie de 80% - la valeur minimale et 100% est le maximum. Cela signifie que ceux qui ont la plus haute priorité recevront au moins 80% de la largeur de la transmission du canal. Peu importe la quantité de processus simultanés n'a pas produit de connexions sortantes avec Internet. La même chose qui a la priorité «élevée» - au moins 10%. Et ainsi de suite - je pense que l'essence que vous comprenez. Edité par ces valeurs, vous pouvez contrôler la vitesse de téléchargement et la déchargement de la vitesse pour différentes catégories de programmes de travail.

Maintenant, je suggère de voir un tutoriel vidéo détaillé sur la mise en place de QOS sur des routeurs Cisco

Configuration du planificateur de package QoS sur la déroute TP-Link

Ci-dessous pour votre commodité, je donnerai plusieurs captures d'écran des partitions d'administration pour contrôler la bande passante des modèles d'autres entreprises. Sur le routeurs TP-Link Le planificateur de package QOS est dans le menu "Bandwidth Control". Pour l'activer, nous mettons une coche sur "Activer le contrôle de la bande passante" et définir la vitesse maximale pour le trafic entrant et sortant.

En cliquant sur le bouton Ajouter, vous pouvez ajouter une nouvelle règle à une priorité pour un ou plusieurs ordinateurs. Pour ce faire, vous devez entrer leur adresse IP ou votre gamme d'adresses. Et spécifier également les ports et le type d'échange de packages, que cette règle sera distribuée.

Récemment, TP-Link a une nouvelle visualisation du panneau d'administration, qui est installée sur tous les nouveaux modèles. En cela, le planificateur QoS est dans les "paramètres avancés" dans la section "Transférer des données". Incluez-la avec une coche et ajustez les curseurs trois types de priorités:

  • Grand
  • Milieu
  • Faible

Pour ajouter un filtre, cliquez sur le bouton "Ajouter" dans l'une des trois fenêtres des paramètres de préréglage.

Une liste de clients connectés au routeur client - choisissez la liste souhaitée et cliquez sur le lien "Sélectionner" et "OK".

Bande passante du réseau Intelliqos sur Zyxel Beenetic

Sur les routeurs béensiques, la fonction de contrôle de bande passante réseau s'appelle Intelliqos. Initialement ce module Pas présent dans le micrologiciel. Vous devez en outre \u003e\u003e installer le composant IntelliQOS à partir de la section du panneau d'administrateur correspondant. Après cela, un point distinct du même nom apparaît dans le menu "My Networks and WiFi".

Pour activer le mode de contrôle du trafic, nous incluons ce service et indiquons la vitesse maximale de l'Internet prévue par le plan tarifaire du fournisseur. Pour une définition plus précise, vous pouvez exécuter le test de vitesse en ligne et provient déjà de cette valeur réelle.

Définition de la bande passante réseau sur le routeur D-Link

Pour le routeur D-Link dans le modèle DIR-620, les développeurs pour une raison quelconque ont mis en place la possibilité d'établir des limites de vitesse de QoS uniquement sur des ordinateurs connectés via un câble à l'un des ports LAN. Il y a ce paramètre dans le "contrôle avancé de la bande passante"

En choisissant l'un d'entre eux, allumez la limite et réglez la vitesse

À ce sujet, tandis que tous - essaient d'expérimenter la bande passante du réseau local afin que le routeur ne ralentit pas le travail de ces programmes à partir duquel vous attendez le rendement maximal pour le moment.

Vidéo pour la configuration de QoS sur le routeur

Il y a un tel service comme QoS. Il est déchiffré par cette abréviation, en qualité de service. En cas de paramétrage du système, il est extrêmement indésirable à activer, car il dispose d'une propriété pour réduire considérablement la bande passante du réseau (environ 20%).

Maintenant, peut-être, il est impossible de trouver une telle personne qui n'aurait jamais lu l'une de la FAQ concernant Windows.

20% est bien sûr juste follement follement. Et bien sûr, Microsoft - doit périr. L'approbation d'un tel plan se déplace d'un seul FAK à un autre, parcourant les forums, les médias, profiter d'un énorme succès dans toutes sortes de "Twikals" - logiciel sur "apprendre" Windows . Une fois monté commele type de déclarations doit être extrêmement prudent, c'est maintenant que nous allons maintenant appliquer efficacement une approche systématique. Que vous entendez d'examiner extrêmement la question problématique, nous nous faudirons sur des sources faisant autorité.

Qu'est-ce qu'un réseau avec un service de haute qualité?

Nous vous invitons à accepter une telle définition d'un système de réseau maximal simplifié. Les applications commencent leur travail, rendent les hôtes et à la suite de leurs activités changent avec des informations les uns avec les autres. Les applications envoient des informations sur le système d'exploitation pour transférer sur le réseau. Aussitôt que information nécessaire Le système d'exploitation est transmis, il devient automatiquement un trafic réseau.

QoS à son tour s'appuie sur les capacités du réseau pour traiter ce trafic de manière à effectuer avec précision des demandes non une, mais à la fois plusieurs applications. Cela nécessite la présence d'un mécanisme de base pour le traitement du trafic du réseau, capable de distinguer et de classer ce trafic, qui a droit à un traitement spécial et le droit de gérer les mécanismes eux-mêmes.

La fonctionnalité de ce service est conçue pour satisfaire plusieurs entités de réseau: premièrement, administrateurs réseau, et deuxièmement, les applications réseau elles-mêmes. Souvent, ils ont des désaccords. L'administrateur du réseau cherche à limiter les ressources utilisées par une application spécifique, tandis que la même application cherche à capturer autant de ressources gratuites que possible du réseau. Leurs intérêts peuvent être coordonnés, étant donné que l'administrateur du réseau jouera le rôle le plus important dans la relation avec tous les utilisateurs et applications.

Les principaux paramètres du service QoS

Différentes applications ont des exigences totalement différentes pour le traitement de leur trafic. Applications dans une certaine mesure plus ou moins tolérante à la perte et aux délais de trafic de réseau insignifiant.

Ces exigences trouvent leur application dans ces paramètres associés à la QoS:

Bande passante (four. Bande passante) - La vitesse avec laquelle le trafic généré par l'application peut être et doit être transmis sur le réseau

Retard (latence) - un délai de retard que l'application elle-même peut permettre lors de la livraison du package d'information

Changement de retard (gigue)

Perte (perte) - coefficient de perte d'informations.

Si nous avions accès aux ressources éternelles du réseau, tout le trafic d'applications pourrait alors être distribué à la vitesse souhaitée, avec une durée de retard égale à zéro, les changements de temps égaux à zéro et avec l'absence de perte. Mais ressources réseau loin de l'éternel.

Le mécanisme du service à l'étude continue de contrôler la répartition des ressources du réseau d'application de la demande afin d'effectuer les conditions nécessaires à son transfert.

Ressources de service de base et méthodes de traitement du trafic de base

Les réseaux qui sont engagés dans la maintenance de la communication entre les hôtes utilisent les périphériques réseau les plus différents, qui incluent également des hubs, des routeurs, des commutateurs et adaptateurs réseau hôtes. N'importe lequel des interfaces réseau répertoriées. Toute interface réseau est capable de transmettre et de prendre du trafic à la vitesse complète. Lorsque la vitesse avec laquelle le trafic a été envoyée à l'interface dépasse la vitesse avec laquelle l'interface transmet une circulation supplémentaire, elle surcharge souvent.

Les périphériques réseau sont capables de traiter l'état de la surcharge en organisant un circuit total de trafic dans la mémoire du périphérique (dans sa mémoire tampon) jusqu'à ce qu'elle (surcharge) ne passe pas. Dans d'autres cas, l'équipement peut ne pas prendre de trafic afin de rendre la surcharge moins grave. En conséquence, les applications sont rencontrées avec un changement important du temps d'attente (car le trafic reste dans les files d'attente des interfaces) ou même avec une perte de trafic complète.

Les fonctionnalités d'interface relatives aux transactions de trafic réseau et la présence de la mémoire pour stocker le trafic de périphériques réseau seront des ressources fondamentales qui sont à son tour nécessaires pour fournir un service de QoS pour poursuivre les flux de trafic dans les applications.

Allocation de ressources de service QoS sur les périphériques réseau

Les appareils prenant en charge le service à l'étude utilisent relativement rationnellement les ressources réseau pour la transmission de trafic réseau. Je veux dire des applications trafic que, respectivement, plus tolérantes pour les retards, est stockée dans la mémoire tampon et que le trafic d'applications, plus important pour les retards, est envoyé plus loin.

Afin de résoudre ce problème, le périphérique réseau doit d'abord effectuer une identification du trafic en distribuant des paquets, ainsi que la file d'attente et mettre en œuvre leurs propres mécanismes, leur maintenance

Mécanismes et méthodes de traitement du trafic

La majorité accablante des réseaux locaux repose sur la technologie IEEE 802 et comprend une jeton -ring, Ethernet, etc. 802.1P est un mécanisme de traitement de la circulation pour prendre en charge le service QoS dans ce type de réseaux.

802.1P est capable de déterminer le champ (deuxième niveau du modèle réseau OSI) dans le titre du package 802, qui porte une sorte de valeur de priorité. Habituellement, des routeurs ou des hôtes, envoyant leur trafic sur le réseau local, étiqueter tous les packages envoyés par eux, leur attribuant une sorte de valeur prioritaire. Il est entendu que les commutateurs, les moyeux, les ponts et autres périphériques de réseau traiteront des packages en organisant des files d'attente. La portée du mécanisme de traitement de trafic spécifié est limitée au réseau local. En même temps quand le paquet croise le réseau local (à travers le troisième niveau OSI ), La priorité 802.1P est immédiatement supprimée

Le mécanisme de troisième niveau - diffservant, qui définit sur le terrain au troisième niveau, les PAKETS IP, appelées DSCP (éruption cutanée. DiffServ DodePoint)

ITERERV fournit un ensemble complet de services qui définit le service garanti et le service qui gère les surcharges. Le service garanti est capable de mener une certaine quantité de trafic avec un délai limité. Le service qui contrôle le téléchargement est appelé à porter un certain volume de trafic lorsque "Le chargement facile du réseau apparaît". Ils sont dans une certaine mesure de services mesurables, car ils sont déterminés à assurer le rapport de la QO à un certain nombre de trafic.

Étant donné que la technologie ATM peut fragmenter des emballages dans des cellules relativement petites, il est capable d'offrir un délai très sous-estimé. Si vous devez transférer le paquet de manière urgente, l'interface ATM peut toujours être libérée pour la transmission pendant un temps que vous souhaitez transmettre une seule cellule.

En outre, le service QoS a beaucoup de mécanismes difficiles, ce qui garantit le travail de cette technologie. Nous voulons noter un seul point, mais un point très significatif: afin que le service commence à fonctionner, soutenant une telle technologie et la disponibilité paramètres nécessaires sur toutes les transmissions de l'élément initial à la finale

Besoin d'accepter:

Absolument tous les routeurs prennent la participation des protocoles nécessaires;

La première isance QoS, qui nécessite 64 Kbps, est initialisée entre les hôtes A et B

La deuxième session nécessitant 64 Kbps est initialisée entre les hôtes A et D

Afin de simplifier considérablement le régime, nous suggérons que la configuration des routeurs est conçue de manière à avoir la capacité de réserver absolument toutes les ressources du réseau.

Il est important pour nous qu'une question sur la réservation de 64 Kbps ait atteint trois routeurs le long de la voie des informations entre les hôtes A et B. La demande suivante pour 64 Kbps pourrait être otding trois maréciers entre les hôtes A et D . Les routeurs seraientont pu remplir des demandes de réservation de ressources, car elles ne sont plus maximales point spécifié. Si, à la place, l'un des hôtes B et C pourraient initialiser 64 Kbps Qos -Eans avec un hôte A-hôte, puis dans ce cas, le routeur qui sert ces hôtes, probablement interdit une seule connexion.

Essayons maintenant de soumettre que l'administrateur réseau désactive le traitement du service dans trois routeurs qui servent l'hôte E, D, C, B. Dans ce cas, les demandes de ressources de grandes 64 Kbps seront satisfaites, quel que soit la localisation de l'hôte, qui participe à la création. Dans ce cas, des assurances de qualité seraient extrêmement faibles, car la circulation d'un seul hôte endommagerait le trafic d'un autre. La qualité de service, probablement, pourrait rester la même si le routeur supérieur était capable de limiter les demandes de 64 kps, mais cela aurait conduit à une utilisation extrêmement inefficace des ressources du réseau.

D'autre part, la bande passante de toutes les connexions sur le réseau que nous pourrions augmenter à 128 kbps. Cependant, la bande passante agrandie ne sera utilisée que si deux hôtes nécessiteront simultanément des ressources. Si ce n'est pas le cas, les ressources du réseau deviendront à nouveau extrêmement inefficace

MicrosoftQoS.-Composants

98 La version Windows n'a que des composants QoS uniquement pour le niveau utilisateur:

Fournisseur de services Qos

Winsock 2 (API GQOS)

Quelques composantes des applications

Plus tard système d'exploitation Microsoft comprend tout ce qui est indiqué ci-dessus, ainsi que des composants tels que:

Trafic .dll - la capacité de contrôler le trafic

Les services RSVPSP .DLL et RSVP .exe, ainsi que Qos ACS. Dans XP et 2003 ne sont pas utilisés

MSPGPS .Sys - Le classificateur d'emballage, est capable de déterminer la classe de service appartenant au paquet.

Psched .sys est un planificateur d'emballageservice QoS. Sa fonction est de déterminer les paramètres de service pour un flux d'informations spécifique. Tout le trafic sera marqué par une valeur prioritaire. Le planificateur de package déterminera le trafic, en définissant dans la file d'attente de tous les pasteurs et effectuera des requêtes concurrentes dans les packages de données livrés à la file d'attente qui nécessitent un accès rapide au réseau.

Calendrier de package QoS (PSCHED.SYS). Définit les paramètres QOS pour un flux de données spécifique. Trafic marqué d'une certaine valeur de priorité. Le planificateur de package QOS définit la planification de la définition de chaque package et traite des demandes concurrentes entre les packages livrés à la file d'attente qui ont besoin d'un accès simultanément au réseau.

Accord final

Tous les moments ci-dessus ne peuvent pas donner une réponse à la question, mais toujours la même chose que 20% de congé (qui, au fait, personne n'a complètement mesuré). Sur la base de toutes les informations, indiquées ci-dessus, cela ne devrait en aucun cas être. Cependant, les adversaires désignent leurs arguments: le système QOS est excellent, mais il est réalisé que cela n'a pas d'importance. Et, par conséquent, 20% vont encore 20%. Très probablement, le problème de prédéfini et le géant du logiciel lui-même, car il y a déjà longtemps, à son tour, a commencé à réfuter une telle réflexion de la pensée.

Avez-vous aimé l'article? Partager avec des amis: