Réseau local à faire soi-même : règles générales pour la construction d'un réseau domestique et de ses principaux composants. Qu'est-ce qu'un interrupteur et où est-il utilisé

La technologie de commutation de segment Ethernet a été introduite par Kalpana en 1990 en réponse au besoin croissant d'augmenter la bande passante des serveurs hautes performances vers les segments de station de travail.

Le schéma fonctionnel de l'EtherSwitch proposé par Kalpana est illustré à la Fig. 12.6.

12. 6 Exemple de structure de commutateur

Chacun des 8 ports 10Base-T est desservi par un Ethernet-EPP (EthernetPacketProcessor). De plus, le commutateur dispose d'un module système qui coordonne le travail de tous les processeurs EPP. Le module système gère la table d'adresses générales du commutateur et assure la gestion du commutateur à l'aide du protocole SNMP. Pour transférer les trames entre les ports, une matrice de commutation est utilisée, similaire à celles trouvées dans les commutateurs téléphoniques ou les ordinateurs multiprocesseurs, connectant plusieurs processeurs avec plusieurs modules de mémoire.

La matrice de commutation fonctionne sur le principe de la commutation des canaux. Pour 8 ports, la matrice peut fournir 8 canaux internes simultanés en mode de port semi-duplex et 16 en mode duplex intégral, lorsque l'émetteur et le récepteur de chaque port fonctionnent indépendamment l'un de l'autre.

Lorsqu'une trame arrive sur un port, le processeur EPP met en mémoire tampon les premiers octets de la trame pour lire l'adresse de destination. Après avoir reçu l'adresse de destination, le processeur décide immédiatement de transférer le paquet, sans attendre l'arrivée des octets restants de la trame. Pour ce faire, il parcourt son propre cache de la table d'adresses, et s'il n'y trouve pas l'adresse recherchée, il se tourne vers le module système, qui fonctionne en mode multitâche, servant en parallèle les requêtes de tous les processeurs EPP. Le module système analyse la table d'adresses générales et renvoie la ligne trouvée au processeur, qu'il met en mémoire tampon dans son cache pour une utilisation ultérieure.

Après avoir trouvé l'adresse de destination, le processeur EPP sait quoi faire ensuite avec la trame entrante (tout en visualisant la table d'adresses, le processeur a continué à mettre en mémoire tampon les octets de trame arrivant au port). Si une trame doit être filtrée, le processeur arrête simplement d'écrire des octets de trame dans le tampon, efface le tampon et attend l'arrivée d'une nouvelle trame.

Si la trame doit être transmise à un autre port, le processeur se tourne vers la matrice de commutation et essaie d'y établir un chemin qui relie son port au port par lequel passe la route vers l'adresse de destination. La matrice de commutation ne peut le faire que si le port de destination est libre à ce moment-là, c'est-à-dire qu'il n'est pas connecté à un autre port.

Si le port est occupé, alors, comme pour tout périphérique à commutation de circuits, la matrice échoue la connexion. Dans ce cas, la trame est entièrement mise en mémoire tampon par le processeur du port d'entrée, après quoi le processeur attend la libération du port de sortie et la formation du chemin souhaité par la matrice de commutation.

Une fois le chemin correct établi, des octets de trame tamponnés lui sont envoyés et reçus par le processeur du port de sortie. Dès que le processeur du port de sortie accède au segment Ethernet connecté à l'aide de l'algorithme CSMA/CD, les octets de la trame sont immédiatement transférés sur le réseau. Le processeur du port d'entrée stocke en permanence plusieurs octets de la trame reçue dans sa mémoire tampon, ce qui lui permet de recevoir et de transmettre de manière indépendante et asynchrone des octets de trame (Figure 4.24).

Avec l'état libre du port de sortie au moment de la réception de la trame, le délai entre la réception du premier octet de la trame par le commutateur et l'apparition du même octet à la sortie du port d'adresse de destination n'était que de 40 µs pour le commutateur Kalpana, qui était bien inférieur au délai de trame lorsqu'il a été transmis par le pont.

12. 7 Transmission de trame à travers la matrice de commutation

La méthode décrite de transmission d'une trame sans mise en mémoire tampon complète est appelée "à la volée" ou "à la volée".

La réception des premiers octets de la trame par le processeur du port d'entrée, y compris la réception des octets d'adresse de destination.

Trouver l'adresse de destination dans la table d'adresses du commutateur (dans le cache du processeur ou dans tableau commun module système).

Commutation matricielle.

Réception des octets restants de la trame par le processeur du port d'entrée.

Recevoir les octets d'une trame (y compris la première) par le processeur du port de sortie à travers la matrice de commutation.

Le processeur du port de sortie accède à l'environnement.

Transmission des octets de la trame par le processeur du port de sortie vers le réseau.

Les étapes 2 et 3 ne peuvent pas être combinées dans le temps, car sans connaître le numéro du port de sortie, l'opération de commutation matricielle n'a pas de sens.

N.-É.

12. 8 Gain de temps lors du traitement par convoyeur du châssis : a - traitement par convoyeur ; b - traitement normal avec mise en mémoire tampon complète


en comparaison avec le mode de mise en mémoire tampon pleine trame, également illustré à la Fig. 12.8, les économies réalisées grâce au pipeline sont tangibles.

Cependant, la principale raison de l'amélioration des performances du réseau lors de l'utilisation d'un commutateur est parallèle traitement de plusieurs trames.

Étant donné que le principal avantage du commutateur, grâce auquel il a remporté de très bonnes positions dans les réseaux locaux, est sa haute performance, les développeurs des commutateurs essaient de le libérer de cette manière. dit non bloquant ( non - blocage ) changer de modèle .

Un commutateur non bloquant est un commutateur qui peut transmettre des trames via ses ports au même débit auquel elles arrivent. Naturellement, même un commutateur non bloquant ne peut pas résoudre pendant une longue période une situation où le blocage de trame se produit en raison d'une sortie limitée vitesse des ports.

Habituellement, ils désignent le mode non bloquant stable du commutateur, lorsque le commutateur transmet des trames au rythme de leur arrivée pendant une période de temps arbitraire. Pour assurer un tel mode, il faut bien entendu une telle répartition des flux de trames sur les ports de sortie afin qu'ils puissent faire face à la charge et que le switch puisse toujours, en moyenne, transmettre autant de trames aux sorties qu'il y en a. aux entrées. Si le flux de trames d'entrée (somme sur tous les ports) dépasse en moyenne le flux de trames de sortie (également sommé sur tous les ports), alors les trames s'accumuleront dans la mémoire tampon du commutateur, et si son volume est dépassé, il sera simplement être mis au rebut. état simple:

,


- les performances des commutateurs,
- performances maximales du protocole pris en charge i-ème port changer.

La performance totale du port compte deux fois chaque trame passante - en tant que trame entrante et en tant que trame sortante, et étant donné qu'en mode stable le trafic entrant est égal au trafic sortant, les performances de commutation minimales suffisantes pour prendre en charge le mode non bloquant sont la moitié de la performances totales du port. Si le port fonctionne en mode semi-duplex, par exemple Ethernet 10 Mbps, les performances du port
égal à 10 Mbps, et s'il est en full duplex, alors son
sera de 20 Mbps.

L'utilisation généralisée des commutateurs a sans aucun doute été facilitée par le fait que l'introduction de la technologie de commutation n'a pas nécessité le remplacement des équipements installés dans les réseaux - adaptateurs réseau, hubs, système de câble. Les ports de commutation fonctionnaient en mode semi-duplex normal, il était donc possible de connecter de manière transparente à la fois un nœud d'extrémité et un concentrateur qui organise tout un segment logique.

Étant donné que les commutateurs et les ponts sont transparents pour les protocoles de couche réseau, leur apparition sur le réseau n'a eu aucun effet sur les routeurs du réseau, le cas échéant.

La commodité d'utilisation du commutateur réside également dans le fait qu'il s'agit d'un appareil d'auto-apprentissage et, si l'administrateur ne le charge pas de fonctions supplémentaires, il n'est pas nécessaire de le configurer - il vous suffit de connecter correctement les connecteurs de câble à les ports du commutateur, puis il fonctionnera de manière indépendante et effectuera efficacement l'ensemble avant lui, la tâche d'améliorer les performances du réseau.

IGMP et bien d'autres, ainsi que la connaissance de la manière dont ces technologies peuvent être appliquées le plus efficacement possible dans la pratique.

Le livre "Building Switched Computer Networks" est apparu grâce à une coopération à long terme entre D-Link et la principale université technique du pays - MSTU im. N.E. Bauman. Le livre vise à une présentation approfondie de la théorie et la formation de connaissances pratiques. Il était basé sur le matériel de formation de la société D-Link, ainsi que sur des exercices pratiques menés au centre de formation D-Link - Université technique d'État de Moscou du nom de M.V. N.E.Bauman - D-Link et chaises " Systèmes informatiques et réseaux."

Le livre contient Description complète technologies fondamentales pour la commutation des réseaux locaux, exemples de leur utilisation, ainsi que les paramètres sur les commutateurs D-Link. Il sera utile aux étudiants étudiant dans le domaine « Informatique et Ingénierie informatique", étudiants diplômés, administrateurs réseau, spécialistes d'entreprise mettant en œuvre de nouvelles informatique , ainsi que toute personne intéressée par la modernité technologies de réseau et les principes de construction de réseaux commutés.

Les auteurs tiennent à remercier toutes les personnes impliquées dans la consultation, l'édition et la préparation des dessins pour le cours. Les auteurs expriment leur gratitude aux chefs du bureau de représentation de D-Link International PTE Ltd et MSTU im. N.E.Bauman, les spécialistes D-Link Pavel Kozik, Ruslan Bigarov, Alexander Zaitsev, Evgeny Ryzhov et Denis Evgrafov, Alexander Schadnev pour les consultations techniques ; Olga Kuzmina pour l'édition du livre ; Alesya Dunaeva pour son aide dans la préparation des illustrations. Les professeurs du M.V. N.E.Bauman Mikhail Kalinov, Dmitry Chirkov.

Conventions utilisées dans le cours

Les pictogrammes suivants sont utilisés dans le texte du cours pour indiquer Périphériques réseau différents types:

Syntaxe de commande

Les caractères suivants sont utilisés pour décrire comment entrer des commandes, valeurs attendues et arguments lors de la configuration du switch via l'interface ligne de commande(CLI).

symbole Rendez-vous
< équerres > Contient la variable ou la valeur attendue à spécifier
[ crochets] Contient une valeur requise ou un ensemble d'arguments requis. Une valeur ou un argument peut être spécifié
| barre verticale Sépare deux ou plusieurs éléments mutuellement exclusifs de la liste, dont l'un doit être entré/spécifié
{ croisillons} Contient une valeur facultative ou un ensemble d'arguments facultatifs

Évolution des réseaux locaux

L'évolution des réseaux locaux est inextricablement liée à l'histoire du développement de la technologie Ethernet, qui reste à ce jour la technologie de réseau local la plus répandue.

Initialement, la technologie LAN était considérée comme une technologie de partage de données rapide et rentable, espace disque et coûteux périphériques... Coût réduit Ordinateur personnel et la périphérie a conduit à leur utilisation généralisée dans les entreprises, et le nombre d'utilisateurs du réseau a considérablement augmenté. Parallèlement, l'architecture des applications ("client-serveur") et leurs besoins en ressources de calcul, ainsi que l'architecture de l'informatique ( informatique distribuée). Est devenu populaire réduction des effectifs(réduction des effectifs) - transfert systèmes d'information et les applications des mainframes aux plates-formes réseau. Tout cela a conduit à un changement d'orientation dans l'utilisation des réseaux : ils sont devenus un outil indispensable dans l'entreprise, fournissant le plus traitement efficace informations.

Dans les premiers réseaux Ethernet (10Base-2 et 10Base-5), une topologie en bus était utilisée, lorsque chaque ordinateur était connecté à d'autres appareils à l'aide d'un seul câble coaxial utilisé comme supports de transmission de données... L'environnement réseau était partagé et les appareils devaient s'assurer qu'il était libre avant de commencer à transmettre des paquets de données. Bien que ces réseaux soient faciles à installer, ils présentaient des inconvénients importants en termes de taille, de fonctionnalité et d'extensibilité, de manque de fiabilité et d'incapacité à faire face à l'augmentation exponentielle du trafic réseau. De nouvelles solutions étaient nécessaires pour améliorer l'efficacité des réseaux locaux.

L'étape suivante a été le développement de la norme 10Base -T avec une topologie "en étoile", dans laquelle chaque nœud était connecté avec un câble séparé à un appareil central - moyeu... Le concentrateur a travaillé sur niveau physique modèle OSI et répété les signaux provenant de l'un de ses ports vers tous les autres ports actifs, après les avoir restaurés. L'utilisation de hubs a amélioré la fiabilité du réseau, puisque une rupture d'un câble n'a pas causé de dysfonctionnement de l'ensemble du réseau. Cependant, malgré le fait que l'utilisation de hubs dans le réseau simplifiait les tâches de sa gestion et de sa maintenance, le support de transmission restait partagé (tous les appareils étaient dans le même domaine de collision). De plus, le nombre total de hubs et de segments de réseau qu'ils connectent était limité en raison de retards et d'autres raisons.

Tâche segmentation du réseau, c'est à dire. diviser les utilisateurs en groupes (segments) en fonction de leur emplacement physique afin de réduire le nombre de clients en compétition pour la bande passante a été résolu à l'aide d'un appareil appelé pont... Le pont a été développé par Digital Equipment Corporation (DEC) au début des années 1980 et était un dispositif de couche de liaison de données basé sur OSI (généralement à deux ports) pour connecter des segments de réseau. Contrairement à un hub, un pont ne se contente pas de transférer des paquets de données d'un segment à un autre, mais les analyse et ne les transmet que si un tel transfert est réellement nécessaire, c'est-à-dire l'adresse poste de travail destination appartenait à un segment différent. Ainsi, le pont a isolé le trafic sur un segment du trafic sur l'autre, réduisant le domaine de collision et augmentant le performance réseaux.

Cependant, les ponts n'étaient efficaces que tant que le nombre de postes de travail dans le segment restait relativement faible. Dès qu'elle augmentait, des congestions apparaissaient dans les réseaux (débordement des buffers de réception des périphériques réseau), ce qui entraînait des pertes de paquets.

L'augmentation du nombre d'appareils connectés au réseau, l'augmentation de la puissance de traitement des postes de travail, l'émergence d'applications multimédias et d'applications client-serveur ont nécessité plus de bande passante. En réponse à ces demandes croissantes, Kalpana a lancé le premier changer surnommé EtherSwitch.


Riz. 1.1.

Le commutateur était un pont multiport et fonctionnait également au niveau de la couche de liaison de données du modèle OSI. La principale différence entre le commutateur et le pont était qu'il pouvait installer plusieurs connexions en même temps entre différentes paires de ports. Lors de la transmission d'un paquet via un commutateur, un canal virtuel (ou réel, selon l'architecture) séparé y a été créé, à travers lequel les données ont été envoyées directement du port source au port de réception à la vitesse la plus élevée possible pour la technologie utilisée. Ce principe de fonctionnement est appelé "micro-segmentation"... Grâce à la micro-segmentation, les interrupteurs ont pu fonctionner en mode duplex intégral (

La technologie de commutation de segment Ethernet a été introduite par Kalpana en 1990 en réponse au besoin croissant d'augmenter la bande passante des serveurs hautes performances vers les segments de station de travail.

Schéma structurel L'EtherSwitch de Kalpana est illustré à la Fig. 4.23.

Riz. 4.23. La structure du switch EtherSwitch de la société Ka1rapa

Chacun des 8 ports 10Base-T est desservi par un processeur de paquets Ethernet (EPP). De plus, le commutateur dispose d'un module système qui coordonne le travail de tous les processeurs EPP. Le module système maintient la table d'adresses générales du commutateur et assure la gestion du commutateur en Protocole SNMP... Pour transférer les trames entre les ports, une matrice de commutation est utilisée, similaire à celles trouvées dans les commutateurs téléphoniques ou les ordinateurs multiprocesseurs, connectant plusieurs processeurs avec plusieurs modules de mémoire.

La matrice de commutation fonctionne sur le principe de la commutation des canaux. Pour 8 ports, la matrice peut fournir 8 canaux internes simultanés en mode de port semi-duplex et 16 en mode duplex intégral, lorsque l'émetteur et le récepteur de chaque port fonctionnent indépendamment l'un de l'autre.

Lorsqu'une trame arrive sur un port, le processeur EPP met en mémoire tampon les premiers octets de la trame pour lire l'adresse de destination. Après avoir reçu l'adresse de destination, le processeur décide immédiatement de transférer le paquet, sans attendre l'arrivée des octets restants de la trame. Pour ce faire, il parcourt son propre cache de la table d'adresses, et s'il n'y trouve pas l'adresse recherchée, il se tourne vers le module système, qui fonctionne en mode multitâche, servant en parallèle les requêtes de tous les processeurs EPP. Le module système analyse la table d'adresses générales et renvoie la ligne trouvée au processeur, qu'il met en mémoire tampon dans son cache pour une utilisation ultérieure.

Après avoir trouvé l'adresse de destination, le processeur EPP sait quoi faire ensuite avec la trame entrante (tout en visualisant la table d'adresses, le processeur a continué à mettre en mémoire tampon les octets de trame arrivant au port). Si une trame doit être filtrée, le processeur arrête simplement d'écrire des octets de trame dans le tampon, efface le tampon et attend l'arrivée d'une nouvelle trame.

Si la trame doit être transmise à un autre port, le processeur contacte la matrice de commutation et essaie d'y établir un chemin qui relie son port au port par lequel passe la route vers l'adresse de destination. La matrice de commutation ne peut le faire que si le port de destination est libre à ce moment-là, c'est-à-dire non connecté à un autre port.

Si le port est occupé, alors, comme pour tout périphérique à commutation de circuits, la matrice échoue la connexion. Dans ce cas, la trame est entièrement mise en mémoire tampon par le processeur du port d'entrée, après quoi le processeur attend la libération du port de sortie et la formation du chemin souhaité par la matrice de commutation.

Une fois le chemin correct établi, des octets de trame tamponnés lui sont envoyés et reçus par le processeur du port de sortie. Dès que le processeur en aval accède au segment Ethernet attaché à l'aide de l'algorithme CSMA/CD, les octets de la trame sont immédiatement transférés vers le réseau. Le processeur du port d'entrée stocke en permanence plusieurs octets de la trame reçue dans sa mémoire tampon, ce qui lui permet de recevoir et de transmettre de manière indépendante et asynchrone des octets de trame (Figure 4.24).

Riz. 4.24. Transmission de trame à travers la matrice de commutation

Avec l'état libre du port de sortie au moment de la réception de la trame, le délai entre la réception du premier octet de la trame par le commutateur et l'apparition du même octet à la sortie du port d'adresse de destination n'était que de 40 µs pour le commutateur Kalpana, qui était bien inférieur au délai de trame lorsqu'il a été transmis par le pont.

La méthode décrite de transmission de trame sans mise en mémoire tampon complète est appelée commutation "à la volée" ou "coupée". Cette méthode est en fait un traitement pipeline d'une trame, lorsque plusieurs étapes de sa transmission se chevauchent partiellement dans le temps (Fig. 4.25).

Riz. 4.25. Gain de temps dans le traitement des trames en pipeline : une- traitement par convoyeur ; b- traitement normal avec mise en mémoire tampon complète

1. Réception des premiers octets de la trame par le processeur du port d'entrée, y compris la réception des octets d'adresse de destination.

2. Recherche de l'adresse de destination dans la table d'adresses du commutateur (dans le cache du processeur ou dans la table générale du module système).

3. Commutation de la matrice.

4. Réception des octets restants de la trame par le processeur du port d'entrée.

5. Réception des octets de trame (y compris le premier) par le processeur du port de sortie à travers la matrice de commutation.

6. Accéder à l'environnement par le processeur du port de sortie.

7. Transfert des octets de trame par le processeur du port de sortie vers le réseau.

Les étapes 2 et 3 ne peuvent pas être combinées dans le temps, car sans connaître le numéro du port de sortie, l'opération de commutation matricielle n'a pas de sens.

Par rapport au mode de mise en mémoire tampon pleine trame, également illustré à la Fig. 4.25, les économies réalisées grâce au pipeline sont tangibles.

Cependant, la principale raison de l'amélioration des performances du réseau lors de l'utilisation d'un commutateur est parallèle traitement de plusieurs trames.

Cet effet est illustré sur la Fig. 4.26. La figure montre une situation idéale en termes d'amélioration des performances, lorsque quatre ports sur huit transmettent des données à une vitesse maximale de 10 Mb/s pour le protocole Ethernet, et ils transmettent ces données aux quatre autres ports du commutateur sans conflit - les flux de données entre les nœuds du réseau sont répartis de sorte que chaque port de réception possède son propre port de sortie. Si le commutateur parvient à traiter le trafic d'entrée même au débit maximal de trames entrantes vers les ports d'entrée, les performances totales du commutateur dans l'exemple donné seront de 4 * 10 = 40 Mbit / s, et en généralisant l'exemple pour N ports - (N/2) * l0 Mbit/s avec. On dit qu'un commutateur fournit à chaque station ou segment connecté à ses ports une bande passante de protocole dédiée.

Naturellement, la situation dans le réseau ne se développe pas toujours comme le montre la Fig. 4.26. Si deux stations, par exemple des stations connectées aux ports 3 et 4, en même temps, vous devez écrire des données sur le même serveur connecté au port 8, alors le commutateur ne pourra pas allouer un flux de données de 10 Mbps à chaque station, puisque le port 8 ne peut pas transférer de données à une vitesse de 20 Mbps. Les trames de station attendront dans les files d'attente internes des ports d'entrée 3 et 4, quand le port devient libre 8 pour transmettre la trame suivante. Évidemment, bonne décision pour une telle distribution de flux de données, il s'agirait d'une connexion du serveur à un port plus rapide, comme Fast Ethernet.

Riz. 4.26. Transmission de trame parallèle par le commutateur

Étant donné que le principal avantage du commutateur, grâce auquel il a remporté de très bonnes positions dans les réseaux locaux, est sa haute performance, les développeurs des commutateurs essaient de produire ce que l'on appelle non bloquant changer de modèle.

Un commutateur non bloquant est un commutateur qui peut transférer des trames via ses ports au même rythme qu'elles y arrivent. Naturellement, même un commutateur non bloquant ne peut pas résoudre pendant une longue période des situations comme celle décrite ci-dessus, lorsqu'un blocage de trame se produit en raison de la vitesse limitée du port de sortie.

Habituellement, ils désignent le mode non bloquant stable du commutateur, lorsque le commutateur transmet des trames au rythme de leur arrivée pendant une période de temps arbitraire. Pour assurer un tel mode, il faut bien entendu une telle répartition des flux de trames sur les ports de sortie pour qu'ils puissent faire face à la charge et que le switch puisse toujours, en moyenne, transmettre autant de trames vers les sorties qu'il en a. reçu aux entrées. Si le flux de trames d'entrée (somme sur tous les ports) dépasse en moyenne le flux de trames de sortie (également sommé sur tous les ports), alors les trames s'accumuleront dans la mémoire tampon du commutateur, et si son volume est dépassé, elles sont simplement jeté. Pour assurer le mode non bloquant du switch, une condition assez simple doit être remplie :

Cк = (∑ Cpi) / 2,

où Ck est la performance du commutateur, Cpi- productivité maximale protocole pris en charge par le i-ième port de commutateur. La performance totale du port compte deux fois chaque trame passante - en tant que trame entrante et en tant que trame sortante, et comme en mode stable le trafic entrant est égal au trafic sortant, les performances de commutation minimales suffisantes pour prendre en charge le mode non bloquant sont la moitié du total performances portuaires. Si le port fonctionne en mode half-duplex, par exemple Ethernet 10 Mbit/s, alors la performance du port Cpi est de 10 Mbit/s, et s'il est en mode full duplex, alors son Cpi sera de 20 Mbit/s.

On dit parfois que le commutateur prend en charge le mode non bloquant instantané. Cela signifie qu'il peut recevoir et traiter des trames de tous ses ports au débit de protocole maximal, que les conditions d'un équilibre stable entre le trafic entrant et sortant soient garanties ou non. Certes, le traitement de certaines trames dans ce cas peut être incomplet - lorsque le port de sortie est occupé, la trame est placée dans le tampon de commutation. Pour prendre en charge le mode instantané non bloquant, le switch doit avoir des performances natives plus élevées, c'est-à-dire qu'il doit être égal aux performances totales de ses ports :

Ce n'est pas un hasard si le premier commutateur LAN est apparu pour la technologie Ethernet. Outre la raison évidente associée à la plus grande popularité des réseaux Ethernet, il y avait une autre raison non moins importante - cette technologie souffre plus que d'autres de l'augmentation du temps d'attente pour accéder au support lorsque la charge du segment augmente. Par conséquent, les segments Ethernet dans les grands réseaux avaient principalement besoin d'un moyen de soulager les goulots d'étranglement du réseau, et cet outil était les commutateurs de Kalpana, puis d'autres sociétés.

Plusieurs entreprises ont commencé à développer une technologie de commutation pour améliorer les performances d'autres technologies LAN telles que Token Ring et FDDI. Ces commutateurs prenaient en charge à la fois le pontage transparent et le pontage acheminé par la source. L'organisation interne des switchs de différents constructeurs était parfois très différente de la structure du premier EtherSwitch, mais le principe de traitement parallèle des trames sur chaque port restait le même.

Large application les commutateurs, bien sûr, ont contribué au fait que l'introduction de la technologie de commutation n'a pas nécessité le remplacement des équipements installés dans les réseaux - adaptateurs réseau, concentrateurs, système de câble. Les ports de commutation fonctionnaient en mode semi-duplex normal, il était donc possible de connecter de manière transparente à la fois un nœud d'extrémité et un concentrateur qui organise tout un segment logique.

Étant donné que les commutateurs et les ponts sont transparents pour les protocoles de couche réseau, leur apparition sur le réseau n'a eu aucun effet sur les routeurs du réseau, le cas échéant.

La commodité d'utilisation du commutateur réside également dans le fait qu'il s'agit d'un appareil d'auto-apprentissage et, si l'administrateur ne le charge pas de fonctions supplémentaires, il n'est pas nécessaire de le configurer - il vous suffit de connecter correctement les connecteurs de câble à les ports du commutateur, puis il fonctionnera de manière indépendante et effectuera efficacement l'ensemble avant lui, la tâche d'améliorer les performances du réseau.


Informations similaires.


Changer

Changer(commutateur) - un appareil qui sélectionne l'un des options possibles directions de transfert de données.

Riz. 9.1 Apparence Commutateur 2000

Dans un réseau de communication, un commutateur est un système de relais (un système conçu pour la transmission de données ou la conversion de protocole) avec la propriété de transparence (c'est-à-dire que la commutation est effectuée ici sans aucun traitement de données). Le commutateur n'a pas de mémoire tampon et ne peut pas accumuler de données. Par conséquent, lors de l'utilisation d'un commutateur, les taux de transmission des signaux dans les canaux de transmission de données connectés doivent être les mêmes. Les processus de canal mis en œuvre par le commutateur sont exécutés par des circuits intégrés spéciaux. Contrairement à d'autres types de systèmes de relais, le logiciel n'est généralement pas utilisé ici.

Riz. 9.2 Structure du commutateur

Au début, les commutateurs n'étaient utilisés que dans les WAN. Ensuite, ils sont apparus sur les réseaux locaux, par exemple, les commutateurs de bureaux privés. Plus tard, les réseaux locaux commutés sont apparus. Les commutateurs de réseau local sont devenus leur noyau.

Switch (Switch) peut connecter des serveurs dans un cluster et servir de base pour combiner plusieurs groupes de travail. Il achemine les paquets de données entre les nœuds LAN. Chaque segment commuté accède au canal de transmission de données sans conflit et ne voit que le trafic qui est dirigé vers son segment. Le commutateur doit fournir à chaque port la possibilité de se connecter à vitesse maximum pas de concurrence d'autres ports (par opposition à un hub partagé). Les commutateurs ont généralement un ou deux ports haut débit et de bons outils de gestion. Vous pouvez remplacer un routeur par un commutateur, l'ajouter à un routeur empilable ou utiliser le commutateur comme base pour connecter plusieurs concentrateurs. Le commutateur peut être un excellent appareil pour acheminer le trafic entre les concentrateurs LAN groupe de travail et les serveurs de fichiers téléchargés.

Changer réseau local (réseau local switch) est un dispositif qui permet l'interaction entre des segments d'un ou d'un groupe de réseaux locaux.

Un commutateur LAN, comme un commutateur ordinaire, fournit une interaction entre les réseaux locaux qui lui sont connectés (Figure 9.8). Mais en plus de cela, il effectue la conversion des interfaces si elles se connectent Divers types segments du réseau local. Le plus souvent c'est Réseaux Ethernet, réseaux en anneau IBM, réseaux d'interface de données distribuées à fibre optique.

Riz. 9.1 Schéma de connexion des réseaux locaux aux commutateurs

La liste des fonctions exécutées par un commutateur LAN comprend :

Fournir une commutation de bout en bout ;

Disponibilité des installations de routage ;

Soutien protocole simple la gestion du réseau;

Imitation d'un pont ou d'un routeur ;

Organisation de réseaux virtuels;

Retransmission à grande vitesse des blocs de données.

Vous avez aimé l'article ? A partager entre amis :