Cours Réseaux
Cours Réseaux
Cours Réseaux
L’émetteur va coder l’information en une forme convenable à la transmission par la voie du canal de
communications. Le canal de communication transporte ce signal comme énergie électromagnétique
vers une ou plusieurs destinations (récepteurs). Le canal peut convertir cette énergie d’une forme à
une autre, comme d’un signal électrique à un signal optique, avec la conservation de l’information
afin que le récepteur puisse comprendre le message envoyer par l’émetteur.
Pour réussir les communications l’émetteur et le récepteur doivent se maitre d’accord sur une
méthode de véhiculer les données entre eux.
MDRB543
2
La forme des connexions physiques est définie par des standards d’interface, des accords de codage
sont appliqués au message et les règles qui contrôlent le débit et la détection et la correction des
erreurs sont appelées protocole.
Un exemple typique est le standard d’interface EIA/TIA-232-E. ça définie les composantes suivantes :
- Les caractéristiques du signal électrique : détermine les niveaux de tension valable, les
caractéristiques de la mise à la terre etc.
- Les caractéristiques mécaniques : détermine l’arrangement et l’affectation des pins du
connecteur
- Description fonctionnelle des circuits intermédiaires entre émetteur et récepteur
Il est à mentionner que le standard interface définie seulement les aspects électriques et mécanique
de l’interface entre des équipements sans savoir comment les données sont transférées entre eux.
1.2.2 Le codage
Une large variété de codes est utilisée en communication. L’ancienne communication par télégraphe
utilisait le code Morse avec des opérateurs humains comme émetteur et récepteurs. Le code Baudot
a introduit un codage de 5 bits de taille pour chaque caractère utilise des émetteurs récepteurs
mécaniques du télégraphe. Aujourd’hui les codages fréquemment utilisés sont EBCIDIC et l’ASCII.
MDRB543
3
Les protocoles peuvent être implantés dans n’importe quel type d’équipement soit sous forme
matérielle, soit sous forme logicielle.
Cela veut dire que les variations de la grandeur étudiée en fonction du temps peuvent être
représentées par une courbe. Celle-ci ne présente pas de discontinuité, c'est-à-dire de cassure ou de
brusque saut d’une valeur à un autre. Le signal en entrée d’une chaîne de transmission d’information
est typiquement un signal analogique, résultant de la mesure d’une grandeur physique avec un
capteur adapté : pression engendrée par une onde acoustique (voix ou son en général), température,
etc.
Un défaut d’un signal analogique est qu’il s’altère lors de sa transmission. D’autre part, un signal
analogique est difficile à traiter.
MDRB543
4
Concrètement, ces nombres sont codés sous la forme d’une suite de 1 et de 0. Pour un signal
électrique de type numérique, le 1 correspond à l’application d’une tension, le 0 est lié à une tension
basse, ou une absence de tension appliquée.
Au fur et à mesure que le signal se déplace le long d'un canal de communication, son amplitude
diminue à mesure que le milieu physique résiste au flux d'énergie électromagnétique. Cet effet est
appelé atténuation du signal. Avec les signaux électriques, certains matériaux tels que le cuivre sont
conducteurs efficaces de l’énergie électrique. Cependant, tous les conducteurs contiennent des
impuretés qui résistent au mouvement des électrons qui constituent le courant électrique. La
résistance des conducteurs provoque la conversion d'une partie de l'énergie électrique du signal en
énergie thermique à mesure que le signal progresse le long du câble, ce qui entraîne une dégradation
continue du signal électrique.
MDRB543
5
Une limite est fixée pour la longueur maximale du canal de communication. Ceci permet de garantir
que le signal atténué arrivant au récepteur est d'une amplitude suffisante pour être détecté de
manière fiable et correctement interprété. Si le canal est plus long que cette longueur maximale, des
amplificateurs ou des répéteurs doivent être utilisés à intervalles le long du canal pour restaurer le
signal à des niveaux acceptables.
L'atténuation du signal augmente à mesure que la fréquence augmente. Cela provoque une
distorsion des signaux composés de plusieurs fréquences. Ceci est illustré sur la figure 1.4 où les
temps de changement de valeurs des signaux atténués augmentent progressivement au fur et à
mesure que le signal se déplace à travers le canal, en raison de la plus grande atténuation des
composantes hautes fréquences.
MDRB543
6
Les signaux numériques sont constitués d'un grand nombre de composantes de fréquence, mais
seuls ceux dans la bande passante du canal pourront être reçus. Il s'ensuit que plus la bande passante
du canal est grande, plus le taux de transfert de données peut être élevé et plus de composantes
haute fréquence du signal numérique peuvent être transportées, et ainsi une reproduction plus
précise du signal transmis peut-être reçue.
MDRB543
7
Le débit de transfert de données maximum (C) du canal de transmission peut être déterminé à partir
de sa largeur de bande, en utilisant la formule suivante dérivée par Shannon.
𝐶 = 2𝐵𝑙𝑜𝑔 𝑀 {𝑑𝑏}
Où :
B : bande passante du canal en hertz
M : nombre de niveaux du signal
Dans le cas particulier où seuls deux niveaux, « ON » et « OFF » sont utilisés (binaire), M=2 et C=2B. A
titre d'exemple, le débit de transfert de données maximal pour un canal PSTN (réseau téléphonique
commuté publique) d'une largeur de bande de 3200 hertz transportant un signal binaire serait de 2 x
3200 = 6400 bps. Le taux de transfert de données réalisable est réduit à la moitié de 6400 en raison
du taux de Nyquist. Il est en outre réduit dans des situations pratiques en raison de la présence de
bruit sur le canal à environ 2400 bps à moins qu'un système de modulation ne soit utilisé.
1.4.3 Le bruit
Lorsque les signaux traversent un canal de communication, les particules atomiques et les molécules
du milieu de transmission vibrent et émettent des signaux électromagnétiques aléatoires sous forme
de bruit. La force du signal transmis est normalement grande par rapport au signal de bruit.
Cependant, au fur et à mesure que le signal traverse le canal et est atténué, son niveau peut se
rapprocher de celui du bruit. Lorsque le signal utile n'est pas significativement plus élevé que le bruit
de fond, le récepteur ne peut pas séparer les données du bruit et des erreurs de communication se
produisent. Un paramètre important du canal est le rapport entre la puissance du signal reçu (S) et la
puissance du signal de bruit (N). Le rapport S / N est appelé le rapport signal sur bruit, qui est
exprimé en Décibel :
Un rapport signal sur bruit élevé signifie que la puissance du signal utile est élevée par rapport au
niveau de bruit, ce qui se traduit par une réception de signal de bonne qualité. Le taux de transfert
MDRB543
8
de données maximal théorique pour un canal peut être calculé à l'aide de la loi de Shannon-Hartley,
qui stipule :
𝐶 = 𝐵𝑙𝑜𝑔 1 + 𝑆 𝑁 {𝑏𝑝𝑠}
Où :
C : Débit de données en bps
B : bande passante du canal en hertz
S et N : les puissances du signal et du bruit en watt
On peut voir à partir de cette formule que l'augmentation de la bande passante ou l'augmentation
du rapport signal sur bruit permettra des augmentations du débit de données, et qu'une
augmentation relativement faible de la bande passante équivaut à une augmentation beaucoup plus
grande du rapport signal sur bruit.
Les canaux de transmission numériques utilisent des largeurs de bande plus élevées et des répéteurs
ou régénérateurs numériques pour régénérer les signaux à intervalles réguliers et maintenir des
rapports signal / bruit acceptables. Les signaux dégradés reçus au régénérateur sont détectés, puis
resynchronisés et retransmis comme des répliques presque parfaites des signaux numériques
d'origine, comme le montre la figure 1.8. À condition que les rapports signal sur bruit soient
maintenus dans chaque liaison, il n'y a pas de bruit accumulé sur le signal, même lorsqu'il est
transmis sur des milliers de kilomètres.
Un canal simplex est unidirectionnel et permet aux données de circuler dans une seule direction,
comme le montre la figure 1.9. La radiodiffusion publique est un exemple de transmission simplex. La
station de radio transmet le programme diffusé, mais ne reçoit aucun signal de votre récepteur
radio.
MDRB543
9
Le Simplex est une utilisation limitée à des fins de transfert de données, car nous avons souvent
besoin d'un flux de données dans les deux sens pour contrôler le processus de transfert, accuser
réception des données, etc.
Half-duplex
La transmission semi-duplex nous permet d’établir une communication simplex dans les deux sens
sur un seul canal, comme le montre la figure 1.10. Ici, l’émetteur de la station « A » envoie des
données à un récepteur de la station « B ». Une procédure d’inversion de sens de transmission de
données à lieu chaque fois qu'une transmission est requise dans la direction opposée. L’émetteur de
la station « B » est alors activé et communique avec le récepteur de la station « A ».
Full-duplex
Un canal Full-duplex permet des communications simultanées dans les deux sens, comme le montre
la figure 1.11.
MDRB543
10
Afin de synchroniser leurs transmissions, les dispositifs d'émission et de réception doivent se mettre
d'accord sur la longueur des éléments de code à utiliser, appelée temps binaire. Le récepteur doit
extraire le signal d'horloge transmis codé dans le flux de données reçu. En synchronisant le temps
binaire de l’horloge du récepteur avec celui codé par l’émetteur, le récepteur est en mesure de
déterminer les bons moments pour détecter les transitions de données dans le message et recevoir
correctement le message. Les dispositifs aux deux extrémités d'un canal numérique peuvent se
synchroniser en utilisant une transmission asynchrone ou synchrone comme indiqué ci-dessous.
MDRB543
11
Au niveau du récepteur, le canal est échantillonné à un débit élevé, typiquement supérieur à 16 fois
le débit binaire du canal de données, pour détecter le bit de départ et sa durée (temps binaire).
Les bits de données sont ensuite déterminés par le récepteur échantillonnant le canal à des
intervalles correspondant aux centres de chaque bit transmis. Celles-ci sont estimées en retardant les
multiples du temps de bit à partir des centres du bit de départ. Pour une transmission série à huit
bits, cet échantillonnage est répété pour chacun des huit bits de données puis un échantillon final est
réalisé pendant le neuvième intervalle de temps. Cet exemple consiste à identifier le bit d'arrêt et à
confirmer que la synchronisation a été maintenue jusqu'à la fin de la trame. La figure 1.14 illustre le
processus de réception de données asynchrone.
MDRB543
12
MDRB543
13
C’est une topographie couramment employée en réseau local où l’équipement central est
généralement représenté par un répéteur – concentrateur ou hub – ou par un commutateur. Par
contre c’est une topologie peu employée.
Communications
Pour faire communiquer le serveur avec les stations il faut mettre en place des protocoles de
communication. On utilise ici une procédure dite polling-selecting. Le polling-selecting comporte
deux phases. Le polling (invitation à émettre), permet au site maître de demander à chaque station
(esclave), et dans un ordre prédéfini, si elle a des informations à émettre. On lui accorde alors,
provisoirement, le statut de maître et la station peut émettre vers le site central ou, si elle n’a rien à
émettre, « redonner la main » au site central qui passe le contrôle à une autre… Lors du selecting
(invitation à recevoir) la station maître demande au terminal esclave s’il est prêt à recevoir les
données qui lui sont destinées. Celui-ci interrompt sa tâche et reçoit les données. BSC est un ancien
protocole basé sur le polling selecting.
La topologie en étoile a l’avantage de la simplicité – ETTD reliés directement, gestion des ressources
centralisées… Si un ordinateur tombe en panne ou si un câble de liaison est coupé, un seul
ordinateur est affecté et le reste du réseau continue à fonctionner.
MDRB543
14
Elle présente théoriquement un inconvénient d’ordre économique car elle nécessite autant de voies
de liaisons que d’ETTD reliés au nœud central ce qui est générateur de coûts. De plus, si le site
central (hub ou switch en réseau local) tombe en panne c’est tout le réseau qui est hors service.
Communications
Dans la mesure où les données ne circulent que sur une voie commune, il ne peut y avoir qu’une
seule station en train d’émettre à un instant t, si on ne veut pas risquer la « cacophonie ». La
technique de la diffusion employée sur ces topologies consiste à émettre les données vers toutes les
stations. Seule, la station concernée, repérée par son adresse (Mac, NetBios… par exemple) «
écoutera » le message, les autres n’en tiendront pas compte. Si plusieurs ordinateurs émettent en
même temps il y a collision des paquets de données – c’est la contention. Nous reviendrons plus en
détail sur cette technique de la diffusion dont le protocole le plus connu et utilisé est CSMA/CD
(Carrier Sense Multiple Access with Collision Detection).
Dans la liaison en bus, la voie physique est optimisée et utilisée à moindre coût dans la mesure où
elle est unique. Des contraintes techniques limitent cependant le nombre de tronçons et d’ETTD. Les
stations ne peuvent pas communiquer en même temps, ce qui limite les temps de réponse et plus le
nombre de stations connectées augmente, plus les performances se dégradent du fait de
l’augmentation des collisions. Si un tronçon est défectueux, il y a perte de communication pour tous
les ETTD situés en deçà du tronçon.
MDRB543
15
du réseau. La topographie est donc en étoile. Une topographie double anneau FDDI existe
également.
Communications
L’accès des stations au réseau est réglementé par le passage d’un « relais » appelé jeton (Token).
Dans cette configuration, la station n’est autorisée à émettre, que si elle dispose du jeton. Si elle n’a
rien à émettre, elle passe le jeton à la suivante… Si elle veut émettre, elle met sur le circuit un en-tête
de message, le message et le jeton. Tous les participants au réseau sont à l’écoute, et s’il y a
concordance entre l’adresse de la station et l’adresse du destinataire du message, ce dernier copie le
message et le réinjecte dans la boucle avec un acquittement. Quand le message revient acquitté à
l’émetteur, il est supprimé de la boucle, sinon il continue à circuler un nombre limité de fois. Nous
reviendrons sur le principe du jeton lors de l’étude des modes d’accès.
Dans une liaison en anneau de type Token Ring, chaque station régénère le signal avant de passer le
relais à la suivante. Il s’agit ici d’une topologie active. En théorie, dans la mesure où jeton et trames
de données passent de machine en machine, le fait qu’un ordinateur de l’anneau tombe en panne
interrompt l’anneau. Dans la réalité des mécanismes permettent généralement de court-circuiter le
passage dans une machine en panne et de considérer qu’il s’agit simplement d’un tronçon plus long.
MDRB543
16
En général, de telles configurations sont réservées à la connexion d’ordinateurs entre eux, ainsi les
ordinateurs des réseaux de transport (Transpac, Oléane, routeurs Internet…) sont disposés en
configuration fortement maillée.
MDRB543
17
Si la fiabilité est nécessaire pour une application à temps critique, les WAN peuvent être considérés
comme peu fiables, car le retard dans la transmission des informations est varié et important. Pour
MDRB543
18
cette raison, les WAN ne peuvent être utilisés que si le logiciel de détection / correction d'erreurs
nécessaire est en place et si les délais de propagation peuvent être tolérés dans certaines limites.
Un problème potentiel est le fait que le trafic entre les réseaux partage tout le reste du trafic Internet
et donc toutes les communications entre les réseaux locaux sont visibles du monde extérieur. Ce
problème est résolu en utilisant des techniques de cryptage pour rendre toutes les communications
entre les LAN transparentes (c'est-à-dire illisibles) pour les autres utilisateurs d'Internet.
La connexion d'un appareil à un réseau local se fait via un nœud. Un nœud est tout point où un
périphérique est connecté et chaque nœud se voit attribuer un numéro d'adresse unique. Chaque
message envoyé sur le LAN doit être précédé de l'adresse unique de la destination. Tous les appareils
connectés aux nœuds surveillent également les messages envoyés à leurs propres adresses sur le
réseau. Les réseaux locaux fonctionnent à des vitesses relativement élevées (plage de Mbps et plus)
avec un support de transmission partagé sur une zone géographique (c'est-à-dire locale) assez petite.
Dans un LAN, le logiciel contrôlant le transfert des messages entre les appareils sur le réseau doit
faire face aux problèmes de partage des ressources communes du réseau sans conflit ni corruption
des données. Étant donné que de nombreux utilisateurs peuvent accéder au réseau en même temps,
certaines règles doivent être établies sur les appareils pouvant accéder au réseau, à quel moment et
MDRB543
19
dans quelles conditions. Ces règles sont couvertes par le thème général du contrôle d'accès aux
médias.
Lorsqu'un nœud a accès au canal pour transmettre des données, il envoie les données dans un
paquet (ou une trame), qui comprend, dans son en-tête, les adresses de la source et de la
destination. Cela permet à chaque nœud de recevoir ou d'ignorer des données sur le réseau.
MDRB543
20
L'avantage de la commutation de circuits est que les utilisateurs disposent d'un canal exclusif pour le
transfert de leurs données à tout moment pendant la connexion. L'inconvénient évident est le coût
de maintien de la connexion lorsqu'il y a peu ou pas de données transférées. De telles connexions
peuvent être très inefficaces pour les hauts débits de données typiques de nombreuses applications
informatiques.
Lorsque vous envoyez une lettre par la poste, vous postez l'enveloppe timbrée et adressée contenant
la lettre dans votre boîte aux lettres locale. À intervalles réguliers, la société de courrier collecte
toutes les lettres de votre localité et les emmène dans un centre de tri central où les lettres sont
triées en fonction des adresses de leurs destinations. Toutes les lettres pour chaque destination sont
envoyées dans des sacs postaux communs à ces emplacements, et sont ensuite livrées
conformément à leurs adresses. Ici, nous avons des économies d'échelle où de nombreuses lettres
sont transportées en même temps et sont livrées en une seule visite dans votre rue / localité.
L'efficacité est plus importante que la vitesse, et un certain retard est normal - dans des limites
acceptables.
Les messages à commutation de paquets sont divisés en une série de paquets d'une certaine taille
maximale, chacun contenant les adresses de destination et de source et un numéro de séquence de
paquet. Les paquets sont envoyés sur un canal de communication commun, éventuellement
entrelacé avec ceux d'autres utilisateurs. Tous les récepteurs sur le canal vérifient les adresses de
destination de tous les paquets et n'acceptent que ceux portant leur adresse. Les messages envoyés
en plusieurs paquets sont réassemblés dans le bon ordre par le nœud de destination.
Tous les paquets ne suivent pas nécessairement le même chemin. Au fur et à mesure qu'ils voyagent
sur le réseau, ils peuvent être séparés et traités indépendamment les uns des autres, mais
finalement arriver à leur destination correcte. Pour cette raison, les paquets arrivent souvent au
nœud de destination en désordre par rapport à leur séquence de transmission. Certains paquets
peuvent même être temporairement bloqués (stockés) sur un nœud, en raison de lignes
indisponibles ou de problèmes techniques pouvant survenir sur le réseau. Lorsque le moment est
venu, le nœud permet alors au paquet de passer ou d’être « retransmis ».
Dans un réseau local autonome, tous les paquets atteindront finalement leur destination.
Cependant, si le paquet doit être commuté sur A TRAVERSdes réseaux, c'est-à-dire sur un inter
réseau tel qu'un réseau étendu - alors une décision de routage doit être prise.
MDRB543
21
Deux approches peuvent être adoptées. Le premier est appelé service DATAGRAMME. L'approche
consiste à permettre à chaque paquet d'être acheminé indépendamment. L'adresse de destination
incorporée dans l'en-tête de données permettra d'effectuer le routage. Il n'y a aucune garantie
quand un paquet arrivera à sa destination, et ils peuvent très bien être hors séquence. Le principe est
similaire au service de messagerie. Vous pouvez envoyer quatre cartes postales mais rien ne garantit
qu'elles arriveront dans le même ordre que vous les avez envoyés. Si le destinataire n'a pas de
téléphone, il n'y a pas de méthode simple pour déterminer qu'il a effectivement été livré. Un tel
service est appelé un service NON FIABLE. Ce mot n'est pas utilisé dans son contexte quotidien, mais
fait plutôt référence au fait qu'il n'y a pas de mécanisme pour informer l'expéditeur que le paquet n'a
pas été livré. Le service est également appelé sans connexion.
La seconde approche consiste à établir une connexion entre l'émetteur et le récepteur, et à envoyer
tous les paquets de données le long de cette connexion ou CIRCUIT VIRTUEL. Bien que cela puisse
sembler être en conflit avec les déclarations précédentes sur la commutation de circuits, il devrait
être tout à fait clair que cela n'implique PAS qu'un circuit permanent soit dédié au flux de données en
un seul paquet. Au contraire, le circuit partage sa capacité avec d'autres trafics. Le point important à
noter est que la route que doivent suivre les paquets de données est prise en amont lorsque toutes
les décisions de routage sont prises. Les paquets de données suivent simplement cette route
préétablie. Ce service est appelé FIABLE et est également appelé service orienté connexion ou COS.
4.3.1 La contention
Dans un accès de type contention tel que CSMA (Carrier Sense Multi Access), associé aux réseaux
Ethernet, toutes les stations (Multi Access) sont à l’écoute (Sense) du réseau et une station peut
émettre si la porteuse (Carrier) est « libre ». Toutefois, il se peut que deux stations, écoutant si la
voie est libre, se décident à émettre au même instant, il y a alors contention – « collision » – des
messages émis. Pour résoudre le problème des collisions dues à des demandes simultanées d’accès
au réseau, on peut soit les détecter « après coup » : méthode CSMA/CD (CSMA with Collision
Detection) soit tenter de les prévenir : méthode CSMA/CA (CSMA with Collision Avoidance).
MDRB543
22
Le signal électrique sur la ligne va donc correspondre au cumul des deux émissions ce qui va
provoquer une « surtension ». L’adaptateur des stations S3 et S2 va détecter cette surtension et en
déduire que deux entrées sont en activité. Il va alors envoyer un signal indiquant la collision sur
toutes ses sorties (trame de « bourrage » ou trame jam). Toutes les stations vont détecter ce signal
particulier et arrêter leurs émissions. Au bout d’un laps de temps aléatoire l’émission sera reprise par
l’une quelconque des stations. Il est alors peu probable que les stations se décident à réémettre au
même instant et, si tel était le cas, le cycle d’attente reprendrait.
La méthode CSMA/CD est normalisée par l’ISO (International Standard Organization) sous la
référence 802.3. Il s’agit d’une méthode d’accès probabiliste, car on ne sait pas « à l’avance » quelle
station va émettre. C’est une méthode simple et donc très utilisée mais qui présente comme
inconvénient majeur un ralentissement des temps de communication, fonction de l’accroissement
des collisions ; autrement dit – fondamentalement – plus il y a de communications sur ce type de
réseau, plus il y a de risques de collisions et plus le ralentissement des transmissions est sensible.
Compte tenu de ces collisions le débit efficace est estimé avec cette méthode à environ 50-60 % du
débit théorique. L’emploi des commutateurs a permis d’éliminer presque totalement les collisions.
Citons pour mémoire quelques autres méthodes : TDMA (Time Division Multiple Access) ou AMRT
(Accès Multiples à Répartition dans le Temps) qui consiste à attribuer des tranches de temps fixes
aux différentes stations, CDMA (Code Division Multi Access), FDMA (Frequency Division Multi Access)
ou AMRF (Accès Multiples à Répartition de Fréquences) qui tend à disparaître, SRMA (Split-channel
MDRB543
23
Reservation Multi Access) ou autres GSMA (Global Scheduling Multiple Access)… méthodes utilisées
dans les réseaux locaux industriels ou en téléphonie mobile.
L’ancienne priorité à la demande (100 VG Anylan normalisé 802.12) n’est désormais plus
commercialisée.
4.3.4 Le jeton
Dans la technique du jeton (token), méthode d’accès déterministe normalisée ISO 802.5 et
développée par IBM pour son réseau Token-Ring, mais utilisable aussi avec un réseau en bus, la
station émet des informations sous forme de paquets de données normalisés, avec un en-tête, une
zone centrale (le message) et une fin. Dans l’en-tête, se trouve un bit particulier (le jeton), mis à 1 si
le réseau est occupé, et à 0 dans le cas contraire. La station qui souhaite émettre ne peut le faire que
si le jeton est libre. Chaque station reçoit le message à tour de rôle et en lit l’en-tête où figure
l’adresse du destinataire. Si le message ne lui est pas destiné, la station le régénère et le réexpédie.
MDRB543
24
Lorsque des appareils de plusieurs fabricants sont utilisés sur la même application, les problèmes
semblent se multiplier. Les réseaux qui sont spécifiques à un fabricant et qui fonctionnent avec des
connexions matérielles et des protocoles spécifiques sont appelés systèmes fermés. Habituellement,
ces systèmes ont été développés à un moment avant la normalisation ou lorsqu'il était considéré
comme improbable que des équipements d'autres fabricants soient inclus dans le réseau.
En revanche, les systèmes ouverts sont ceux qui sont conformes aux spécifications et aux directives,
qui sont «ouverts» à tous. Cela permet aux équipements de n'importe quel fabricant, qui prétend
être conforme à cette norme, d'être utilisés de manière interchangeable sur le réseau standard. Les
avantages des systèmes ouverts comprennent une plus grande disponibilité de l'équipement, des
prix plus bas et une intégration plus facile avec d'autres composants.
Il faut comprendre dès le départ que le modèle de référence OSI n'est pas un protocole ou un
ensemble de règles sur la manière dont un protocole doit être écrit, mais plutôt un cadre global dans
lequel définir des protocoles. Le cadre du modèle OSI définit spécifiquement et clairement les
fonctions ou services qui doivent être fournis à chacune des sept couches (ou niveaux).
Comme il doit y avoir au moins deux équipements pour communiquer, chaque couche semble
également converser avec sa couche homologue à l’autre extrémité du canal de communication dans
une communication virtuelle («logique»). Ces concepts d'isolement du processus de chaque couche,
associés aux interfaces standardisées et à la communication virtuelle peer-to-peer, sont
fondamentaux pour les concepts développés dans un modèle en couches tel que le modèle OSI. Le
concept de couches OSI est illustré à la figure 2.5.
MDRB543
25
Les fonctions réelles au sein de chaque couche sont fournies par des entités qui sont des dispositifs
abstraits, tels que des programmes, des fonctions ou des protocoles, qui exécutent les services pour
une couche particulière sur une seule machine. Une couche peut avoir plus d'une entité - par
exemple une entité de protocole et une entité de gestion. Les entités des couches adjacentes
interagissent à travers les limites supérieures et inférieures communes en passant des informations
physiques via des points d'accès aux services (SAP). Un SAP pourrait être comparé à une «boîte aux
lettres» prédéfinie dans laquelle une couche collecterait les données de la couche précédente. La
relation entre les couches, les entités, les fonctions et les SAP est illustrée à la figure 2.6.
Dans le modèle OSI, l'entité de la couche immédiatement supérieure est appelée entité N + 1 et
l'entité de la couche inférieure suivante N – 1. Les services disponibles aux couches supérieures sont
le résultat des services fournis par toutes les couches inférieures.
Les fonctions et les capacités attendues de chaque couche sont spécifiées dans le modèle.
Cependant, le modèle ne prescrit pas comment cette fonctionnalité doit être mise en œuvre. Le
modèle met l’accent sur «l’interconnexion» et sur les informations qui peuvent être transmises via
MDRB543
26
cette connexion. Le modèle OSI ne se préoccupe pas des opérations internes des systèmes
concernés.
Lors du développement du modèle OSI, un certain nombre de principes ont été utilisés pour
déterminer exactement combien de couches ce modèle de communication devrait englober. Ces
principes sont:
- Une couche doit être créée là où un niveau d'abstraction différent est requis
- Chaque couche doit remplir une fonction bien définie
- La fonction de chaque couche doit être choisie en réfléchissant à la définition de protocoles
normalisés au niveau international
- Les limites des couches doivent être choisies pour minimiser le flux d'informations à travers les
limites
- Le nombre de couches doit être suffisamment grand pour que des fonctions distinctes n'aient
pas besoin d'être réunies dans la même couche par nécessité et suffisamment petit pour que
l'architecture ne devienne pas lourde
L'utilisation de ces principes a conduit à la définition de sept couches dont chacune a reçu un nom en
fonction de son objectif de processus. Le diagramme ci-dessous montre les sept couches du modèle
OSI.
Le service fourni par n'importe quelle couche est exprimé sous la forme d'une primitive de service
avec les données à transférer comme paramètre. Une primitive de service est une demande de
service fondamentale faite entre protocoles. Par exemple, la couche W peut se trouver au-dessus de
la couche X. Si W souhaite appeler un service à partir de X, W peut émettre une primitive de service
sous la forme de X.Connect.request à X. Un exemple de primitive de service est présenté à la Figure
2.8. Les primitives de service sont normalement utilisées pour transférer des données entre les
processus d'un nœud.
MDRB543
27
En règle générale, chaque couche de l’émetteur, à l'exception de la plus basse, ajoute des
informations d'en-tête, ou des informations de contrôle de protocole (PCI), aux données avant de les
faire passer par l'interface entre les couches adjacentes. Cette interface définit les opérations et
services primitifs que la couche inférieure offre à la couche supérieure. Les en-têtes sont utilisés pour
établir les sessions d'égal à égal sur les sites et certaines implémentations de couche utilisent les en-
têtes pour appeler des fonctions et des services au niveau des couches adjacentes N + 1 ou N – 1.
Au niveau de l'émetteur, l'utilisateur appelle le système en transmettant des données, des noms de
primitives et des informations de contrôle à la couche la plus élevée de la pile de protocoles. Le
système transmet ensuite les données à travers les sept couches, ajoutant des en-têtes et appelant
des fonctions conformément aux règles du protocole. À chaque niveau, cette combinaison de
données et d’en-tête «paquet» est appelée unité de données de protocole ou PDU. Au niveau du
récepteur, l'inverse se produit avec les en-têtes supprimés des données lors de leur passage à travers
les couches.
À ce stade, il devrait être tout à fait clair qu'il n'y a AUCUNE connexion ou communication directe
entre les couches homologues du réseau. Au contraire, toutes les communications physiques se font
à travers la couche physique, ou la couche la plus basse de la pile. La communication est descendante
via la pile de protocoles sur la pile de transmission et vers le haut via la pile sur la pile de réception.
La Figure 2.9 montre l'architecture complète du modèle OSI, tandis que la Figure 2.10 montre les
effets de l'ajout de PCI aux PDU respectives à chaque couche.
MDRB543
28
- Application
Cette couche assure l'interface entre l'utilisateur et les services du réseau. On y trouve toutes
les applications cliente ou serveur connues : transfert de fichiers, courrier électronique, Web,
multimédia, etc.
Remarque : les programmes d'application réels de l'utilisateur ne résident PAS ici
- Présentation
MDRB543
29
Elle traite la syntaxe de l'information transmise. Elle assure l'encodage et/ou la compression
des données dans une norme agréée. Elle assure des conversions telles que celles des
protocoles d'utilisation de terminaux incompatibles entre eux, celles entre les différents
systèmes de fichiers ou encore celles des formats du courrier électronique.
- Session
Elle permet à des utilisateurs, opérant sur différentes machines, d'établir des sessions entre
eux. Une session a pour but le transport des données. Par rapport à la couche transport, elle
offre des services supplémentaires tels que :
o La gestion du dialogue ou du jeton : certains protocoles utilisent des jetons
(autorisation d'émission) que les machines d'un réseau peuvent s'échanger
o La synchronisation : cette technique consiste à insérer des éléments tests dans le flot
de données de manière à ne pas devoir reprendre la totalité d'une opération en cas
d'échec
- Transport
La gestion des communications entre les deux systèmes terminaux. Le traitement des
données de la couche session, découper ces données au besoin en petites unités ces petites
unités sont ensuite transmises à la couche réseau tout en s'assurant qu'elles sont parvenues
à destination.
- Réseau
Responsable du contrôle du réseau de communication. Les fonctions comprennent le
routage des données, l'adressage réseau, la fragmentation de gros paquets, la congestion et
le contrôle de flux.
- Liaison de données
Responsable de l'envoi d'une trame de données d'un système à un autre. Tente de s'assurer
que les erreurs dans le flux binaire reçu ne sont pas transmises au reste de la pile de
protocoles. Des techniques de correction et de détection d'erreurs sont utilisées ici
- Physique
Définit les connexions électriques et mécaniques au niveau physique, ou le canal de
communication lui-même. Les responsabilités fonctionnelles comprennent la modulation, le
multiplexage et la génération de signaux.
MDRB543
30
Les couches situées sous la couche de transport sont collectivement appelées couches de sous-
réseau. Selon la façon dont ils remplissent (ou non) leur fonction, la couche de transport doit
interférer moins (ou plus) afin de maintenir une connexion fiable.
Pour fournir les capacités requises pour le type de service applicable, plusieurs classes de protocoles
de couche transport ont été définies dans le modèle OSI :
MDRB543
31
- TP0 (protocole de transfert classe 0) C'est le protocole le plus simple. Il suppose un service de
type A ; c'est-à-dire un sous-réseau qui effectue la majeure partie du travail pour la couche de
transport. Parce que le sous-réseau est fiable, TP0 ne nécessite ni détection d'erreur ni
correction d'erreur. Parce que la connexion est orientée connexion, les paquets n'ont pas besoin
d'être numérotés avant la transmission
- TP1 (protocole de transfert classe 1) Il suppose un sous-réseau de type B ; c'est-à-dire qui peut ne
pas être fiable. Pour faire face à cela, TP1 fournit sa propre détection d'erreurs, ainsi que des
fonctionnalités permettant à l'expéditeur de retransmettre tout paquet erroné
- TP2 (protocole de transfert classe 2) Il suppose également un sous-réseau de type A. Cependant,
TP2 peut multiplexer les transmissions, de sorte que plusieurs connexions de transport peuvent
être maintenues sur la connexion réseau unique
- TP3 (protocole de transfert classe 3) Il suppose également un sous-réseau de type B. TP3 peut
également multiplexer les transmissions, de sorte que ce protocole a les capacités de TP1 et TP2
- TP4 (protocole de transfert classe 4) C'est le protocole le plus puissant, il émet des hypothèses
minimales sur les capacités ou la fiabilité du sous-réseau. TP4 est le seul des protocoles de
couche de transport OSI qui prend en charge le service sans connexion
- Déterminer les adresses ou traduire du matériel aux adresses réseau. Ces adresses peuvent être
sur un réseau local ou elles peuvent faire référence à des réseaux situés ailleurs sur un inter-
réseau. L'une des fonctions de la couche réseau est, en fait, de fournir les capacités nécessaires
pour communiquer sur un inter-réseau.
- Recherche d'un itinéraire entre une source et un nœud de destination ou entre deux
périphériques intermédiaires
- Établissement et maintien d'une connexion logique entre ces deux nœuds, pour établir une
communication sans connexion ou orientée connexion. Les données sont traitées et transmises
en utilisant la couche liaison de données sous la couche réseau. La responsabilité de garantir la
bonne livraison des paquets incombe à la couche transport, qui utilise les services de la couche
réseau
- Fragmentation de gros paquets de données en trames suffisamment petites pour être transmises
par la couche liaison de données sous-jacente (fragmentation). La couche réseau correspondante
au niveau du nœud récepteur entreprend le réassemblage du paquet
MDRB543
32
représentent également les protocoles les plus couramment utilisés au niveau des liaisons de
données.
Les groupes de travail sur les réseaux IEEE (802.x) ont détaillé la couche liaison de données en deux
sous-couches :
La sous-couche LLC doit fournir une interface pour les protocoles de la couche réseau et contrôler la
communication logique avec son homologue côté réception. La sous-couche MAC doit fournir l'accès
à un schéma de codage et de transport physique particulier
Les propriétés mécaniques et électriques du support de transmission sont définies à ce niveau. Ceux-
ci comprennent les éléments suivants :
- Le type de câble et de connecteurs utilisés. Le câble peut être coaxial, à paire torsadée ou à fibre
optique. Les types de connecteurs dépendent du type de câble
- Les affectations des broches pour le câble et les connecteurs. Les affectations des broches
dépendent du type de câble et également de l'architecture réseau utilisée
- Format des signaux électriques. Le schéma de codage utilisé pour signaler les valeurs 0 et 1 dans
une transmission numérique ou des valeurs particulières dans une transmission analogique
dépendent de l'architecture de réseau utilisée. La plupart des réseaux utilisent la signalisation
numérique et la plupart utilisent une forme de codage Manchester pour le signal
6 Protocole TCP/IP
6.1 PILE DE PROTOCOLES TCP/IP
TCP/IP (Transmission Control Protocol/Internet Protocol) a été développé à partir de 1969 sur la base
du projet DARPA (Defense Advanced Research Project Agency) de la défense américaine. Sa mise en
place réelle date des années 80 avec la mise en service du réseau scientifique – Arpanet – et son
implémentation dans les universités américaines. Son essor est intimement lié au développement
d’Internet, qui lui assure une reconnaissance mondiale et l’impose comme « standard de fait ».Il est
à présent adopté, à la fois sur des réseaux longue distance tel qu’Internet mais également comme
protocole de transport et de réseau dans une grande majorité des réseaux locaux d’entreprise.
MDRB543
33
TCP/IP ou la « pile TCP/IP » est en fait une « suite de protocoles », travaillant selon le modèle DOD
(Department Of Defense) qui recouvre les différentes couches du modèle ISO (International Standard
Organization) – notamment au niveau des couches réseau et transport. TCP/IP « englobe » ainsi un
certain nombre de protocoles tels que :
MDRB543
34
Afin de repérer les nœuds du réseau (host, station, routeur…), chacun doit être muni d’une adresse
IP. Chaque adresse IPv4 comporte 32 bits (4 octets) et est souvent représentée sous forme de 4 blocs
de trois chiffres décimaux, codant chacun les 8 bits de l’octet, ces chiffres étant séparés par des
points (notation dite en « décimal pointé »).
Ainsi 191.168.010.001 est une adresse IP qui s’écrit plus souvent 191.168.10.1.Elle correspond en fait
à une série de 4 octets (32 bits).
Cette série binaire a pour but fondamental de déterminer deux informations : l’identifiant du réseau
et l’identifiant de l’hôte.
Avec IPv4, les adresses sont organisées en cinq classes, dont trois classes principales, notées A, B et
C, les classes D et E étant d’un usage particulier.
La position du premier bit à 0 rencontré dans les bits de poids forts du premier octet d’adresse (le
plus à gauche) permet de déterminer la classe d’adressage. Si ce bit 0 est en première position c’est
une adresse de classe A, s’il est en deuxième position c’est une classe B, etc.
Ainsi, 191 comme valeur de premier octet d’adresse, donne en binaire 1011 1111. Le premier bit de
poids fort ayant la valeur 0 est en deuxième position, il s’agit donc d’une adresse de classe B.
Classe A : le premier octet repère l’adresse réseau. Le premier bit de cet octet étant à 0, on peut,
avec les 7 bits restants, définir, en théorie 128 (27) adresses de réseaux. En pratique, seules 126
seront exploitées (car l’adresse 0 est interdite et la plage 127.0.0.1 à 127.255.255.255 est réservée
aux tests). Les 3 octets qui restent permettent alors de définir en théorie 224 adresses possibles, soit
plus de 2 milliards d’adresses (126 x 16 777 216). Le nœud d’un réseau de classe A pourrait donc
avoir une adresse comprise, théoriquement, entre 1.0.0.0 et 126.255.255.255. Le masque associé par
défaut à une adresse de classe A est 255.000.000.000 souvent noté 255.0.0.0
Classe B : les deux premiers octets codent l’adresse réseau. Les deux premiers bits de la classe étant
forcés à 10 on peut avec les 14 bits qui restent (2 octets moins les 2 bits 10) définir en théorie 214
adresses réseaux comprenant chacun en théorie 216 adresses possibles de nœuds. Le nœud d’un
réseau de classe B peut donc avoir une adresse comprise, en théorie, entre 128.0.0.0 et
191.255.255.255. Le masque associé par défaut à une adresse de classe B est 255.255.000.000.
MDRB543
35
Classe C : les trois premiers octets codent l’adresse réseau. Les trois premiers bits de cette classe
étant forcés à 110, on peut définir avec les 21 bits restants (3 octets moins les 3 bits 110), 221 réseaux
comprenant en théorie 28 soit 256 machines. Le nœud d’un réseau de classe C peut donc avoir une
adresse comprise, en théorie, entre 192.0.0.0 et 223.255.255.255. Le masque associé par défaut à
une adresse de classe C est 255.255.255.000.
Le rôle du masque
Un masque (Subnet mask) de 4 octets est appliqué à l’adresse IP afin de distinguer la partie « réseau
» (net id) de la partie « nœud » (node id ou host id). La valeur 255 attribuée à un octet du masque
correspond à une série de 8 bits à 1 (1111 1111) et la valeur 000 à une série de 8 bits à 0 (0000 0000).
Pour trouver l’adresse réseau, le système procède à un ET logique (AND) entre le masque de réseau
et l’adresse IP.
En fait, si on considérait uniquement des réseaux et des stations, la connaissance de la classe suffirait
à distinguer la partie réseau de la partie station et le masque ne trouve sa pleine utilité qu’avec les
sous-réseaux et les adresses « classless » CIDR ainsi que nous allons le voir.
b) Le routage
La pile TCP/IP a été conçue dès l’origine pour interconnecter des réseaux physiques, au moyen de
composants : les routeurs. IP est donc un protocole « routable » ce qui n’est pas le cas de tous les
protocoles employés en réseaux locaux. C’est pourquoi l’adresse IP est composée d’une partie «
adresse réseau » et d’une partie « adresse hôte ».
- Remise directe ou routage direct si le datagramme IP est destiné à un nœud du même réseau.
Les deux machines situées sur le même réseau devant donc avoir la même adresse « réseau ». Il
suffit d’encapsuler le datagramme IP dans une trame puis de l’envoyer sur le lien physique ;
- Remise indirecte ou routage indirect si le routeur doit remettre le datagramme à un nœud d’un
autre réseau, reliés entre eux par des routeurs. Le poste doit donc savoir à quel routeur
(passerelle ou gateway) s’adresser. Le routeur devra savoir à son tour à quel éventuel autre
routeur envoyer les datagrammes… En effet, on ne diffuse pas les datagrammes vers tous les
MDRB543
36
routeurs disponibles sinon on arriverait très vite à une « explosion » du réseau. On doit donc
utiliser des tables de routage qui associent, à l’adresse IP du réseau, l’adresse IP du routeur
auquel est attaché ce réseau. Ces tables de routages peuvent être échangées entre routeurs
proches pour tenir compte des mises à jour éventuelles, ce qui peut être à l’origine d’un
accroissement du trafic sur le réseau.
Considérons par exemple un ensemble de trois réseaux de classe A. Nous distinguons ici des réseaux
dont les adresses réseau sont 11, 12 et 121. Rien n’interdit de donner, au sein de chacun de ces
réseaux, des adresses identiques aux stations. Par exemple l’adresse station 1.1.1 se retrouve aussi
bien dans le réseau 11 que dans le réseau 12.
Quand un message est expédié par la machine d’adresse 12.1.1.1 vers la machine d’adresse 12.3.1.2,
les deux machines ayant la même adresse réseau (12), le routeur ne sera pas sollicité. C’est la remise
directe ou routage direct. Par contre si la machine d’adresse 12.1.1.1 expédie un message vers la
machine 121.65.1.207, les deux machines sont dans des réseaux différents (12 d’une part et 121
d’autre part). Le routeur devra donc être sollicité et le message sera expédié (routé) par le routeur
vers le réseau 121 et lui seul (le réseau 11 n’étant pas concerné). C’est la remise indirecte ou routage
indirect.
La question que l’on est en droit de se poser c’est « qu’en est-il du routeur et comment sait-on s’il
faut s’adresser à lui ? » En fait c’est simple, le routeur n’est qu’un nœud particulier disposant de
plusieurs interfaces (une « patte » dans chacun des réseaux) munies d’adresses IP. Cette interface est
aussi désignée sous le nom de « passerelle » (gateway) et chaque station d’un réseau doit disposer
d’une adresse de passerelle si elle veut pouvoir communiquer avec d’autres réseaux. En comparant,
après application du masque de réseau, l’adresse réseau de destination avec l’adresse réseau locale,
l’émetteur va savoir si le datagramme doit être transmis au réseau auquel il appartient (même
adresse de réseau donc remise directe) ou envoyé au routeur (adresses de réseaux différentes donc
remise indirecte). Le routeur se chargeant éventuellement de l’expédier vers une éventuelle autre
passerelle…
Dans un réseau privé (particulier, entreprise…) on peut théoriquement utiliser n’importe quelle
adresse IP. Cette adresse peut être définie de manière statique et arbitraire ou attribuée
automatiquement à l’aide d’un serveur d’adresses IP dit DHCP (Dynamic Host Configuration
Protocol).
Toutefois, si un nœud doit être mis en relation avec des machines extérieures, il faut lui attribuer (ou
lui faire correspondre… cf. ci-après Translation d’adresses) une adresse publique unique qu’aucune
autre machine au monde ne doit posséder. Ainsi, quand on configure un serveur Web pour Internet,
on ne lui attribue pas n’importe quelle adresse IP. Ces adresses publiques sont attribuées par un
MDRB543
37
organisme spécifique InterNIC (Inter Network Information Center) ou l’un de ses « représentants » –
AFNIC (Association Française pour le Nommage Internet en Coopération) …. Pour l’utilisateur qui
accède à Internet par le biais d’un FAI (Fournisseur d’Accès Internet) ou ISP (Internet Service
Provider), c’est ce dernier qui dispose réellement d’une adresse Internet et non pas le client. Ce
dernier ne fait en général que de l’accès distant sur une machine du FAI qui lui attribue,
provisoirement, le temps de la session ou un peu plus, une adresse IP affectée par un serveur DHCP
(Dynamic Host Configuration Protocol).
L’établissement de la connexion se fait selon une technique de négociation ternaire dite three ways
handshake (poignée de main en trois temps) :
Afin de gérer simultanément plusieurs transmissions TCP utilise des ports virtuels représentés par
des numéros de port. On peut théoriquement utiliser 65 536 ports. Ces ports peuvent être définis
par l’utilisateur ou « standards ». Ainsi le port 80 est traditionnellement celui utilisé lors des
MDRB543
38
échanges HTTP utilisés avec Internet. Mais dans un environnement sécurisé (proxy, firewall…) ce port
pourra être différent.
L’adresse unique d’un point d’entrée TCP dans une station est ainsi obtenue par la concaténation de
l’adresse Internet IP avec le numéro du port utilisé, le tout constituant un « socket ». Ce socket doit
être unique dans l’ensemble du réseau (par exemple 10.100.3.105:80 correspond au point d’entrée
des applications HTTP sur la machine 10.100.3.105). Une connexion de base est donc définie par un
couple de sockets, un pour l’émetteur et un pour le récepteur.
Les paquets vont ensuite être envoyés et TCP va s’assurer de leur bonne réception au travers
d’acquittements (ACK – Acknowledgment), échangés entre participants. TCP garantit également la
livraison « séquencée » – dans le bon ordre – des paquets et assure le contrôle par checksum
(vérification de l’intégralité de l’entête TCP) des données et en-têtes. De ce fait, si un paquet est
perdu ou endommagé lors de la transmission, TCP en assure la retransmission. Il permet également
de gérer le multiplexage des paquets, ce qui permet d’assurer le téléchargement d’un fichier tout en
consultant simultanément des informations d’un site Internet.
6.2 Ethernet
Ethernet est actuellement « le standard » utilisé sur les réseaux locaux de gestion. Token Ring a
quasiment disparu.
MDRB543
39
Les organismes IEEE (Institute of Electrical and Electronic Engineers) et ISO (International Standard
Organization) ont intégré ces modèles dans un ensemble de normes référencées IEEE 802.2 et IEEE
802.3 ou ISO 8802.2 et ISO 8802.3. Ethernet est donc devenu un standard et c’est actuellement
l’architecture de réseau la plus répandue.
La norme IEEE 802, qui fait référence en matière de réseau Ethernet, introduit une division de la
couche Liaison de données (niveau 2 ISO « couche Ligne ») en deux sous-couches.
MDRB543
40
La sous-couche MAC (Media Access Control) correspond à la couche inférieure de cette division du
niveau 2 et communique donc : d’un côté directement avec le niveau physique (niveau 1 ISO) – d’où
l’appellation de contrôle d’accès au média se matérialisant au travers de l’adaptateur (interface,
carte…) réseau ; et de l’autre côté avec la sous-couche LLC. La sous-couche MAC assure le formatage
des trames à transmettre et doit aussi assurer la remise des données entre deux stations du réseau.
Elle répond à diverses normes en fonction du mode d’accès utilisé :
- 802.3 CSMA/CD ;
- 802.4 Bus à jeton ;
- 802.5 Anneau à jeton ;
- 802.12 Priorité à la demande…
La plus répandue de ces normes est sans nul doute la 802.3 qui correspondent au mode d’accès
CSMA/CD utilisé dans la plupart des architectures Ethernet.
L’adaptateur réseau intègre en mémoire morte, une adresse unique, adresse matérielle ou adresse
MAC (Media Access Control) composée de 6 octets (48 bits). Les 3 premiers octets, attribués par
l’IEEE identifient le constructeur, tandis que les 3 suivants identifient l’adaptateur. La sous-couche
MAC est chargée de faire le lien des couches supérieures avec cette adresse.
La sous-couche LLC (Logical Link Control), ou contrôle des liens logiques, située au-dessus de la
couche MAC est chargée de gérer les communications en assurant le contrôle du flux de données et
des erreurs. Elle communique avec la couche MAC d’un côté et avec la couche Réseau (niveau 3 ISO)
d’un autre. La sous-couche LLC définit l’usage de points d’interface logique SAP (Service Access Point)
qui correspondent en quelque sorte à des adresses utilisées pour communiquer entre les couches de
la pile OSI. On rencontre, ainsi dans les trames Ethernet définies par l’IEEE 802 (RFC 1042), une zone
DSAP (Destination Service Access Point) et une zone SSAP (Source Service Access Point),
correspondant aux adresses de destination et d’origine de la trame.
Les données du niveau LLC se présentent sous la forme d’un LPDU (LLC Protocol Data Unit), structuré
comme indiqué dans la figure suivante. La trame LLC est ensuite encapsulée dans la trame de niveau
inférieur (trame Ethernet de niveau MAC). Le LPDU correspond donc au champ de données de la
trame Ethernet-MAC.
MDRB543
41
La norme IEEE 802.3 a été reprise par l’ISO sous la référence ISO 8802.3 et décrit les caractéristiques
des réseaux Ethernet. On rencontre ainsi les principales variantes suivantes, données ici avec leurs
références IEEE.
Ethernet à 10 Mbit/s
o IEEE 802.3 – 10 Base-2 Ethernet 10 Mbit/s coaxial fin – coaxial brun dit
également Thin Ethernet, portée de 185 m ;
o IEEE 802.3 – 10 Base-5 Ethernet 10 Mbit/s coaxial épais – coaxial jaune dit
aussi Thick Ethernet, portée de 500 m ;
o IEEE 802.3 – 10 Base-T Ethernet 10 Mbit/s paire torsadée (Twisted pair),
portée de 100 m (non blindé) à 150 m (blindé) ;
o IEEE 802.3 – 10 Base-F Ethernet 10 Mbit/s fibre optique (Fiber optic), portée
usuelle d’environ 1 200 m mais pouvant dépasser 4 000 m…
Ethernet à 100 Mbit/s
o IEEE 802.3 – 100 Base-T Ethernet 100 Mbit/s paire torsadée (Twisted pair), dit
également Fast Ethernet, portée de 100 m (non blindé) à 150 m (blindé) ;
o IEEE 802.3u – 100 Base-T4 câble 4 paires – blindé ou non – catégorie 5, portée
de 100 m (non blindé) à 150 m (blindé) ;
o IEEE 802.3u – 100 Base-TX câble 2 paires – blindé ou non, portée de 100 m (non
blindé) à 150 m (blindé) ;
o IEEE 802.3u – 100 Base-FX fibre optique 2 brins, portée usuelle d’environ 1 200
m mais pouvant dépasser 4 000 m.
On ne rencontre pas de carte Ethernet 100 Mbit/s offrant un port BNC qui permette de se connecter
sur du câble coaxial.
Ethernet à 10 Gbit/s ou 10 GE
o IEEE 802.3 ae – 10 G-Base SR portée de 65 m sur fibre multimode pour l’inter connexion
d’équipements proches ;
MDRB543
42
Ethernet radio
o IEEE 802.11 – 10 Base-X Ethernet de 11, 54 ou 540 Mbit/s par voie radio (802.11b,
802.11a, 802.11g et 802.11n), portée de quelques centaines de mètres suivant
l’environnement.
Ethernet transporte les données sur des trames de longueur variable (de 64 octets au minimum à
1531 octets selon le type). La taille des données transportées (charge utile ou payload) varie quant à
elle de 46 à 1 500 octets maximum par trame et ce quel que soit le type de trame Ethernet employé.
Précisons que certains constructeurs proposent l’usage de trames Jumbo Frames – non normalisées
– pouvant atteindre environ 9 Ko.
- Trame Ethernet 802.2 : employé avec le protocole IPX/SPX mais aussi avec le protocole de
transfert FTAM (F ile Transfert Access and Management). Dans cette trame, 2 octets indiquent la
longueur du champ de données contenu dans la trame. Ils sont suivis de 3 octets contenant l’en-
tête LLC. Le premier de ces octets est le DSAP (Destination Service Access Point) et indique le
type de protocole utilisé par le poste source. Le deuxième est le SSAP (Source Service Access
Point) et le troisième joue le rôle de pointeur de contrôle.
- Trame Ethernet SNAP : (Subnetwork Access Protocol) qui accepte les protocoles IPX/SPX, TCP/IP
et Apple Talk. Dans cette trame, 2 octets indiquent ici la longueur du champ de données et sont
suivis des 3 octets d’en-tête LLC ainsi que de 2 octets codant l’en-tête SNAP
MDRB543
43
- Trame II ou V2 : la plus couramment employée. Elle fonctionne comme l’Ethernet SNAP mais se
différencie au niveau d’un des champs de la trame. Dans la trame Ethernet II, 2 octets suivant les
adresses indiquent le type de trame, ce qui permet d’identifier le protocole réseau utilisé IP ou
IPX. Les valeurs couramment rencontrées sont 0800h pour une trame IP, 0806h pour une trame
ARP, 0835h pour une trame RARP et 809Bh pour une trame AppleTalk.
7.1 Introduction
7.1.1 Définition
Un réseau local industriel (RLI) est un système de communication entre plusieurs équipements de
type industriel (capteurs, automates, actionneurs, ...) dans une zone géographique limitée (un «
terrain »). On parle aussi de « bus de terrain » ou de « réseau de terrain ».
Il existerait plus de 2000 bus de terrain différents ! Les technologies les plus répandues sont :
Modbus, Profibus, ASI et le bus CAN.
- Robustesse du support de transmission et/ou des signaux électriques mis en jeu vis à vis des
perturbations électromagnétiques (Couche 1 du modèle OSI)
- Une robustesse physique (poussières, chocs, températures, atmosphères explosives, vibrations)
robustesse du support de transmission (Couche 1 du modèle OSI)
MDRB543
44
- Une réponse en temps limité : Modes d'accès au médium favorisant des temps de réponse
déterministes (Couche 2 du modèle OSI)
MDRB543
45
Le bus de Terrain est donc basé sur une restriction du modèle I.S.O. à 3 couches : application, liaison
et physique.
Historiquement, Modbus a été développé pour le milieu industriel sur des lignes séries (RS232,
RS485), puis avec l'essor des réseaux informatiques sur Ethernet.
a) La trame modbus
La longueur totale de la trame PDU ne peut excéder 253 octets (pour des raisons de compatibilité
des échanges entre les modes série et TCP). La longueur champ de données peut être comprise entre
0 et 252 octets.
Modbus définit une trame de base baptisée « PDU » (« Protocol Data Unit ») indépendante du type
de protocole considéré (série ou TCP).
MDRB543
46
La trame Modbus complète, « ADU » (Application Data Unit ») comportera en plus les informations
d'adressage et de détection d'erreur propres au média de communication envisagé (série ou TCP).
Les données pouvant êtres échangées en modbus sont illustrées dans la table suivante :
Les adresses des objets Modbus sont codées sur 16 bits, ce qui autorise 65536 objets de chaque type
possible par équipement accessibles via Modbus.
C'est à chaque fabriquant de matériel de définir les plages d'adresses pour chacun de ces segments
de données, ceux-ci pouvant tout aussi bien être disjoints que confondus. Les adresses Modbus PDU
commencent à 0, chaque fabriquant spécifie via une table de correspondances les adresses
correspondantes des objets accessibles de son équipement.
MDRB543
47
MDRB543
48
Tout d'abord, un mode appelé « diffusion » (« Broadcast ») permet au maître (client) de s'adresser à
l'ensemble des esclaves (serveurs) présents sur le bus en envoyant une requête à l'adresse 0. D'autre
part, un certain nombre de fonctions de diagnostique ne sont implantées que sur Modbus série.
En plus des champs définis par la couche applicative de Modbus (code fonction et données), Les
trames Modbus série incluent :
La couche physique de Modbus série obéit à l'une des 2 normes RS232 ou RS485.
b) RS485 : permet l’échange entre un maître et plusieurs esclaves à une distance qui peut aller
jusqu’à 120 m et des niveaux de tension de 0/5v par rapport à la masse.
MDRB543
49
Deux variantes du protocole Modbus série coexistent, qui se différencient au niveau de la couche
liaison de données : modbus RTU et Modbus ASCII. L'implantation Modbus RTU est obligatoire sur un
composant Modbus série; celle de Modbus ASCII étant facultative.
Les trames sont séparées par des intervalles de « silence » de durée au moins égale à 3,5
caractères hexadécimaux.
Dans le cas du mode RTU, le champ contrôle d’erreur CRC (Cyclical Redundancy Check) sert à
s’assurer de l’intégrité des données reçues. Le CRC contient une valeur codée sur 16 bits.
MDRB543
50
Le port 502 est réservé aux communications Modbus. L'équipement serveur « écoute » donc sur ce
port pour recevoir les requêtes émises par le client. Celles-ci sont émises par le client sur un port
>1024.
MDRB543
51
La trame Modbus TCP est constituée d'une trame Modbus-TCP précédée d’un en-tête baptisée «
MBAP Header ». L'absence de champ de contrôle propre à la trame Modbus-TCP s'explique par le fait
que celui-ci est déjà réalisé par la couche 2 d'Ethernet.
Le contrôle sur chacun de ces champs pour un client et un serveur est récapitulé dans le tableau
suivant :
MDRB543
52
9 Profibus et profinet
Profibus est un protocole de communication basé sur les profils d'équipements. A son origine,
Siemens, un des leaders mondiaux de l'automatisme. Profibus demeure néanmoins un réseau ouvert
regroupant un grand nombre de fabricants membre de l'association: Plusieurs déclinaisons de ces
protocoles coexistent (Profibus DP, profibus PA, Profibus FMS, Profinet) sur différents supports
(RS485, FO, Ethernet...)
9.1 Profibus
Le nom Profibus signifie PROcessFIeld BUS. Deux variantes de Profibus ont été développées pour
l’automatisation de la fabrication et des processus : Profibus DP (Decentralized Periphery –
Périphérie décentralisée) et Profibus PA (Process Automation – Automatisation de processus). Les
deux variantes diffèrent en termes de câble, de configuration des fiches et d’interface.
MDRB543
53
Cette technologie a été spécialement conçue pour une utilisation dans l'automatisation de
processus pour PROFIBUS PA.
PROFIBUS DP utilise un câble blindé à deux conducteurs avec une gaine violette et fonctionne à des
vitesses comprises entre 9,6 kbits / s et 12 Mbit / s. Une vitesse particulière peut être choisie pour un
réseau pour donner suffisamment de temps pour la communication avec tous les appareils présents
dans le réseau. Si les systèmes changent lentement, une vitesse de communication inférieure est
appropriée, et si les systèmes changent rapidement, une communication efficace se produira grâce à
une vitesse plus rapide. La transmission symétrique RS485 utilisée dans PROFIBUS DP permet de
connecter seulement 31 appareils à la fois ; cependant, plus d'appareils (jusqu'à 126) peuvent être
connectés ou le réseau étendu avec l'utilisation de concentrateurs ou de répéteurs (4 concentrateurs
ou répéteurs pour atteindre 126). Un concentrateur ou un répéteur est également compté comme
un appareil.
PROFIBUS PA fonctionne à une vitesse fixe de 31,25 kbits / s via un câble blindé à deux conducteurs à
gaine bleue. La communication peut être initiée pour minimiser le risque d'explosion ou pour les
systèmes qui nécessitent intrinsèquement un équipement sûr. Les formats de message dans
PROFIBUS PA sont identiques à PROFIBUS DP.
La couche de sécurité FDL (Field bus Data Link) fonctionne avec une méthode d'accès hybride qui
combine le passage de jetons avec une méthode maître-esclave. Dans un réseau PROFIBUS DP, les
contrôleurs ou les systèmes de contrôle de processus sont les maîtres et les capteurs et actionneurs
sont les esclaves.
Chaque octet est sécurisé avec une parité paire et transféré de manière asynchrone avec un bit de
démarrage et d'arrêt. Il ne peut y avoir de pause entre un bit d'arrêt et le bit de démarrage suivant
lorsque les octets d'un télégramme sont transmis. Le maître signale le début d'un nouveau
télégramme avec une pause SYN d'au moins 33 bits ("1" logique = bus inactif).
Plusieurs maitres peuvent accéder aux esclaves, l’accès aux esclaves est par le passage de jetons
entre maitres.
Pour la gestion de l’anneau logique chaque station active mémorise trois paramètres :
MDRB543
54
- LAS (List of Avctive Station): c’est une liste commune de toutes les adresses des stations
actives sur le réseau constituée pendant l’état d’écoute du jeton après mise sous tension.
- GAPL (GAP List) : liste spécifique à chaque station active, contenant les adresses manquantes
entre cette station et la prochaine dans l’anneau.
- Live List : liste commune des adresses de toutes les stations actives et passives présentes sur
le réseau.
Cycliquement à chaque jeton une station active met à jour sa GAPL par une FDL-request d’un numéro
prélevé dans la GAPL.
- HSA (Highest station adress): l’adresse la plus élevée qu’une station active peut avoir, une
station passive peut avoir une adresse supérieure (2..126)
- TS : adresse physique de cette station (0..126)
- RETRY_CTR (compteur de répétition) : Nombre de répétition du télégramme en absence de
réponse (1..8)
- TSL (Time Slot) : temps d’attente de réception (<2ms)
- TSET (temps mort) : le temps qui peut s’écouler en un événement (par exemple : la réception
d’un caractère ou l’écoulement d’un temps interne de surveillance) et la réaction à cet
événement (1..255bits/s)
- MIN-TSDR : délais minimum entre la réception du dernier bit d’un télégramme et l’émission
du premier bit du télégramme suivant (10..65535bits/s)
- MAX-TSDR : délais maximum entre la réception du dernier bit d’un télégramme et l’émission
du premier bit du télégramme suivant
- TTR (Target Rotation time : temps de rotation du jeton) : ce paramètre a une influence
critique sur les performances du système. Cette valeur détermine le temps maximum de
rotation du jeton pour toutes les stations active présente sur l’anneau logique. Lors de la
réception du jeton, ce temps est comparé avec le temps de cycle effectivement écoulé. Selon
le résultat de cette comparaison, le système détermine si la station considérée peut expédier
des télégrammes (les messages de type Prioritaires prédominent)
MDRB543
55
- GAP Factor (Facteur d’actualisation de liste) : période d’émission d’une invitation pour une
nouvelle station à se connecter sur le bus
La trame Profibus
La transmission de chaque trame est précédée d’une attente de synchronisation égale à 33 temps
bits à ‘1’ (1Tbit= 83ns pour 12Mbit/s). La transmission est asynchrone sur 11 bits : 1 bit Start, 1 bit
Stop, 8 bits data et un bit de parité (paire).
Le télégramme de réponse est du même format que la trame émise ou du format cour sur un octet
d’acquittement selon le type de télégramme
MDRB543
56
Pour utiliser ces fonctions, différents niveaux de service du protocole DP ont été définis :
1. DP-V0 : pour l'échange cyclique de données et le diagnostic, lors qu’un maitre DP procède le
jeton il effectue les actions suivantes :
a. Accès cyclique (polling) en lecture/écriture de tous les esclaves
b. Accès acyclique à tout esclave en configuration/diagnostique selon son état remonté
précédemment
c. Recherche d’une autre station maître (FDL_Request)
d. Circulation du jeton dans l’anneau logique
2. DP-V1 : pour l'échange acyclique de données et la gestion des alarmes, lors qu’un maitre DP
procède le jeton il effectue les actions suivantes :
a. Le cycle DP-V0
b. Accès acyclique sur demande à tout esclave individuellement
c. Paramétrage, exploitation, visualisation des alarmes (alarme d’état, de mise à jour de
constructeur) des appareils de terrain intelligents.
Le fichier GSD
Tout équipement profibus DP est caractérisé par un fichier de configuration contenant les
caractéristiques de cet équipement (E/S, vitesse,…) maître ou esclave, fichier GSD (Generic Station
Description)
MDRB543
57
9.2 Profinet
De la même façon que le protocole Modbus a été porté sur Ethernet avec Modbus-TCP, le protocole
Profinet reprend les principaux services de Profibus, sur ethernet.
MDRB543