[go: up one dir, main page]

0% ont trouvé ce document utile (0 vote)
114 vues57 pages

Cours Réseaux

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1/ 57

1

1 Introduction aux communications


1.1 Communications de données
Les systèmes de communication existent pour le transfert d’information d’un endroit à un autre. Les
composants de l’information ou message sont généralement appelés data ou données. Toutes les
datas sont constituées par un unique code de symboles ou autre entités sur lequel le émetteur et
récepteur du message sont d’accord. Par exemple une donnée binaire est représentée par deux états
‘0’ et ‘1’. Ces bits sont représentés dans nos ordinateurs par des niveaux du signal électrique dans les
éléments de stockage ; un niveau haut doit représenter ‘1’, et le niveau bas represente’0’. Une autre
alternative, les données peuvent être représentées par la présence ou l’absence de lumière dans un
câble de fibre optique.

1.2 Emetteurs, récepteurs et canaux de communication


Un processus de communication nécessite les composants suivants :

- Une source d’information


- Un émetteur pour convertir l’information en signaux de données compatible avec le canal de
communications
- Un canal de communication
- Un récepteur pour reconvertir les signaux de données à un format que la destination peut
comprendre
- La destination de l’information

L’émetteur va coder l’information en une forme convenable à la transmission par la voie du canal de
communications. Le canal de communication transporte ce signal comme énergie électromagnétique
vers une ou plusieurs destinations (récepteurs). Le canal peut convertir cette énergie d’une forme à
une autre, comme d’un signal électrique à un signal optique, avec la conservation de l’information
afin que le récepteur puisse comprendre le message envoyer par l’émetteur.

Pour réussir les communications l’émetteur et le récepteur doivent se maitre d’accord sur une
méthode de véhiculer les données entre eux.

Les facteurs principaux à prendre en considération sont :

- La forme de signalisation et l’amplitude du signal à utiliser


- Le type de connexion (paire torsadée, coaxiale, fibre optique, radio etc.)
- Le rangement des signaux pour former les caractères par lesquels le message peut être
constitué

MDRB543
2

- La méthode de contrôler le débit des données


- La méthode de détecter et corriger les erreurs de transmission

La forme des connexions physiques est définie par des standards d’interface, des accords de codage
sont appliqués au message et les règles qui contrôlent le débit et la détection et la correction des
erreurs sont appelées protocole.

1.2.1 Standards d’interface


Un standard d’interface définie les aspects électriques et mécaniques de l’interface pour permettre
la communication entre des équipements de diffèrent fabricant.

Un exemple typique est le standard d’interface EIA/TIA-232-E. ça définie les composantes suivantes :

- Les caractéristiques du signal électrique : détermine les niveaux de tension valable, les
caractéristiques de la mise à la terre etc.
- Les caractéristiques mécaniques : détermine l’arrangement et l’affectation des pins du
connecteur
- Description fonctionnelle des circuits intermédiaires entre émetteur et récepteur

Il est à mentionner que le standard interface définie seulement les aspects électriques et mécanique
de l’interface entre des équipements sans savoir comment les données sont transférées entre eux.

1.2.2 Le codage
Une large variété de codes est utilisée en communication. L’ancienne communication par télégraphe
utilisait le code Morse avec des opérateurs humains comme émetteur et récepteurs. Le code Baudot
a introduit un codage de 5 bits de taille pour chaque caractère utilise des émetteurs récepteurs
mécaniques du télégraphe. Aujourd’hui les codages fréquemment utilisés sont EBCIDIC et l’ASCII.

1.2.3 Les protocoles


Un protocole est essentiel pour définir le format commun de message et les procédures de transfert
de données entre tous les appareils du réseau. Il comprend les caractéristiques suivantes :

- Initialisation : Initialise les paramètres du protocole et commence la transmission des


données
- Cadrage et synchronisation : définit le début et la fin de la trame et comment le récepteur
peut se synchroniser avec le flux de données
- Contrôle de flux : garantit que le récepteur est en mesure de conseiller au transmetteur de
réguler le flux de données et de s'assurer qu'aucune donnée n'est perdue.
- Contrôle de ligne : utilisé avec des liaisons semi-duplex pour inverser les rôles d'émetteur et
de récepteur et commencer la transmission dans l'autre sens.
- Contrôle des erreurs : fournit des techniques pour vérifier l'exactitude des données reçues
afin d'identifier les erreurs de transmission. Ceux-ci incluent les contrôles de redondance de
bloc et les contrôles de redondance cyclique
- Contrôle du délai d’attente : procédures permettant aux émetteurs de réessayer ou
d'interrompre la transmission lorsque les accusés de réception ne sont pas reçus dans les
délais convenus.

MDRB543
3

Les protocoles peuvent être implantés dans n’importe quel type d’équipement soit sous forme
matérielle, soit sous forme logicielle.

1.3 Types de canaux de communication


Dans les chaînes de transmission de données modernes, on rencontre deux types de signaux : les
signaux analogiques et numériques.

1.3.1 Signal analogique


Un signal analogique est associé à une grandeur réelle variant dans le temps de manière continue.

Cela veut dire que les variations de la grandeur étudiée en fonction du temps peuvent être
représentées par une courbe. Celle-ci ne présente pas de discontinuité, c'est-à-dire de cassure ou de
brusque saut d’une valeur à un autre. Le signal en entrée d’une chaîne de transmission d’information
est typiquement un signal analogique, résultant de la mesure d’une grandeur physique avec un
capteur adapté : pression engendrée par une onde acoustique (voix ou son en général), température,
etc.
Un défaut d’un signal analogique est qu’il s’altère lors de sa transmission. D’autre part, un signal
analogique est difficile à traiter.

1.3.2 Signal numérique


Un signal numérique ne peut prendre que certaines valeurs déterminées : on parle de quantification.
Le signal numérique passe d’une valeur à l’autre par paliers. D’autre part, ces variations ne peuvent
avoir lieu que pour des instants bien déterminés, régulièrement espacés les uns des autres : le temps
prend une valeur discrète. On parle d’échantillonnage. Dans une chaîne de transmission de
l’information moderne, le signal analogique associé au message initial est souvent converti en
données numériques (encodage). Le signal numérique est transmis via un signal électrique (câble
cuivre), ou un signal lumineux (fibre optique), ou par onde (téléphonie mobile), etc.
Le signal numérique ne présente pas les défauts de l’analogique. Il est certes altéré durant sa
transmission, mais peut être remis en forme, en principe sans perte d’information. Il est d’autre part
facile à traiter. Mais, en fin de chaîne, le signal numérique est reconverti en signal analogique pour
être restitué en tant que grandeur physique perceptible (onde sonore …).
Un signal numérique est une suite de nombres qui, selon l’usage, ont diverses significations.

MDRB543
4

Concrètement, ces nombres sont codés sous la forme d’une suite de 1 et de 0. Pour un signal
électrique de type numérique, le 1 correspond à l’application d’une tension, le 0 est lié à une tension
basse, ou une absence de tension appliquée.

1.4 Les propriétés d’un canal de communication


1.4.1 L’atténuation du signal
L’atténuation d’un signal est calculée par la formule suivante :

𝑃𝑢𝑖𝑠𝑠𝑎𝑛𝑐𝑒 𝑑𝑢 𝑠𝑖𝑔𝑛𝑎𝑙 à 𝑙𝑎 𝑓𝑖𝑛 𝑑𝑢 𝑐𝑎𝑛𝑎𝑙


𝐴 = 10𝑙𝑜𝑔 {𝑑𝑏}
𝑃𝑢𝑖𝑠𝑠𝑎𝑛𝑐𝑒 𝑑𝑢 𝑠𝑖𝑔𝑛𝑎𝑙 𝑎𝑢 𝑑é𝑏𝑢𝑡 𝑑𝑢 𝑐𝑎𝑛𝑎𝑙

Au fur et à mesure que le signal se déplace le long d'un canal de communication, son amplitude
diminue à mesure que le milieu physique résiste au flux d'énergie électromagnétique. Cet effet est
appelé atténuation du signal. Avec les signaux électriques, certains matériaux tels que le cuivre sont
conducteurs efficaces de l’énergie électrique. Cependant, tous les conducteurs contiennent des
impuretés qui résistent au mouvement des électrons qui constituent le courant électrique. La
résistance des conducteurs provoque la conversion d'une partie de l'énergie électrique du signal en
énergie thermique à mesure que le signal progresse le long du câble, ce qui entraîne une dégradation
continue du signal électrique.

MDRB543
5

Une limite est fixée pour la longueur maximale du canal de communication. Ceci permet de garantir
que le signal atténué arrivant au récepteur est d'une amplitude suffisante pour être détecté de
manière fiable et correctement interprété. Si le canal est plus long que cette longueur maximale, des
amplificateurs ou des répéteurs doivent être utilisés à intervalles le long du canal pour restaurer le
signal à des niveaux acceptables.

L'atténuation du signal augmente à mesure que la fréquence augmente. Cela provoque une
distorsion des signaux composés de plusieurs fréquences. Ceci est illustré sur la figure 1.4 où les
temps de changement de valeurs des signaux atténués augmentent progressivement au fur et à
mesure que le signal se déplace à travers le canal, en raison de la plus grande atténuation des
composantes hautes fréquences.

MDRB543
6

1.4.2 Bande passante du canal


La quantité d'informations qu'un canal peut véhiculer sur une période donnée est déterminée par sa
capacité à gérer le taux de changement du signal, c'est-à-dire sa fréquence. Un signal analogique
varie entre une fréquence minimale et maximale et la différence entre ces fréquences est la bande
passante de ce signal. La bande passante d'un canal analogique est la différence entre les fréquences
les plus élevées et les plus basses qui peuvent être reçues de manière fiable sur le canal. Ces
fréquences sont souvent celles auxquelles le signal est baissé à la moitié de la puissance par rapport
aux fréquences médianes, appelées points 3 dB. Dans ce cas, la bande passante est connue sous le
nom de bande passante de 3 dB.

Les signaux numériques sont constitués d'un grand nombre de composantes de fréquence, mais
seuls ceux dans la bande passante du canal pourront être reçus. Il s'ensuit que plus la bande passante
du canal est grande, plus le taux de transfert de données peut être élevé et plus de composantes
haute fréquence du signal numérique peuvent être transportées, et ainsi une reproduction plus
précise du signal transmis peut-être reçue.

MDRB543
7

Le débit de transfert de données maximum (C) du canal de transmission peut être déterminé à partir
de sa largeur de bande, en utilisant la formule suivante dérivée par Shannon.

𝐶 = 2𝐵𝑙𝑜𝑔 𝑀 {𝑑𝑏}

Où :
B : bande passante du canal en hertz
M : nombre de niveaux du signal

Dans le cas particulier où seuls deux niveaux, « ON » et « OFF » sont utilisés (binaire), M=2 et C=2B. A
titre d'exemple, le débit de transfert de données maximal pour un canal PSTN (réseau téléphonique
commuté publique) d'une largeur de bande de 3200 hertz transportant un signal binaire serait de 2 x
3200 = 6400 bps. Le taux de transfert de données réalisable est réduit à la moitié de 6400 en raison
du taux de Nyquist. Il est en outre réduit dans des situations pratiques en raison de la présence de
bruit sur le canal à environ 2400 bps à moins qu'un système de modulation ne soit utilisé.

1.4.3 Le bruit
Lorsque les signaux traversent un canal de communication, les particules atomiques et les molécules
du milieu de transmission vibrent et émettent des signaux électromagnétiques aléatoires sous forme
de bruit. La force du signal transmis est normalement grande par rapport au signal de bruit.
Cependant, au fur et à mesure que le signal traverse le canal et est atténué, son niveau peut se
rapprocher de celui du bruit. Lorsque le signal utile n'est pas significativement plus élevé que le bruit
de fond, le récepteur ne peut pas séparer les données du bruit et des erreurs de communication se
produisent. Un paramètre important du canal est le rapport entre la puissance du signal reçu (S) et la
puissance du signal de bruit (N). Le rapport S / N est appelé le rapport signal sur bruit, qui est
exprimé en Décibel :

[𝑆⁄𝑁] = 10𝑙𝑜𝑔 (𝑆/𝑁) {𝑑𝑏}

Un rapport signal sur bruit élevé signifie que la puissance du signal utile est élevée par rapport au
niveau de bruit, ce qui se traduit par une réception de signal de bonne qualité. Le taux de transfert

MDRB543
8

de données maximal théorique pour un canal peut être calculé à l'aide de la loi de Shannon-Hartley,
qui stipule :

𝐶 = 𝐵𝑙𝑜𝑔 1 + 𝑆 𝑁 {𝑏𝑝𝑠}

Où :
C : Débit de données en bps
B : bande passante du canal en hertz
S et N : les puissances du signal et du bruit en watt

On peut voir à partir de cette formule que l'augmentation de la bande passante ou l'augmentation
du rapport signal sur bruit permettra des augmentations du débit de données, et qu'une
augmentation relativement faible de la bande passante équivaut à une augmentation beaucoup plus
grande du rapport signal sur bruit.

Les canaux de transmission numériques utilisent des largeurs de bande plus élevées et des répéteurs
ou régénérateurs numériques pour régénérer les signaux à intervalles réguliers et maintenir des
rapports signal / bruit acceptables. Les signaux dégradés reçus au régénérateur sont détectés, puis
resynchronisés et retransmis comme des répliques presque parfaites des signaux numériques
d'origine, comme le montre la figure 1.8. À condition que les rapports signal sur bruit soient
maintenus dans chaque liaison, il n'y a pas de bruit accumulé sur le signal, même lorsqu'il est
transmis sur des milliers de kilomètres.

1.5 Les modes de transmission de données

1.5.1 Direction du flux de signal


Simplex

Un canal simplex est unidirectionnel et permet aux données de circuler dans une seule direction,
comme le montre la figure 1.9. La radiodiffusion publique est un exemple de transmission simplex. La
station de radio transmet le programme diffusé, mais ne reçoit aucun signal de votre récepteur
radio.

MDRB543
9

Le Simplex est une utilisation limitée à des fins de transfert de données, car nous avons souvent
besoin d'un flux de données dans les deux sens pour contrôler le processus de transfert, accuser
réception des données, etc.

Half-duplex

La transmission semi-duplex nous permet d’établir une communication simplex dans les deux sens
sur un seul canal, comme le montre la figure 1.10. Ici, l’émetteur de la station « A » envoie des
données à un récepteur de la station « B ». Une procédure d’inversion de sens de transmission de
données à lieu chaque fois qu'une transmission est requise dans la direction opposée. L’émetteur de
la station « B » est alors activé et communique avec le récepteur de la station « A ».

Full-duplex

Un canal Full-duplex permet des communications simultanées dans les deux sens, comme le montre
la figure 1.11.

MDRB543
10

1.5.2 Synchronisation des signaux de données numériques


Les communications de données dépendent de la synchronisation de la génération et de la réception
du signal qui est maintenue correcte tout au long de la transmission du message. Le récepteur doit
examiner les données entrantes aux instants corrects avant de déterminer si un «1» ou un «0» a été
transmis. Le processus de sélection et de maintien de ces temps d'échantillonnage est appelé
synchronisation.

Afin de synchroniser leurs transmissions, les dispositifs d'émission et de réception doivent se mettre
d'accord sur la longueur des éléments de code à utiliser, appelée temps binaire. Le récepteur doit
extraire le signal d'horloge transmis codé dans le flux de données reçu. En synchronisant le temps
binaire de l’horloge du récepteur avec celui codé par l’émetteur, le récepteur est en mesure de
déterminer les bons moments pour détecter les transitions de données dans le message et recevoir
correctement le message. Les dispositifs aux deux extrémités d'un canal numérique peuvent se
synchroniser en utilisant une transmission asynchrone ou synchrone comme indiqué ci-dessous.

1.5.3 Transmission asynchrone


Ici, l'émetteur et le récepteur fonctionnent indépendamment et échangent un motif de
synchronisation au début de chaque élément de code de message (trame). Il n'y a pas de relation fixe
entre une trame et la suivante, comme une entrée de clavier d'ordinateur avec des pauses aléatoires
potentiellement longues entre les frappes.

MDRB543
11

Au niveau du récepteur, le canal est échantillonné à un débit élevé, typiquement supérieur à 16 fois
le débit binaire du canal de données, pour détecter le bit de départ et sa durée (temps binaire).

Les bits de données sont ensuite déterminés par le récepteur échantillonnant le canal à des
intervalles correspondant aux centres de chaque bit transmis. Celles-ci sont estimées en retardant les
multiples du temps de bit à partir des centres du bit de départ. Pour une transmission série à huit
bits, cet échantillonnage est répété pour chacun des huit bits de données puis un échantillon final est
réalisé pendant le neuvième intervalle de temps. Cet exemple consiste à identifier le bit d'arrêt et à
confirmer que la synchronisation a été maintenue jusqu'à la fin de la trame. La figure 1.14 illustre le
processus de réception de données asynchrone.

MDRB543
12

1.5.4 Transmission synchrone


Le récepteur est ici initialement synchronisé avec l'émetteur puis maintient cette synchronisation
tout au long de la transmission continue. Ceci est réalisé par des schémas de codage de données
spéciaux, tels que le codage Manchester, qui garantissent que l'horloge transmise est
continuellement codée dans le flux de données transmis. Cela permet de maintenir la
synchronisation au niveau de n'importe quel récepteur jusqu'au dernier bit du message, qui peut
atteindre 4500 octets (36 000 bits). Ça permet aussi de transférer efficacement de plus grandes
trames de données à des débits de données plus élevés. Le système synchrone regroupe de
nombreux caractères et les envoie sous forme de flux continu, appelé bloc. Pour chaque bloc de
transmission, il y a un préambule, contenant le délimiteur de début à des fins de synchronisation
initiale et des informations sur le bloc, et un postambule, pour vérifier les erreurs, etc. Un exemple
de bloc de transmission synchrone est illustré à la figure 1.15. Naturellement, tous les systèmes de
transfert de données à haute vitesse utilisent des systèmes de transmission synchrones pour réaliser
des transferts rapides et précis de gros blocs de données.

MDRB543
13

2 Les topologies réseau


2.1 Topologie ou topographie
Pour considérer la structure (l’architecture) d’un réseau on peut distinguer la topologie « logique »
traduisant l’architecture telle qu’elle est exploitée par le réseau et la topographie – ou topologie «
physique » – traduisant l’implantation physique du réseau.

2.2 Réseau en étoile


La liaison la plus simple entre deux ETTD (Équipement Terminal de Traitement de Données) est celle
qui ne comporte que deux extrémités. Une telle liaison est dite point à point. Un ensemble de
liaisons point à point, axées comme c’était souvent le cas, autour d’un ETTD central (par exemple un
frontal dans les grands réseaux), va former une configuration (topologie et topographie) en étoile.

C’est une topographie couramment employée en réseau local où l’équipement central est
généralement représenté par un répéteur – concentrateur ou hub – ou par un commutateur. Par
contre c’est une topologie peu employée.

Communications

Pour faire communiquer le serveur avec les stations il faut mettre en place des protocoles de
communication. On utilise ici une procédure dite polling-selecting. Le polling-selecting comporte
deux phases. Le polling (invitation à émettre), permet au site maître de demander à chaque station
(esclave), et dans un ordre prédéfini, si elle a des informations à émettre. On lui accorde alors,
provisoirement, le statut de maître et la station peut émettre vers le site central ou, si elle n’a rien à
émettre, « redonner la main » au site central qui passe le contrôle à une autre… Lors du selecting
(invitation à recevoir) la station maître demande au terminal esclave s’il est prêt à recevoir les
données qui lui sont destinées. Celui-ci interrompt sa tâche et reçoit les données. BSC est un ancien
protocole basé sur le polling selecting.

Avantages et inconvénients des liaisons point à point – étoile

La topologie en étoile a l’avantage de la simplicité – ETTD reliés directement, gestion des ressources
centralisées… Si un ordinateur tombe en panne ou si un câble de liaison est coupé, un seul
ordinateur est affecté et le reste du réseau continue à fonctionner.

MDRB543
14

Elle présente théoriquement un inconvénient d’ordre économique car elle nécessite autant de voies
de liaisons que d’ETTD reliés au nœud central ce qui est générateur de coûts. De plus, si le site
central (hub ou switch en réseau local) tombe en panne c’est tout le réseau qui est hors service.

2.3 Réseau multipoints ou en BUS


Dans la topologie en bus, les ETTD connectés se partagent une même voie de transmission. C’est une
topologie courante de réseaux d’ordinateurs avec Ethernet (où le rôle du bus est joué par le hub) et
une topographie de moins en moins utilisée dans les réseaux locaux du fait des faibles débits
supportés par les câbles coaxiaux qui supportaient cette topographie.

Communications

Dans la mesure où les données ne circulent que sur une voie commune, il ne peut y avoir qu’une
seule station en train d’émettre à un instant t, si on ne veut pas risquer la « cacophonie ». La
technique de la diffusion employée sur ces topologies consiste à émettre les données vers toutes les
stations. Seule, la station concernée, repérée par son adresse (Mac, NetBios… par exemple) «
écoutera » le message, les autres n’en tiendront pas compte. Si plusieurs ordinateurs émettent en
même temps il y a collision des paquets de données – c’est la contention. Nous reviendrons plus en
détail sur cette technique de la diffusion dont le protocole le plus connu et utilisé est CSMA/CD
(Carrier Sense Multiple Access with Collision Detection).

Avantages et inconvénients des liaisons multipoints ou bus

Dans la liaison en bus, la voie physique est optimisée et utilisée à moindre coût dans la mesure où
elle est unique. Des contraintes techniques limitent cependant le nombre de tronçons et d’ETTD. Les
stations ne peuvent pas communiquer en même temps, ce qui limite les temps de réponse et plus le
nombre de stations connectées augmente, plus les performances se dégradent du fait de
l’augmentation des collisions. Si un tronçon est défectueux, il y a perte de communication pour tous
les ETTD situés en deçà du tronçon.

2.4 Réseau en Boucle ou Anneau


Composé d’une suite de liaisons point à point, la topologie de réseau en boucle est aussi dite en
anneau (Ring). La topologie en anneau Token Ring d’IBM est ainsi constituée au niveau du
concentrateur MAU (Multistation Access Unit) où viennent se brancher en étoile les différents postes

MDRB543
15

du réseau. La topographie est donc en étoile. Une topographie double anneau FDDI existe
également.

Communications

L’accès des stations au réseau est réglementé par le passage d’un « relais » appelé jeton (Token).
Dans cette configuration, la station n’est autorisée à émettre, que si elle dispose du jeton. Si elle n’a
rien à émettre, elle passe le jeton à la suivante… Si elle veut émettre, elle met sur le circuit un en-tête
de message, le message et le jeton. Tous les participants au réseau sont à l’écoute, et s’il y a
concordance entre l’adresse de la station et l’adresse du destinataire du message, ce dernier copie le
message et le réinjecte dans la boucle avec un acquittement. Quand le message revient acquitté à
l’émetteur, il est supprimé de la boucle, sinon il continue à circuler un nombre limité de fois. Nous
reviendrons sur le principe du jeton lors de l’étude des modes d’accès.

Avantages et inconvénients des liaisons en boucle ou anneau

Dans une liaison en anneau de type Token Ring, chaque station régénère le signal avant de passer le
relais à la suivante. Il s’agit ici d’une topologie active. En théorie, dans la mesure où jeton et trames
de données passent de machine en machine, le fait qu’un ordinateur de l’anneau tombe en panne
interrompt l’anneau. Dans la réalité des mécanismes permettent généralement de court-circuiter le
passage dans une machine en panne et de considérer qu’il s’agit simplement d’un tronçon plus long.

2.5 Réseau maillé


Constitué d’une série de liaisons point à point reliant divers ETTD, ce type de topologie et
topographie réseau est dit plus ou moins fortement maillé selon le nombre de relations établies.

MDRB543
16

En général, de telles configurations sont réservées à la connexion d’ordinateurs entre eux, ainsi les
ordinateurs des réseaux de transport (Transpac, Oléane, routeurs Internet…) sont disposés en
configuration fortement maillée.

2.6 Résumé avantages et inconvénients

Topologie Avantages Inconvénients


Bus - Économie de câble - Ralentissement du trafic
- Mise en œuvre facile en cas de nombreuses
- Simple et fiable stations
- Facile à étendre - Problèmes difficiles à isoler
- Une coupure de câble
affecte de nombreux
utilisateurs
Anneau - Accès égalitaire de toutes - Une panne d’ordinateur
les stations peut affecter l’anneau
- Performances régulières - Problèmes difficiles à isoler
même avec un grand - La reconfiguration du
nombre de stations réseau peut interrompre
son fonctionnement
Etoile - Ajouts de stations facile - Si le site central tombe en
- Surveillance et gestion panne tout le réseau est
centralisée mis hors service
- Une panne d’ordinateur
est sans incidence sur le
réseau

MDRB543
17

3 Les types de réseaux


3.1 Les réseaux locaux (LAN)
Les LAN se caractérisent par une transmission à haut débit sur une zone géographique restreinte.
L'Ethernet épais (10Base5), par exemple, fonctionne à 10 Mb / s sur une distance maximale de 500 m
avant que les signaux aient besoin d'être amplifiés. Ceci est illustré dans la figure 2.2.

3.2 Les réseaux étendus (WAN)


Alors que les LAN fonctionnent là où les distances sont relativement petites, des réseaux étendus
(WAN) sont utilisés pour relier des LAN qui sont séparés par de grandes distances allant de quelques
dizaines de mètres à des milliers de kilomètres. Les WAN utilisent normalement le système de
télécommunication public pour fournir une connexion rentable entre les LAN. Étant donné que ces
liaisons sont fournies par des services de télécommunications indépendants, elles sont
communément appelées (et illustrées comme) un «nuage de communications». Des équipements
spéciaux appelés Routeurs ont été développés pour ce type d’activité, qui stockent le message à la
vitesse du LAN et le transmettent à travers le « cloud de communication » à une vitesse inférieure.
Lorsque le message entier a été reçu sur le LAN distant, le message est réinséré à la vitesse du LAN.
Une vitesse typique à laquelle un WAN s'interconnecte est de 9600 bps à 45 Mbps. Ceci est illustré à
la figure 2.3.

Si la fiabilité est nécessaire pour une application à temps critique, les WAN peuvent être considérés
comme peu fiables, car le retard dans la transmission des informations est varié et important. Pour

MDRB543
18

cette raison, les WAN ne peuvent être utilisés que si le logiciel de détection / correction d'erreurs
nécessaire est en place et si les délais de propagation peuvent être tolérés dans certaines limites.

3.3 Les réseaux métropolitains (MAN)


Un type intermédiaire de réseau - les MAN - fonctionne à des vitesses allant de 56 kbps à 100 Mbps -
généralement une vitesse plus élevée que les WAN mais plus lente que les LAN. Les MAN utilisent la
technologie de la fibre optique pour communiquer sur des distances allant jusqu'à plusieurs
centaines de kilomètres. Ils sont normalement utilisés par les fournisseurs de services de
télécommunication dans les villes.

3.4 Les réseaux privés virtuels (VPN)


Une alternative moins chère qu’un WAN, qui utilise des liaisons à commutation de paquets dédiées
(telles que X.25) pour interconnecter deux ou plusieurs LAN, est le réseau privé virtuel, qui
interconnecte plusieurs LAN en utilisant l'infrastructure Internet existante.

Un problème potentiel est le fait que le trafic entre les réseaux partage tout le reste du trafic Internet
et donc toutes les communications entre les réseaux locaux sont visibles du monde extérieur. Ce
problème est résolu en utilisant des techniques de cryptage pour rendre toutes les communications
entre les LAN transparentes (c'est-à-dire illisibles) pour les autres utilisateurs d'Internet.

4 Principes de bases de la mise en réseau


4.1 Aperçu
Relier des ordinateurs et d'autres appareils pour partager des informations n'est pas nouveau. La
technologie des réseaux locaux (LAN) a été développée dans les années 1970 par des fabricants de
mini-ordinateurs pour relier des terminaux d'utilisateurs largement séparés à des ordinateurs. Cela a
permis de partager des équipements périphériques coûteux ainsi que des données qui ne pouvaient
auparavant exister dans un seul emplacement physique.

Un réseau local est un chemin de communication entre un ou plusieurs ordinateurs, serveurs de


fichiers, terminaux, stations de travail et divers autres équipements périphériques intelligents,
généralement appelés dispositifs ou hôtes. Un LAN permet à plusieurs utilisateurs d'accéder aux
appareils, avec une connectivité totale entre toutes les stations du réseau. Il est généralement
détenu et administré par un propriétaire privé et est situé dans un groupe localisé de bâtiments.

La connexion d'un appareil à un réseau local se fait via un nœud. Un nœud est tout point où un
périphérique est connecté et chaque nœud se voit attribuer un numéro d'adresse unique. Chaque
message envoyé sur le LAN doit être précédé de l'adresse unique de la destination. Tous les appareils
connectés aux nœuds surveillent également les messages envoyés à leurs propres adresses sur le
réseau. Les réseaux locaux fonctionnent à des vitesses relativement élevées (plage de Mbps et plus)
avec un support de transmission partagé sur une zone géographique (c'est-à-dire locale) assez petite.

Dans un LAN, le logiciel contrôlant le transfert des messages entre les appareils sur le réseau doit
faire face aux problèmes de partage des ressources communes du réseau sans conflit ni corruption
des données. Étant donné que de nombreux utilisateurs peuvent accéder au réseau en même temps,
certaines règles doivent être établies sur les appareils pouvant accéder au réseau, à quel moment et

MDRB543
19

dans quelles conditions. Ces règles sont couvertes par le thème général du contrôle d'accès aux
médias.

Lorsqu'un nœud a accès au canal pour transmettre des données, il envoie les données dans un
paquet (ou une trame), qui comprend, dans son en-tête, les adresses de la source et de la
destination. Cela permet à chaque nœud de recevoir ou d'ignorer des données sur le réseau.

4.2 Réseau de communication


Il existe deux types de processus de communication de base pour le transfert de données à travers
les réseaux, à savoir : Commutation de circuits et commutation de paquets. Celles-ci sont illustrées à
la figure 2.1

4.2.1 Commutation de circuits


Dans un processus à commutation de circuits, une connexion continue est établie à travers le réseau
entre les deux points différents. Il s'agit d'une connexion temporaire, qui reste en place tant que les
deux parties souhaitent communiquer, c'est-à-dire jusqu'à ce que la connexion soit terminée. Toutes
les ressources du réseau sont disponibles à l'usage exclusif de ces deux parties, qu'elles transmettent
ou non des données. Lorsque la connexion est interrompue, les ressources réseau sont libérées pour

MDRB543
20

les autres utilisateurs. Un appel téléphonique est un exemple de connexion à commutation de


circuits.

L'avantage de la commutation de circuits est que les utilisateurs disposent d'un canal exclusif pour le
transfert de leurs données à tout moment pendant la connexion. L'inconvénient évident est le coût
de maintien de la connexion lorsqu'il y a peu ou pas de données transférées. De telles connexions
peuvent être très inefficaces pour les hauts débits de données typiques de nombreuses applications
informatiques.

4.2.2 Commutation de paquets


Les systèmes de commutation de paquets améliorent l'efficacité du transfert de grandes quantités de
données, en partageant l'unique canal de communication avec d'autres utilisateurs. Ceci est
analogue aux efficacités du système de courrier telles que discutées dans le paragraphe suivant.

Lorsque vous envoyez une lettre par la poste, vous postez l'enveloppe timbrée et adressée contenant
la lettre dans votre boîte aux lettres locale. À intervalles réguliers, la société de courrier collecte
toutes les lettres de votre localité et les emmène dans un centre de tri central où les lettres sont
triées en fonction des adresses de leurs destinations. Toutes les lettres pour chaque destination sont
envoyées dans des sacs postaux communs à ces emplacements, et sont ensuite livrées
conformément à leurs adresses. Ici, nous avons des économies d'échelle où de nombreuses lettres
sont transportées en même temps et sont livrées en une seule visite dans votre rue / localité.
L'efficacité est plus importante que la vitesse, et un certain retard est normal - dans des limites
acceptables.

Les messages à commutation de paquets sont divisés en une série de paquets d'une certaine taille
maximale, chacun contenant les adresses de destination et de source et un numéro de séquence de
paquet. Les paquets sont envoyés sur un canal de communication commun, éventuellement
entrelacé avec ceux d'autres utilisateurs. Tous les récepteurs sur le canal vérifient les adresses de
destination de tous les paquets et n'acceptent que ceux portant leur adresse. Les messages envoyés
en plusieurs paquets sont réassemblés dans le bon ordre par le nœud de destination.

Tous les paquets ne suivent pas nécessairement le même chemin. Au fur et à mesure qu'ils voyagent
sur le réseau, ils peuvent être séparés et traités indépendamment les uns des autres, mais
finalement arriver à leur destination correcte. Pour cette raison, les paquets arrivent souvent au
nœud de destination en désordre par rapport à leur séquence de transmission. Certains paquets
peuvent même être temporairement bloqués (stockés) sur un nœud, en raison de lignes
indisponibles ou de problèmes techniques pouvant survenir sur le réseau. Lorsque le moment est
venu, le nœud permet alors au paquet de passer ou d’être « retransmis ».

4.2.3 Datagrammes et circuits virtuels


Les services à commutation de paquets prennent généralement en charge deux types de services à
savoir les datagrammes et les circuits virtuels.

Dans un réseau local autonome, tous les paquets atteindront finalement leur destination.
Cependant, si le paquet doit être commuté sur A TRAVERSdes réseaux, c'est-à-dire sur un inter
réseau tel qu'un réseau étendu - alors une décision de routage doit être prise.

MDRB543
21

Deux approches peuvent être adoptées. Le premier est appelé service DATAGRAMME. L'approche
consiste à permettre à chaque paquet d'être acheminé indépendamment. L'adresse de destination
incorporée dans l'en-tête de données permettra d'effectuer le routage. Il n'y a aucune garantie
quand un paquet arrivera à sa destination, et ils peuvent très bien être hors séquence. Le principe est
similaire au service de messagerie. Vous pouvez envoyer quatre cartes postales mais rien ne garantit
qu'elles arriveront dans le même ordre que vous les avez envoyés. Si le destinataire n'a pas de
téléphone, il n'y a pas de méthode simple pour déterminer qu'il a effectivement été livré. Un tel
service est appelé un service NON FIABLE. Ce mot n'est pas utilisé dans son contexte quotidien, mais
fait plutôt référence au fait qu'il n'y a pas de mécanisme pour informer l'expéditeur que le paquet n'a
pas été livré. Le service est également appelé sans connexion.

La seconde approche consiste à établir une connexion entre l'émetteur et le récepteur, et à envoyer
tous les paquets de données le long de cette connexion ou CIRCUIT VIRTUEL. Bien que cela puisse
sembler être en conflit avec les déclarations précédentes sur la commutation de circuits, il devrait
être tout à fait clair que cela n'implique PAS qu'un circuit permanent soit dédié au flux de données en
un seul paquet. Au contraire, le circuit partage sa capacité avec d'autres trafics. Le point important à
noter est que la route que doivent suivre les paquets de données est prise en amont lorsque toutes
les décisions de routage sont prises. Les paquets de données suivent simplement cette route
préétablie. Ce service est appelé FIABLE et est également appelé service orienté connexion ou COS.

4.3 Modes d’accès au réseau


Pour que les messages circulent sur le réseau sans entrer en conflit et se perturber, il faut employer
un protocole déterminant des règles d’accès au réseau. Parmi les modes d’accès existants, peuvent
être utilisés la contention et le jeton.

4.3.1 La contention
Dans un accès de type contention tel que CSMA (Carrier Sense Multi Access), associé aux réseaux
Ethernet, toutes les stations (Multi Access) sont à l’écoute (Sense) du réseau et une station peut
émettre si la porteuse (Carrier) est « libre ». Toutefois, il se peut que deux stations, écoutant si la
voie est libre, se décident à émettre au même instant, il y a alors contention – « collision » – des
messages émis. Pour résoudre le problème des collisions dues à des demandes simultanées d’accès
au réseau, on peut soit les détecter « après coup » : méthode CSMA/CD (CSMA with Collision
Detection) soit tenter de les prévenir : méthode CSMA/CA (CSMA with Collision Avoidance).

4.3.2 Principe du CSMA/CD


CSMA/CD fonctionne par détection des collisions. Considérons que la station S1 souhaite envoyer un
message vers S3 et que S2 souhaite, au même instant, envoyer un message au serveur. S1 et S2 vont
donc se mettre à « l’écoute » de la porteuse sur la ligne (Carrier Sense) et, si la ligne est libre, elles
vont émettre leurs messages.

MDRB543
22

Le signal électrique sur la ligne va donc correspondre au cumul des deux émissions ce qui va
provoquer une « surtension ». L’adaptateur des stations S3 et S2 va détecter cette surtension et en
déduire que deux entrées sont en activité. Il va alors envoyer un signal indiquant la collision sur
toutes ses sorties (trame de « bourrage » ou trame jam). Toutes les stations vont détecter ce signal
particulier et arrêter leurs émissions. Au bout d’un laps de temps aléatoire l’émission sera reprise par
l’une quelconque des stations. Il est alors peu probable que les stations se décident à réémettre au
même instant et, si tel était le cas, le cycle d’attente reprendrait.

La méthode CSMA/CD est normalisée par l’ISO (International Standard Organization) sous la
référence 802.3. Il s’agit d’une méthode d’accès probabiliste, car on ne sait pas « à l’avance » quelle
station va émettre. C’est une méthode simple et donc très utilisée mais qui présente comme
inconvénient majeur un ralentissement des temps de communication, fonction de l’accroissement
des collisions ; autrement dit – fondamentalement – plus il y a de communications sur ce type de
réseau, plus il y a de risques de collisions et plus le ralentissement des transmissions est sensible.
Compte tenu de ces collisions le débit efficace est estimé avec cette méthode à environ 50-60 % du
débit théorique. L’emploi des commutateurs a permis d’éliminer presque totalement les collisions.

4.3.3 Principe du CSMA/CA


CSMA/CA utilisé notamment avec les réseaux radio de type Wifi – a pour but de prévenir la
contention plutôt que de la subir. La station qui veut émettre commence par écouter si la voie est
libre (Carrier Sense). Si tel est le cas elle envoie un petit paquet préambule ou RTS (Request To Send)
qui indique la source, la destination et une durée de réservation de la transmission. La station de
destination répond (si la voie est libre) par un petit paquet de contrôle CTS (Clear To Send) qui
reprend ces informations. Toutes les autres stations à l’écoute, recevant un RTS ou un CTS, bloquent
temporairement leurs émissions puis repassent ensuite en « écoute ».
Cette méthode réduit la probabilité de collision à la courte durée de transmission du RTS, car
lorsqu’une station entend le CTS elle considère le support comme occupé jusqu’à la fin de la durée
réservée de transaction. Du fait que RTS et CTS sont des trames courtes, le nombre de collisions est
réduit, puisque ces trames sont reconnues plus rapidement que si tout le paquet devait être
transmis. Les paquets de messages plus courts que le RTS ou le CTS sont autorisés à être transmis
sans échange RTS/CTS.

Citons pour mémoire quelques autres méthodes : TDMA (Time Division Multiple Access) ou AMRT
(Accès Multiples à Répartition dans le Temps) qui consiste à attribuer des tranches de temps fixes
aux différentes stations, CDMA (Code Division Multi Access), FDMA (Frequency Division Multi Access)
ou AMRF (Accès Multiples à Répartition de Fréquences) qui tend à disparaître, SRMA (Split-channel

MDRB543
23

Reservation Multi Access) ou autres GSMA (Global Scheduling Multiple Access)… méthodes utilisées
dans les réseaux locaux industriels ou en téléphonie mobile.

L’ancienne priorité à la demande (100 VG Anylan normalisé 802.12) n’est désormais plus
commercialisée.

4.3.4 Le jeton
Dans la technique du jeton (token), méthode d’accès déterministe normalisée ISO 802.5 et
développée par IBM pour son réseau Token-Ring, mais utilisable aussi avec un réseau en bus, la
station émet des informations sous forme de paquets de données normalisés, avec un en-tête, une
zone centrale (le message) et une fin. Dans l’en-tête, se trouve un bit particulier (le jeton), mis à 1 si
le réseau est occupé, et à 0 dans le cas contraire. La station qui souhaite émettre ne peut le faire que
si le jeton est libre. Chaque station reçoit le message à tour de rôle et en lit l’en-tête où figure
l’adresse du destinataire. Si le message ne lui est pas destiné, la station le régénère et le réexpédie.

Le destinataire du message va se reconnaître grâce à l’adresse, lire le message et le réémettre


acquitter c’est-à-dire après en avoir modifié l’en-tête. La station émettrice peut alors, lorsque le
jeton lui revient, valider la transmission et libérer le jeton ou éventuellement émettre à nouveau ce
message.

La vitesse de transmission sur le réseau dépend ici de la longueur de l’anneau et du nombre de


stations qu’il comporte.

5 Le modèle d'interconnexion des systèmes ouverts


Un cadre de communication qui a eu un impact considérable sur la conception des réseaux locaux est
le modèle d'interconnexion de systèmes ouverts (ou OSI). L'objectif de ce modèle est de fournir un
cadre pour la coordination de l'élaboration des normes et permet de définir les activités de
normalisation existantes et en évolution dans ce cadre commun.

MDRB543
24

5.1.1 Les systèmes ouverts et fermés


L’établissement d’une liaison physique entre deux ou plusieurs appareils avec communication
numérique est la première étape vers l'établissement d'un réseau. En plus des exigences matérielles,
qui ont été discutées ci-dessus, les problèmes logiciels de communication doivent également être
surmontés. Lorsque tous les périphériques d'un réseau proviennent du même fabricant, les
problèmes matériels et logiciels sont généralement faciles à surmontés car le système est
généralement conçu selon les mêmes directives et spécifications.

Lorsque des appareils de plusieurs fabricants sont utilisés sur la même application, les problèmes
semblent se multiplier. Les réseaux qui sont spécifiques à un fabricant et qui fonctionnent avec des
connexions matérielles et des protocoles spécifiques sont appelés systèmes fermés. Habituellement,
ces systèmes ont été développés à un moment avant la normalisation ou lorsqu'il était considéré
comme improbable que des équipements d'autres fabricants soient inclus dans le réseau.

En revanche, les systèmes ouverts sont ceux qui sont conformes aux spécifications et aux directives,
qui sont «ouverts» à tous. Cela permet aux équipements de n'importe quel fabricant, qui prétend
être conforme à cette norme, d'être utilisés de manière interchangeable sur le réseau standard. Les
avantages des systèmes ouverts comprennent une plus grande disponibilité de l'équipement, des
prix plus bas et une intégration plus facile avec d'autres composants.

5.1.2 Le modèle de référence d'interconnexion des systèmes ouverts (modèle OSI)


Face à la prolifération des systèmes de réseaux fermés, l'Organisation internationale de
normalisation (ISO) a défini en 1978 un `` modèle de référence pour la communication entre
systèmes ouverts '', qui est devenu connu sous le nom de modèle d'interconnexion de systèmes
ouverts (OSI), ou simplement comme l'ISO / Modèle OSI (ISO 7498). OSI est essentiellement une
structure de gestion des communications de données, qui divise les communications de données en
une hiérarchie gérable de sept couches. Chaque couche a un objectif défini et s'interface avec les
couches au-dessus et en dessous. En établissant des normes pour chaque couche, une certaine
flexibilité est permise afin que les concepteurs de système puissent développer des protocoles pour
chaque couche indépendamment les uns des autres. En se conformant aux normes OSI, un système
est capable de communiquer avec n'importe quel autre système conforme, partout dans le monde.

Il faut comprendre dès le départ que le modèle de référence OSI n'est pas un protocole ou un
ensemble de règles sur la manière dont un protocole doit être écrit, mais plutôt un cadre global dans
lequel définir des protocoles. Le cadre du modèle OSI définit spécifiquement et clairement les
fonctions ou services qui doivent être fournis à chacune des sept couches (ou niveaux).

Comme il doit y avoir au moins deux équipements pour communiquer, chaque couche semble
également converser avec sa couche homologue à l’autre extrémité du canal de communication dans
une communication virtuelle («logique»). Ces concepts d'isolement du processus de chaque couche,
associés aux interfaces standardisées et à la communication virtuelle peer-to-peer, sont
fondamentaux pour les concepts développés dans un modèle en couches tel que le modèle OSI. Le
concept de couches OSI est illustré à la figure 2.5.

MDRB543
25

Les fonctions réelles au sein de chaque couche sont fournies par des entités qui sont des dispositifs
abstraits, tels que des programmes, des fonctions ou des protocoles, qui exécutent les services pour
une couche particulière sur une seule machine. Une couche peut avoir plus d'une entité - par
exemple une entité de protocole et une entité de gestion. Les entités des couches adjacentes
interagissent à travers les limites supérieures et inférieures communes en passant des informations
physiques via des points d'accès aux services (SAP). Un SAP pourrait être comparé à une «boîte aux
lettres» prédéfinie dans laquelle une couche collecterait les données de la couche précédente. La
relation entre les couches, les entités, les fonctions et les SAP est illustrée à la figure 2.6.

Dans le modèle OSI, l'entité de la couche immédiatement supérieure est appelée entité N + 1 et
l'entité de la couche inférieure suivante N – 1. Les services disponibles aux couches supérieures sont
le résultat des services fournis par toutes les couches inférieures.

Les fonctions et les capacités attendues de chaque couche sont spécifiées dans le modèle.
Cependant, le modèle ne prescrit pas comment cette fonctionnalité doit être mise en œuvre. Le
modèle met l’accent sur «l’interconnexion» et sur les informations qui peuvent être transmises via

MDRB543
26

cette connexion. Le modèle OSI ne se préoccupe pas des opérations internes des systèmes
concernés.

Lors du développement du modèle OSI, un certain nombre de principes ont été utilisés pour
déterminer exactement combien de couches ce modèle de communication devrait englober. Ces
principes sont:

- Une couche doit être créée là où un niveau d'abstraction différent est requis
- Chaque couche doit remplir une fonction bien définie
- La fonction de chaque couche doit être choisie en réfléchissant à la définition de protocoles
normalisés au niveau international
- Les limites des couches doivent être choisies pour minimiser le flux d'informations à travers les
limites
- Le nombre de couches doit être suffisamment grand pour que des fonctions distinctes n'aient
pas besoin d'être réunies dans la même couche par nécessité et suffisamment petit pour que
l'architecture ne devienne pas lourde

L'utilisation de ces principes a conduit à la définition de sept couches dont chacune a reçu un nom en
fonction de son objectif de processus. Le diagramme ci-dessous montre les sept couches du modèle
OSI.

Le service fourni par n'importe quelle couche est exprimé sous la forme d'une primitive de service
avec les données à transférer comme paramètre. Une primitive de service est une demande de
service fondamentale faite entre protocoles. Par exemple, la couche W peut se trouver au-dessus de
la couche X. Si W souhaite appeler un service à partir de X, W peut émettre une primitive de service
sous la forme de X.Connect.request à X. Un exemple de primitive de service est présenté à la Figure
2.8. Les primitives de service sont normalement utilisées pour transférer des données entre les
processus d'un nœud.

MDRB543
27

En règle générale, chaque couche de l’émetteur, à l'exception de la plus basse, ajoute des
informations d'en-tête, ou des informations de contrôle de protocole (PCI), aux données avant de les
faire passer par l'interface entre les couches adjacentes. Cette interface définit les opérations et
services primitifs que la couche inférieure offre à la couche supérieure. Les en-têtes sont utilisés pour
établir les sessions d'égal à égal sur les sites et certaines implémentations de couche utilisent les en-
têtes pour appeler des fonctions et des services au niveau des couches adjacentes N + 1 ou N – 1.

Au niveau de l'émetteur, l'utilisateur appelle le système en transmettant des données, des noms de
primitives et des informations de contrôle à la couche la plus élevée de la pile de protocoles. Le
système transmet ensuite les données à travers les sept couches, ajoutant des en-têtes et appelant
des fonctions conformément aux règles du protocole. À chaque niveau, cette combinaison de
données et d’en-tête «paquet» est appelée unité de données de protocole ou PDU. Au niveau du
récepteur, l'inverse se produit avec les en-têtes supprimés des données lors de leur passage à travers
les couches.

À ce stade, il devrait être tout à fait clair qu'il n'y a AUCUNE connexion ou communication directe
entre les couches homologues du réseau. Au contraire, toutes les communications physiques se font
à travers la couche physique, ou la couche la plus basse de la pile. La communication est descendante
via la pile de protocoles sur la pile de transmission et vers le haut via la pile sur la pile de réception.
La Figure 2.9 montre l'architecture complète du modèle OSI, tandis que la Figure 2.10 montre les
effets de l'ajout de PCI aux PDU respectives à chaque couche.

MDRB543
28

5.1.3 Les services des couches OSI


En bref, les services fournis à chaque couche de la pile sont :

- Application
Cette couche assure l'interface entre l'utilisateur et les services du réseau. On y trouve toutes
les applications cliente ou serveur connues : transfert de fichiers, courrier électronique, Web,
multimédia, etc.
Remarque : les programmes d'application réels de l'utilisateur ne résident PAS ici
- Présentation

MDRB543
29

Elle traite la syntaxe de l'information transmise. Elle assure l'encodage et/ou la compression
des données dans une norme agréée. Elle assure des conversions telles que celles des
protocoles d'utilisation de terminaux incompatibles entre eux, celles entre les différents
systèmes de fichiers ou encore celles des formats du courrier électronique.
- Session
Elle permet à des utilisateurs, opérant sur différentes machines, d'établir des sessions entre
eux. Une session a pour but le transport des données. Par rapport à la couche transport, elle
offre des services supplémentaires tels que :
o La gestion du dialogue ou du jeton : certains protocoles utilisent des jetons
(autorisation d'émission) que les machines d'un réseau peuvent s'échanger
o La synchronisation : cette technique consiste à insérer des éléments tests dans le flot
de données de manière à ne pas devoir reprendre la totalité d'une opération en cas
d'échec
- Transport
La gestion des communications entre les deux systèmes terminaux. Le traitement des
données de la couche session, découper ces données au besoin en petites unités ces petites
unités sont ensuite transmises à la couche réseau tout en s'assurant qu'elles sont parvenues
à destination.
- Réseau
Responsable du contrôle du réseau de communication. Les fonctions comprennent le
routage des données, l'adressage réseau, la fragmentation de gros paquets, la congestion et
le contrôle de flux.
- Liaison de données
Responsable de l'envoi d'une trame de données d'un système à un autre. Tente de s'assurer
que les erreurs dans le flux binaire reçu ne sont pas transmises au reste de la pile de
protocoles. Des techniques de correction et de détection d'erreurs sont utilisées ici
- Physique
Définit les connexions électriques et mécaniques au niveau physique, ou le canal de
communication lui-même. Les responsabilités fonctionnelles comprennent la modulation, le
multiplexage et la génération de signaux.

5.1.4 La couche 7 : Application


La couche application est la couche supérieure du modèle de référence OSI. Cette couche est
chargée de donner aux applications l'accès au réseau. Les services de la couche application sont
beaucoup plus variés que les services des couches inférieures, car la gamme complète des
possibilités d'application et de tâche est disponible ici. Les détails spécifiques dépendent du cadre ou
du modèle utilisé. Par exemple, il existe plusieurs applications de gestion de réseau. Chacune de
celles-ci fournit des services et des fonctions spécifiés dans un cadre différent pour la gestion du
réseau. Les programmes peuvent accéder aux services de la couche application via des éléments de
service d'application (ASE). Il existe une variété de ces éléments de service d’application ; chacun
conçu pour une classe de tâches. Pour accomplir ses tâches, la couche application transmet les
demandes et les données du programme à la couche présentation, qui est chargée de coder les
données de la couche application sous la forme appropriée.

MDRB543
30

5.1.5 La couche 6 : Présentation


La couche de présentation est chargée de présenter les informations d'une manière adaptée aux
applications ou aux utilisateurs traitant les informations. Des fonctions telles que la conversion de
données d'EBCDIC en ASCII (ou vice versa), l'utilisation de graphiques ou de jeux de caractères
spéciaux, la compression ou la décompression des données et le cryptage ou le décryptage des
données sont effectuées à cette couche. La couche de présentation fournit des services pour la
couche d'application au-dessus d'elle et utilise la couche de session en dessous. En pratique, la
couche de présentation apparaît rarement à l'état pur, et c'est la moins bien définie des couches OSI.
Les programmes de couche application ou session englobent souvent certaines ou toutes les
fonctions de la couche présentation.

5.1.6 La couche 5 : Session


La couche session est responsable de la synchronisation et du séquençage du dialogue et des
paquets dans une connexion réseau. Cette couche est également chargée de s'assurer que la
connexion est maintenue jusqu'à ce que la transmission soit terminée, et de s'assurer que les
mesures de sécurité appropriées sont prises pendant une « session » (c'est-à-dire une connexion). La
couche de session est utilisée par la couche de présentation au-dessus d'elle, et utilise la couche de
transport en dessous.

5.1.7 La couche 4 : Transport


Dans le modèle de référence OSI, la couche transport est chargée d'assurer le transfert de données à
un niveau de qualité convenu, par exemple à des vitesses de transmission et des taux d'erreur
spécifiés. Pour assurer la livraison, les paquets sortants reçoivent des numéros dans l'ordre. Les
numéros sont inclus dans les paquets qui sont transmis par les couches inférieures. La couche de
transport à l'extrémité de réception vérifie les numéros de paquet pour s'assurer que tous ont été
livrés et pour mettre le contenu du paquet dans l'ordre approprié pour le destinataire. La couche de
transport fournit des services pour la couche de session au-dessus d'elle et utilise la couche de
réseau en dessous pour trouver une route entre la source et la destination. La couche de transport
est cruciale à bien des égards, car elle se situe entre les couches supérieures (qui dépendent
fortement de l'application) et les couches inférieures (qui sont basées sur le réseau).

Les couches situées sous la couche de transport sont collectivement appelées couches de sous-
réseau. Selon la façon dont ils remplissent (ou non) leur fonction, la couche de transport doit
interférer moins (ou plus) afin de maintenir une connexion fiable.

Les classes de service de sous-réseau

Trois types de service de sous-réseau sont distingués dans le modèle OSI :

- Type A : service très fiable, orienté connexion (commutation de circuits)


- Type B : service non fiable, orienté connexion
- Type C : service non fiable, éventuellement sans connexion (commutation de paquets)

Les protocoles de la couche transport

Pour fournir les capacités requises pour le type de service applicable, plusieurs classes de protocoles
de couche transport ont été définies dans le modèle OSI :

MDRB543
31

- TP0 (protocole de transfert classe 0) C'est le protocole le plus simple. Il suppose un service de
type A ; c'est-à-dire un sous-réseau qui effectue la majeure partie du travail pour la couche de
transport. Parce que le sous-réseau est fiable, TP0 ne nécessite ni détection d'erreur ni
correction d'erreur. Parce que la connexion est orientée connexion, les paquets n'ont pas besoin
d'être numérotés avant la transmission
- TP1 (protocole de transfert classe 1) Il suppose un sous-réseau de type B ; c'est-à-dire qui peut ne
pas être fiable. Pour faire face à cela, TP1 fournit sa propre détection d'erreurs, ainsi que des
fonctionnalités permettant à l'expéditeur de retransmettre tout paquet erroné
- TP2 (protocole de transfert classe 2) Il suppose également un sous-réseau de type A. Cependant,
TP2 peut multiplexer les transmissions, de sorte que plusieurs connexions de transport peuvent
être maintenues sur la connexion réseau unique
- TP3 (protocole de transfert classe 3) Il suppose également un sous-réseau de type B. TP3 peut
également multiplexer les transmissions, de sorte que ce protocole a les capacités de TP1 et TP2
- TP4 (protocole de transfert classe 4) C'est le protocole le plus puissant, il émet des hypothèses
minimales sur les capacités ou la fiabilité du sous-réseau. TP4 est le seul des protocoles de
couche de transport OSI qui prend en charge le service sans connexion

5.1.8 La couche 3 : Réseau


La couche réseau est la troisième couche la plus basse ou la couche de sous-réseau la plus élevée.
Elle est responsable des tâches suivantes:

- Déterminer les adresses ou traduire du matériel aux adresses réseau. Ces adresses peuvent être
sur un réseau local ou elles peuvent faire référence à des réseaux situés ailleurs sur un inter-
réseau. L'une des fonctions de la couche réseau est, en fait, de fournir les capacités nécessaires
pour communiquer sur un inter-réseau.
- Recherche d'un itinéraire entre une source et un nœud de destination ou entre deux
périphériques intermédiaires
- Établissement et maintien d'une connexion logique entre ces deux nœuds, pour établir une
communication sans connexion ou orientée connexion. Les données sont traitées et transmises
en utilisant la couche liaison de données sous la couche réseau. La responsabilité de garantir la
bonne livraison des paquets incombe à la couche transport, qui utilise les services de la couche
réseau
- Fragmentation de gros paquets de données en trames suffisamment petites pour être transmises
par la couche liaison de données sous-jacente (fragmentation). La couche réseau correspondante
au niveau du nœud récepteur entreprend le réassemblage du paquet

5.1.9 La couche 2 : Liaison de données


La couche liaison de données est responsable de la création, de la transmission et de la réception des
paquets de données. Il fournit des services pour les différents protocoles au niveau de la couche
réseau et utilise la couche physique pour transmettre ou recevoir. La couche liaison de données crée
des paquets adaptés à l'architecture réseau utilisée. Les demandes et les données de la couche
réseau font partie des données de ces paquets (ou trames, comme on les appelle souvent à cette
couche). Ces trames sont transmises à la couche physique et de là, les données sont transmises à la
couche physique sur la machine de destination. Les architectures réseau (telles qu'Ethernet, ARCnet,
Token Ring et FDDI) englobent la liaison de données et les couches physiques, c'est pourquoi ces
architectures prennent en charge les services au niveau de la liaison de données. Ces architectures

MDRB543
32

représentent également les protocoles les plus couramment utilisés au niveau des liaisons de
données.

Les groupes de travail sur les réseaux IEEE (802.x) ont détaillé la couche liaison de données en deux
sous-couches :

- Sous-couche de contrôle de liaison logique (LLC) en haut


- Sous-couche de contrôle d'accès au support (MAC) en bas

La sous-couche LLC doit fournir une interface pour les protocoles de la couche réseau et contrôler la
communication logique avec son homologue côté réception. La sous-couche MAC doit fournir l'accès
à un schéma de codage et de transport physique particulier

5.1.10 La couche 1 : Physique


La couche physique est la couche la plus basse du modèle de référence OSI. Cette couche obtient des
paquets de données de la couche de liaison de données au-dessus et convertit le contenu de ces
paquets en une série de signaux électriques qui représentent les valeurs 0 et 1 dans une transmission
numérique. Ces signaux sont envoyés sur un support de transmission à la couche physique à
l'extrémité de réception. À la destination, la couche physique convertit les signaux électriques en une
série de valeurs binaires. Ces valeurs sont regroupées en paquets et transmises à la couche liaison de
données.

Les propriétés mécaniques et électriques du support de transmission sont définies à ce niveau. Ceux-
ci comprennent les éléments suivants :

- Le type de câble et de connecteurs utilisés. Le câble peut être coaxial, à paire torsadée ou à fibre
optique. Les types de connecteurs dépendent du type de câble
- Les affectations des broches pour le câble et les connecteurs. Les affectations des broches
dépendent du type de câble et également de l'architecture réseau utilisée
- Format des signaux électriques. Le schéma de codage utilisé pour signaler les valeurs 0 et 1 dans
une transmission numérique ou des valeurs particulières dans une transmission analogique
dépendent de l'architecture de réseau utilisée. La plupart des réseaux utilisent la signalisation
numérique et la plupart utilisent une forme de codage Manchester pour le signal

6 Protocole TCP/IP
6.1 PILE DE PROTOCOLES TCP/IP
TCP/IP (Transmission Control Protocol/Internet Protocol) a été développé à partir de 1969 sur la base
du projet DARPA (Defense Advanced Research Project Agency) de la défense américaine. Sa mise en
place réelle date des années 80 avec la mise en service du réseau scientifique – Arpanet – et son
implémentation dans les universités américaines. Son essor est intimement lié au développement
d’Internet, qui lui assure une reconnaissance mondiale et l’impose comme « standard de fait ».Il est
à présent adopté, à la fois sur des réseaux longue distance tel qu’Internet mais également comme
protocole de transport et de réseau dans une grande majorité des réseaux locaux d’entreprise.

MDRB543
33

TCP/IP ou la « pile TCP/IP » est en fait une « suite de protocoles », travaillant selon le modèle DOD
(Department Of Defense) qui recouvre les différentes couches du modèle ISO (International Standard
Organization) – notamment au niveau des couches réseau et transport. TCP/IP « englobe » ainsi un
certain nombre de protocoles tels que :

 Niveau DOD internet (réseau – niveau 3 ISO)


o IP (Internet Protocol) : circulation des paquets – RFC 791
o ICMP (Internet Control Message Protocol) : permet de contrôler les échanges entre
nœuds du réseau – RFC 792
o ICMP (Internet Control Message Protocol) : permet de contrôler les échanges entre
nœuds du réseau – RFC 792
 Niveau DOD host to host (transport – niveau 4 ISO)
o TCP (Transmission Control Protocol) – RFC 793
o UDP (User Datagram Protocol) – RFC 768
 Niveau DOD applications (niveaux 5, 6 et 7 ISO)
o DNS (Domain Name Service) : correspondance entre adresse IP et nom réseau tel
qu’il est reconnu sous Internet – RFC 1034
o FTP (File Transfert Protocol) : transfert de fichiers – RFC 959
o NFS (Network File System) : permet le partage de fichiers
o SMTP (Simple Mail Transport Protocol) : courrier électronique – RFC 821
o TelNet (Teletype Network) : ouverture de sessions à distance… – RFC 854
o SLIP (Serial Line IP) et PPP (Point to Point Protocol) : adaptent TCP/IP à des liaisons
série via le Réseau Téléphonique Commuté ou les Liaisons Spécialisées.

6.1.1 IPv4 (Internet Protocol) – niveau 3 « Réseau »


Le niveau 3 du modèle OSI doit assurer, les fonctions d’adressage, de routage et de contrôle de flux
des trames. Ces fonctions sont prises en charge par la couche IP. La version qui reste encore la plus
utilisée est IPv4 mais la version IPv6, plus performante, commence à faire son apparition.

MDRB543
34

a) Les classes d’adressage

Afin de repérer les nœuds du réseau (host, station, routeur…), chacun doit être muni d’une adresse
IP. Chaque adresse IPv4 comporte 32 bits (4 octets) et est souvent représentée sous forme de 4 blocs
de trois chiffres décimaux, codant chacun les 8 bits de l’octet, ces chiffres étant séparés par des
points (notation dite en « décimal pointé »).

Ainsi 191.168.010.001 est une adresse IP qui s’écrit plus souvent 191.168.10.1.Elle correspond en fait
à une série de 4 octets (32 bits).

191 168 010 001


1011 1111 1010 1000 0000 1010 0000 0001

Cette série binaire a pour but fondamental de déterminer deux informations : l’identifiant du réseau
et l’identifiant de l’hôte.

Avec IPv4, les adresses sont organisées en cinq classes, dont trois classes principales, notées A, B et
C, les classes D et E étant d’un usage particulier.

La position du premier bit à 0 rencontré dans les bits de poids forts du premier octet d’adresse (le
plus à gauche) permet de déterminer la classe d’adressage. Si ce bit 0 est en première position c’est
une adresse de classe A, s’il est en deuxième position c’est une classe B, etc.

Ainsi, 191 comme valeur de premier octet d’adresse, donne en binaire 1011 1111. Le premier bit de
poids fort ayant la valeur 0 est en deuxième position, il s’agit donc d’une adresse de classe B.

Classe A : le premier octet repère l’adresse réseau. Le premier bit de cet octet étant à 0, on peut,
avec les 7 bits restants, définir, en théorie 128 (27) adresses de réseaux. En pratique, seules 126
seront exploitées (car l’adresse 0 est interdite et la plage 127.0.0.1 à 127.255.255.255 est réservée
aux tests). Les 3 octets qui restent permettent alors de définir en théorie 224 adresses possibles, soit
plus de 2 milliards d’adresses (126 x 16 777 216). Le nœud d’un réseau de classe A pourrait donc
avoir une adresse comprise, théoriquement, entre 1.0.0.0 et 126.255.255.255. Le masque associé par
défaut à une adresse de classe A est 255.000.000.000 souvent noté 255.0.0.0

Classe B : les deux premiers octets codent l’adresse réseau. Les deux premiers bits de la classe étant
forcés à 10 on peut avec les 14 bits qui restent (2 octets moins les 2 bits 10) définir en théorie 214
adresses réseaux comprenant chacun en théorie 216 adresses possibles de nœuds. Le nœud d’un
réseau de classe B peut donc avoir une adresse comprise, en théorie, entre 128.0.0.0 et
191.255.255.255. Le masque associé par défaut à une adresse de classe B est 255.255.000.000.

MDRB543
35

Classe C : les trois premiers octets codent l’adresse réseau. Les trois premiers bits de cette classe
étant forcés à 110, on peut définir avec les 21 bits restants (3 octets moins les 3 bits 110), 221 réseaux
comprenant en théorie 28 soit 256 machines. Le nœud d’un réseau de classe C peut donc avoir une
adresse comprise, en théorie, entre 192.0.0.0 et 223.255.255.255. Le masque associé par défaut à
une adresse de classe C est 255.255.255.000.

Le rôle du masque
Un masque (Subnet mask) de 4 octets est appliqué à l’adresse IP afin de distinguer la partie « réseau
» (net id) de la partie « nœud » (node id ou host id). La valeur 255 attribuée à un octet du masque
correspond à une série de 8 bits à 1 (1111 1111) et la valeur 000 à une série de 8 bits à 0 (0000 0000).
Pour trouver l’adresse réseau, le système procède à un ET logique (AND) entre le masque de réseau
et l’adresse IP.

En fait, si on considérait uniquement des réseaux et des stations, la connaissance de la classe suffirait
à distinguer la partie réseau de la partie station et le masque ne trouve sa pleine utilité qu’avec les
sous-réseaux et les adresses « classless » CIDR ainsi que nous allons le voir.

b) Le routage

La pile TCP/IP a été conçue dès l’origine pour interconnecter des réseaux physiques, au moyen de
composants : les routeurs. IP est donc un protocole « routable » ce qui n’est pas le cas de tous les
protocoles employés en réseaux locaux. C’est pourquoi l’adresse IP est composée d’une partie «
adresse réseau » et d’une partie « adresse hôte ».

La remise des datagrammes IP peut se faire de deux manières :

- Remise directe ou routage direct si le datagramme IP est destiné à un nœud du même réseau.
Les deux machines situées sur le même réseau devant donc avoir la même adresse « réseau ». Il
suffit d’encapsuler le datagramme IP dans une trame puis de l’envoyer sur le lien physique ;
- Remise indirecte ou routage indirect si le routeur doit remettre le datagramme à un nœud d’un
autre réseau, reliés entre eux par des routeurs. Le poste doit donc savoir à quel routeur
(passerelle ou gateway) s’adresser. Le routeur devra savoir à son tour à quel éventuel autre
routeur envoyer les datagrammes… En effet, on ne diffuse pas les datagrammes vers tous les

MDRB543
36

routeurs disponibles sinon on arriverait très vite à une « explosion » du réseau. On doit donc
utiliser des tables de routage qui associent, à l’adresse IP du réseau, l’adresse IP du routeur
auquel est attaché ce réseau. Ces tables de routages peuvent être échangées entre routeurs
proches pour tenir compte des mises à jour éventuelles, ce qui peut être à l’origine d’un
accroissement du trafic sur le réseau.

Considérons par exemple un ensemble de trois réseaux de classe A. Nous distinguons ici des réseaux
dont les adresses réseau sont 11, 12 et 121. Rien n’interdit de donner, au sein de chacun de ces
réseaux, des adresses identiques aux stations. Par exemple l’adresse station 1.1.1 se retrouve aussi
bien dans le réseau 11 que dans le réseau 12.

Quand un message est expédié par la machine d’adresse 12.1.1.1 vers la machine d’adresse 12.3.1.2,
les deux machines ayant la même adresse réseau (12), le routeur ne sera pas sollicité. C’est la remise
directe ou routage direct. Par contre si la machine d’adresse 12.1.1.1 expédie un message vers la
machine 121.65.1.207, les deux machines sont dans des réseaux différents (12 d’une part et 121
d’autre part). Le routeur devra donc être sollicité et le message sera expédié (routé) par le routeur
vers le réseau 121 et lui seul (le réseau 11 n’étant pas concerné). C’est la remise indirecte ou routage
indirect.

La question que l’on est en droit de se poser c’est « qu’en est-il du routeur et comment sait-on s’il
faut s’adresser à lui ? » En fait c’est simple, le routeur n’est qu’un nœud particulier disposant de
plusieurs interfaces (une « patte » dans chacun des réseaux) munies d’adresses IP. Cette interface est
aussi désignée sous le nom de « passerelle » (gateway) et chaque station d’un réseau doit disposer
d’une adresse de passerelle si elle veut pouvoir communiquer avec d’autres réseaux. En comparant,
après application du masque de réseau, l’adresse réseau de destination avec l’adresse réseau locale,
l’émetteur va savoir si le datagramme doit être transmis au réseau auquel il appartient (même
adresse de réseau donc remise directe) ou envoyé au routeur (adresses de réseaux différentes donc
remise indirecte). Le routeur se chargeant éventuellement de l’expédier vers une éventuelle autre
passerelle…

c) Attribution des adresses IP

Dans un réseau privé (particulier, entreprise…) on peut théoriquement utiliser n’importe quelle
adresse IP. Cette adresse peut être définie de manière statique et arbitraire ou attribuée
automatiquement à l’aide d’un serveur d’adresses IP dit DHCP (Dynamic Host Configuration
Protocol).

Toutefois, si un nœud doit être mis en relation avec des machines extérieures, il faut lui attribuer (ou
lui faire correspondre… cf. ci-après Translation d’adresses) une adresse publique unique qu’aucune
autre machine au monde ne doit posséder. Ainsi, quand on configure un serveur Web pour Internet,
on ne lui attribue pas n’importe quelle adresse IP. Ces adresses publiques sont attribuées par un

MDRB543
37

organisme spécifique InterNIC (Inter Network Information Center) ou l’un de ses « représentants » –
AFNIC (Association Française pour le Nommage Internet en Coopération) …. Pour l’utilisateur qui
accède à Internet par le biais d’un FAI (Fournisseur d’Accès Internet) ou ISP (Internet Service
Provider), c’est ce dernier qui dispose réellement d’une adresse Internet et non pas le client. Ce
dernier ne fait en général que de l’accès distant sur une machine du FAI qui lui attribue,
provisoirement, le temps de la session ou un peu plus, une adresse IP affectée par un serveur DHCP
(Dynamic Host Configuration Protocol).

6.1.2 TCP (Transport Control Protocol) – niveau 4 « Transport »


Le service de transport (niveau 4) a pour rôle d’assurer le transfert des données entre les participants
à la communication. TCP a ainsi été conçu pour fournir un service sécurisé de transmission de
données entre deux machines. TCP est un protocole fonctionnant en mode connecté c’est-à-dire
associant, à un moment donné, deux adresses de réseau. Pour cela chaque participant établit et
ouvre une connexion et affecte à cette connexion un numéro de port d’entrée-sortie. Quand cette
mise en relation est établie (TCP établi), l’échange des données peut alors commencer.

L’établissement de la connexion se fait selon une technique de négociation ternaire dite three ways
handshake (poignée de main en trois temps) :

1. Le client émet un segment avec SYN à 1 (segment de synchronisation) et contenant le


numéro de séquence initial N de départ – ISN (Initial Sequence Number).
2. Le serveur reçoit le segment initial du client et lui renvoie un accusé de réception, consistant
en un segment avec SYN à 1 (synchronisation) et ACK à 1 (acquittement). Le numéro de
séquence X est celui du serveur et le numéro d’acquittement contient le numéro de
séquence du client, incrémenté de 1
3. Le client renvoie au serveur un accusé de réception final, consistant en un segment avec SYN
à 0 (car il ne s’agit plus d’un segment de synchronisation) et ACK à 1. Le numéro de séquence
est incrémenté de 1 et le numéro d’acquittement contient le numéro de séquence du
serveur incrémenté de 1.

Afin de gérer simultanément plusieurs transmissions TCP utilise des ports virtuels représentés par
des numéros de port. On peut théoriquement utiliser 65 536 ports. Ces ports peuvent être définis
par l’utilisateur ou « standards ». Ainsi le port 80 est traditionnellement celui utilisé lors des

MDRB543
38

échanges HTTP utilisés avec Internet. Mais dans un environnement sécurisé (proxy, firewall…) ce port
pourra être différent.

L’adresse unique d’un point d’entrée TCP dans une station est ainsi obtenue par la concaténation de
l’adresse Internet IP avec le numéro du port utilisé, le tout constituant un « socket ». Ce socket doit
être unique dans l’ensemble du réseau (par exemple 10.100.3.105:80 correspond au point d’entrée
des applications HTTP sur la machine 10.100.3.105). Une connexion de base est donc définie par un
couple de sockets, un pour l’émetteur et un pour le récepteur.

Les paquets vont ensuite être envoyés et TCP va s’assurer de leur bonne réception au travers
d’acquittements (ACK – Acknowledgment), échangés entre participants. TCP garantit également la
livraison « séquencée » – dans le bon ordre – des paquets et assure le contrôle par checksum
(vérification de l’intégralité de l’entête TCP) des données et en-têtes. De ce fait, si un paquet est
perdu ou endommagé lors de la transmission, TCP en assure la retransmission. Il permet également
de gérer le multiplexage des paquets, ce qui permet d’assurer le téléchargement d’un fichier tout en
consultant simultanément des informations d’un site Internet.

6.1.3 UDP (User Datagram Protocol)


UDP est aussi un composant de la couche transport mais il assure uniquement une transmission non
garantie des datagrammes. En effet il n’utilise pas d’accusé de réception, n’assure pas le ré
ordonnancement des trames, non plus que le contrôle de flux. C’est donc au niveau application qu’il
faut assurer cette gestion. Il est, de ce fait, moins utilisé que TCP et en général plutôt dans un
contexte de réseau « local » que sur un réseau « étendu ». Ainsi, l’utilitaire de transfert de fichiers à
distance FTP se base sur TCP tandis que son équivalent « local » TFTP (Trivial FTP) s’appuie sur UDP.

6.2 Ethernet
Ethernet est actuellement « le standard » utilisé sur les réseaux locaux de gestion. Token Ring a
quasiment disparu.

MDRB543
39

6.2.1 Les origines d’Ethernet


Vers 1960, l’université d’Hawaii met au point, afin de relier ses machines réparties sur un campus
géographiquement étendu, la technique de la diffusion, connue à cette époque sous le nom de
réseau ALOHA. Cette technique est à la base du mode d’accès CSMA/CD. Le centre de recherche de
Rank Xerox met au point [1972] un système de câblage et de signalisation qui utilise la diffusion
CSMA/CD, donnant naissance au réseau Ethernet. Enfin, Xerox, Intel et Digital s’associent [1975]
pour élaborer la norme de l’architecture Ethernet 1 Mbit/s. Ethernet est né et ne va cesser de
progresser en s’adaptant à l’évolution des médias et des débits.

Les organismes IEEE (Institute of Electrical and Electronic Engineers) et ISO (International Standard
Organization) ont intégré ces modèles dans un ensemble de normes référencées IEEE 802.2 et IEEE
802.3 ou ISO 8802.2 et ISO 8802.3. Ethernet est donc devenu un standard et c’est actuellement
l’architecture de réseau la plus répandue.

6.2.2 Caractéristiques du réseau Ethernet


Ethernet est à l’origine une architecture réseau de type bus linéaire, supportée par du câble coaxial
mais ces caractéristiques ont évolué pour correspondre aux progrès technologiques. Actuellement
les caractéristiques d’un réseau Ethernet sont généralement les suivantes.

Topologie Bus linéaire – essentiellement à l’origine Étoile – sur


concentrateur ou commutateur
Mode de transmission Bande de base
Mais on peut utiliser la large bande
Mode d’accès CSMA/CD
Vitesse de transmission 10 Mbit/s
100 Mbit/s
1 Gbit/s
10 Gbit/s (100 Gbit/s prévus vers 2010)
Câblage Coaxial fin ou épais (10 Base-2 ou 10 Base-5) où
Paire torsadée (10 BaseT, 100 BaseT, 1000 BaseT)
Fibre optique (100 BaseF, 1000 BaseF et 10 GE)
Normalisation IEEE 802 et ses adaptations (802.1, 802.2, 802.3…)
ISO 8802 et ses adaptations (8802.2, 8802.3…)

a) Place d’Ethernet dans les normes ISO et IEEE

La norme IEEE 802, qui fait référence en matière de réseau Ethernet, introduit une division de la
couche Liaison de données (niveau 2 ISO « couche Ligne ») en deux sous-couches.

- La couche LLC (Logical Link Control)


- La couche MAC (Media Access Control).

MDRB543
40

b) Rôle des couches MAC et LLC

La sous-couche MAC (Media Access Control) correspond à la couche inférieure de cette division du
niveau 2 et communique donc : d’un côté directement avec le niveau physique (niveau 1 ISO) – d’où
l’appellation de contrôle d’accès au média se matérialisant au travers de l’adaptateur (interface,
carte…) réseau ; et de l’autre côté avec la sous-couche LLC. La sous-couche MAC assure le formatage
des trames à transmettre et doit aussi assurer la remise des données entre deux stations du réseau.
Elle répond à diverses normes en fonction du mode d’accès utilisé :

- 802.3 CSMA/CD ;
- 802.4 Bus à jeton ;
- 802.5 Anneau à jeton ;
- 802.12 Priorité à la demande…

La plus répandue de ces normes est sans nul doute la 802.3 qui correspondent au mode d’accès
CSMA/CD utilisé dans la plupart des architectures Ethernet.
L’adaptateur réseau intègre en mémoire morte, une adresse unique, adresse matérielle ou adresse
MAC (Media Access Control) composée de 6 octets (48 bits). Les 3 premiers octets, attribués par
l’IEEE identifient le constructeur, tandis que les 3 suivants identifient l’adaptateur. La sous-couche
MAC est chargée de faire le lien des couches supérieures avec cette adresse.

La sous-couche LLC (Logical Link Control), ou contrôle des liens logiques, située au-dessus de la
couche MAC est chargée de gérer les communications en assurant le contrôle du flux de données et
des erreurs. Elle communique avec la couche MAC d’un côté et avec la couche Réseau (niveau 3 ISO)
d’un autre. La sous-couche LLC définit l’usage de points d’interface logique SAP (Service Access Point)
qui correspondent en quelque sorte à des adresses utilisées pour communiquer entre les couches de
la pile OSI. On rencontre, ainsi dans les trames Ethernet définies par l’IEEE 802 (RFC 1042), une zone
DSAP (Destination Service Access Point) et une zone SSAP (Source Service Access Point),
correspondant aux adresses de destination et d’origine de la trame.

Les données du niveau LLC se présentent sous la forme d’un LPDU (LLC Protocol Data Unit), structuré
comme indiqué dans la figure suivante. La trame LLC est ensuite encapsulée dans la trame de niveau
inférieur (trame Ethernet de niveau MAC). Le LPDU correspond donc au champ de données de la
trame Ethernet-MAC.

MDRB543
41

La norme IEEE 802.3 a été reprise par l’ISO sous la référence ISO 8802.3 et décrit les caractéristiques
des réseaux Ethernet. On rencontre ainsi les principales variantes suivantes, données ici avec leurs
références IEEE.

 Ethernet à 10 Mbit/s
o IEEE 802.3 – 10 Base-2 Ethernet 10 Mbit/s coaxial fin – coaxial brun dit
également Thin Ethernet, portée de 185 m ;
o IEEE 802.3 – 10 Base-5 Ethernet 10 Mbit/s coaxial épais – coaxial jaune dit
aussi Thick Ethernet, portée de 500 m ;
o IEEE 802.3 – 10 Base-T Ethernet 10 Mbit/s paire torsadée (Twisted pair),
portée de 100 m (non blindé) à 150 m (blindé) ;
o IEEE 802.3 – 10 Base-F Ethernet 10 Mbit/s fibre optique (Fiber optic), portée
usuelle d’environ 1 200 m mais pouvant dépasser 4 000 m…
 Ethernet à 100 Mbit/s
o IEEE 802.3 – 100 Base-T Ethernet 100 Mbit/s paire torsadée (Twisted pair), dit
également Fast Ethernet, portée de 100 m (non blindé) à 150 m (blindé) ;
o IEEE 802.3u – 100 Base-T4 câble 4 paires – blindé ou non – catégorie 5, portée
de 100 m (non blindé) à 150 m (blindé) ;
o IEEE 802.3u – 100 Base-TX câble 2 paires – blindé ou non, portée de 100 m (non
blindé) à 150 m (blindé) ;
o IEEE 802.3u – 100 Base-FX fibre optique 2 brins, portée usuelle d’environ 1 200
m mais pouvant dépasser 4 000 m.

On ne rencontre pas de carte Ethernet 100 Mbit/s offrant un port BNC qui permette de se connecter
sur du câble coaxial.

 Ethernet à 1 000 Mbit/s ou 1 GE


o IEEE 802.3 ab – 1 000 Base-T (Twisted pair), dit Gigabit Ethernet, Ethernet 1 000 Mbit/s, 1
Gbit/s ou encore 1 GE… – sur paire torsadée UTP catégorie 5e ;
o IEEE 802.3 z – 1 000 Base-LX (Long wavelength, onde longue) portée de 440 m sur fibre
optique multimode 62,5 m avec une portée de 550 m sur fibre optique multimode 50 m ;
o IEEE 802.3 z – 1 000 Base-SX (Short wavelength, onde courte) portée de 260 m sur fibre
optique multimode 62,5 m avec une portée de 550 m sur fibre optique multimode 50 m et
une portée de 5 km sur fibre optique monomode 10 µ ;
o IEEE 802.3 z – 1 000 Base-CX portée de 25 m sur câble cuivre blindé…

 Ethernet à 10 Gbit/s ou 10 GE
o IEEE 802.3 ae – 10 G-Base SR portée de 65 m sur fibre multimode pour l’inter connexion
d’équipements proches ;

o IEEE 802.3 ae – 10 G-Base LX4 portée de 300 m à 10 km sur fibre optique


multimode/monomode ;
o IEEE 802.3 ae – 10 G-Base LR portée de 10 km sur fibre optique monomode ;
o IEEE 802.3 ae – 10 G-Base ER portée de 40 km sur fibre optique monomode ;
o IEEE P802.3an – 10 GBase-T portée de 100 m sur paire torsadée en cuivre, en catégories
6a UTP, 6a F/UTP (blindage général) et 7 S/FTP (blindé par paire) …

MDRB543
42

 Ethernet radio
o IEEE 802.11 – 10 Base-X Ethernet de 11, 54 ou 540 Mbit/s par voie radio (802.11b,
802.11a, 802.11g et 802.11n), portée de quelques centaines de mètres suivant
l’environnement.

c) Structure des trames

Ethernet transporte les données sur des trames de longueur variable (de 64 octets au minimum à
1531 octets selon le type). La taille des données transportées (charge utile ou payload) varie quant à
elle de 46 à 1 500 octets maximum par trame et ce quel que soit le type de trame Ethernet employé.
Précisons que certains constructeurs proposent l’usage de trames Jumbo Frames – non normalisées
– pouvant atteindre environ 9 Ko.

Chaque trame va comprendre sensiblement les mêmes sections :

- Le préambule comporte 7 octets de valeur 0xAA (101010102) permettant d’assurer la fonction


de synchronisation avec les stations réceptrices. Il est associé à un octet supplémentaire dit SFD
(Start Frame Delimiter) de valeur 0xAB qui, se terminant par deux 1 consécutifs, sert à repérer le
début de la trame (fanion),
- L’adresse de destination de la trame correspond à l’adresse MAC de la station à laquelle sont
destinées les informations. Cette adresse MAC est codée sur 6 octets,
- L’adresse de source de la trame correspond à l’adresse MAC de la station qui émet les
informations,
- Les octets suivants, en nombre variable, ont un rôle différent selon le type de trame,
- Les données. Leur taille varie de 46 à 1 500 octets par trame,
- Le FCS (Frame Check Sequence) est le résultat d’un contrôle de type modulo destiné à savoir si la
trame est arrivée en bon état. C’est un contrôle de redondance cyclique CRC et on le trouve
parfois sous ce nom.

On exploite, avec Ethernet, divers types de trames :

- Trame Ethernet 802.2 : employé avec le protocole IPX/SPX mais aussi avec le protocole de
transfert FTAM (F ile Transfert Access and Management). Dans cette trame, 2 octets indiquent la
longueur du champ de données contenu dans la trame. Ils sont suivis de 3 octets contenant l’en-
tête LLC. Le premier de ces octets est le DSAP (Destination Service Access Point) et indique le
type de protocole utilisé par le poste source. Le deuxième est le SSAP (Source Service Access
Point) et le troisième joue le rôle de pointeur de contrôle.

- Trame Ethernet SNAP : (Subnetwork Access Protocol) qui accepte les protocoles IPX/SPX, TCP/IP
et Apple Talk. Dans cette trame, 2 octets indiquent ici la longueur du champ de données et sont
suivis des 3 octets d’en-tête LLC ainsi que de 2 octets codant l’en-tête SNAP

MDRB543
43

- Trame II ou V2 : la plus couramment employée. Elle fonctionne comme l’Ethernet SNAP mais se
différencie au niveau d’un des champs de la trame. Dans la trame Ethernet II, 2 octets suivant les
adresses indiquent le type de trame, ce qui permet d’identifier le protocole réseau utilisé IP ou
IPX. Les valeurs couramment rencontrées sont 0800h pour une trame IP, 0806h pour une trame
ARP, 0835h pour une trame RARP et 809Bh pour une trame AppleTalk.

7 Les réseaux locaux industriels

7.1 Introduction
7.1.1 Définition
Un réseau local industriel (RLI) est un système de communication entre plusieurs équipements de
type industriel (capteurs, automates, actionneurs, ...) dans une zone géographique limitée (un «
terrain »). On parle aussi de « bus de terrain » ou de « réseau de terrain ».

Il existerait plus de 2000 bus de terrain différents ! Les technologies les plus répandues sont :
Modbus, Profibus, ASI et le bus CAN.

- Bus de terrain : Système de Communication Numérique, reliant différents types d ’équipements


d ’automatismes.
- Réseau Local Industriel : Réseau Informatique de type LAN, dont la topologie, les performances
et la robustesse sont adaptées aux contraintes industrielles :

Dans l’industrie le réseau doit se caractériser de :

- Robustesse du support de transmission et/ou des signaux électriques mis en jeu vis à vis des
perturbations électromagnétiques (Couche 1 du modèle OSI)
- Une robustesse physique (poussières, chocs, températures, atmosphères explosives, vibrations)
robustesse du support de transmission (Couche 1 du modèle OSI)

MDRB543
44

- Une réponse en temps limité : Modes d'accès au médium favorisant des temps de réponse
déterministes (Couche 2 du modèle OSI)

7.1.2 La pyramide CIM


La pyramide du CIM (Computer Integratd Manufacturing) est un modèle largement généralisé qui
représente 4 niveaux auxquels correspondent des nivaux de décision. Plus on s’élève dans la
pyramide CIM, plus le niveau de décision est important et plus visible et globale. Un niveau supérieur
décide ce qu’un niveau inférieur exécute.

On distingue généralement les niveaux suivants :

- Au niveau 3 : la gestion des produits et des stocks, la gestion des approvisionnements, la


gestion des clients, des commandes et de la facturation (gérés par les ERP (enterprise resources
planning))
- Au niveau 2 : la localisation des produits en stocks, les mouvements physiques et la gestion des
lots (géré par le système de gestion d'entrepôt)
- Au niveau 1 : les automatismes
- Au niveau 0 : les capteurs et actionneurs

Ainsi à chaque niveau, correspond un bus ou un réseau adapté aux besoins :

- Réseaux locaux industriels (data bus) : communication entre l’automatisme et le monde


informatique
o Quantités importantes d'information (messages, fichiers)
o Temps de réaction de 1 s à 10 s (temps non critique)
o Longue distance
- Bus de terrain : (fiel bus) réseaux entre unités de traitement (automates programmables,
superviseurs, commandes numériques…), (device bus) bus et réseaux pour la périphérie
d’automatisme (variateurs, robots, axes …) permet la communication d’unités de traitement
pour la coordination des automatismes distribués.
o Quantité de données relativement faible < 256 octets
o Temps de réaction < 100ms (notion d’événement temps réel)
o Distance < 1km
- Bus capteur/actionneur (sensor bus) : interface avec les capteurs/actionneurs, relie entre des
nœuds à intelligence limitée ou nulle
o Niveau bits
o Temps de réaction < 10 ms (contrainte temps réel) : déterminisme
o Distance < 100m

7.1.3 Avantages et inconvénients du bus de terrain


- Les avantages :
o Câblage simplifié : réduction des frais d’installation, installation et mise en service
plus rapide
o Maintenance simplifiée et plus efficace : accès aux informations d’état des
périphériques, détection facilitée des défauts ; réparations plus rapides
o Performances plus élevées : facilite la décentralisation de la commande, données des
périphériques accessibles partout

MDRB543
45

o Modularité : machines plus modulaires (assemblage plus rapide), flexibilité


d’extension et de modifications des machines, connexion à chaud (hot-plug)
- Les inconvénients
o Topologie plus complexe : l’accès au bus requiert des périphériques plus sophistiqués
(logique programmé ou µP), gestion des limites de performance
o Coûts logistiques supplémentaires : outils spécialisés plus couteux et plus complexes
o Manque de comptabilité et de normalisation :
chaque fournisseur de composants ne couvre qu’un choix restreint de bus de terrain

7.1.4 Modelé OSI et RLI


Le modèle OSI gère les grands réseaux à commutation de paquets. Le temps n'a pas été pris en
compte. Pour les réseaux locaux, la notion de temps réel est un point très important. La couche
physique est indispensable à la communication. La couche liaison de données aussi pour l'accès au
média et la détection des erreurs. Les couches réseaux et transport ont été définies pour gérer les
problèmes des paquets qui transitent par des stations intermédiaires : elles n'ont plus lieu d'être
pour les RLI car toutes les stations sont interconnectées. La couche session permet l'échange d'une
grande quantité d'information, ce qui n'est pas le cas pour les RLI. La couche présentation peut être
figée et non dynamique ce qui la rend transparente. La couche application reste évidemment
nécessaire.

Le bus de Terrain est donc basé sur une restriction du modèle I.S.O. à 3 couches : application, liaison
et physique.

8 Modbus RTU et TCP


Modbus est un bus du niveau 2 de la pyramide CIM qui englobe le réseau d’automates et la
périphérie. Modbus est la contraction de « Modicon » et de « Bus ». Il s'agit du premier bus de
terrain normalisé, et a été conçu dans les années 80 par le fabriquant d'automates Modicon
(aujourd'hui Schneider-Télémécanique).

Historiquement, Modbus a été développé pour le milieu industriel sur des lignes séries (RS232,
RS485), puis avec l'essor des réseaux informatiques sur Ethernet.

8.1 Description des échanges

a) La trame modbus

La longueur totale de la trame PDU ne peut excéder 253 octets (pour des raisons de compatibilité
des échanges entre les modes série et TCP). La longueur champ de données peut être comprise entre
0 et 252 octets.
Modbus définit une trame de base baptisée « PDU » (« Protocol Data Unit ») indépendante du type
de protocole considéré (série ou TCP).

MDRB543
46

Cette trame contient deux champs :


- un champ pour le code de la Fonction Modbus : Spécifie le type d'opération initié par la
communication (lecture de mots, écriture de bits etc...)
- un champ de données : Données nécessaires à l'exécution de la fonction ou renvoyées par celle-ci.

La trame Modbus complète, « ADU » (Application Data Unit ») comportera en plus les informations
d'adressage et de détection d'erreur propres au média de communication envisagé (série ou TCP).

b) Les types de données échangées

Les données pouvant êtres échangées en modbus sont illustrées dans la table suivante :

Type d’objet Accès exemple


Bits d’entrée (discrets Bits Lecture Interface d’entrées
inputs) TOR
Bits de sortie (coils) Bits Lecture/écriture Interface de sorties
TOR, bits internes
Mots d’entrée (input Mots Lecture Interface d’entrées
register) analogiques
Mots de sortie (holding Mots Lecture/écriture Registres internes,
registers) sorties analogiques

Les adresses des objets Modbus sont codées sur 16 bits, ce qui autorise 65536 objets de chaque type
possible par équipement accessibles via Modbus.
C'est à chaque fabriquant de matériel de définir les plages d'adresses pour chacun de ces segments
de données, ceux-ci pouvant tout aussi bien être disjoints que confondus. Les adresses Modbus PDU
commencent à 0, chaque fabriquant spécifie via une table de correspondances les adresses
correspondantes des objets accessibles de son équipement.

c) Les fonctions modbus


Les fonctions Modbus sont codées sur un octet : Les valeurs 1 à 127 correspondent à des fonctions
Modbus, Les valeurs 128 à 255 correspondent aux codes d'exceptions indiquant qu'une erreur s'est
produite au cours d'un échange et le code 0 n'est pas valide.

MDRB543
47

d) Les échanges modbus


Les échanges Modbus sont basés sur un modèle Client / Serveur (maître/esclave dans le cas série). Le
Client (maître) est toujours à l'initiative d'un échange. Il envoie une requête au serveur (esclave) qui
lui retourne, après analyse de cette requête une réponse.
La trame de réponse contient les éventuelles données demandées par le client dans le champ de
données et le code de la fonction exécutée en écho (Accusé réception : Signifie que la fonction a été
correctement exécutée).
Si une erreur est détectée à la réception grâce au champ de contrôle (error check), ou si une erreur
survient lors de l'exécution de la requête par le serveur, la réponse renvoyée par celui-ci est alors
dite « d'exception ». Le champ « fonction » de la réponse contient alors la valeur [128 + code
fonction] indiquant au client que la fonction n'a pu être exécutée; le champ « données » contient
quant à lui un code d'exception indiquant le type d'erreur qui s'est produite.

8.2 Modbus Série


Les premières implantations du protocole Modbus sont apparues sur des lignes séries. Les services
offerts par ces protocoles sont ceux définies par la couche application commune aux protocoles
Modbus, et quelques services supplémentaires s’ajoutent.

MDRB543
48

Tout d'abord, un mode appelé « diffusion » (« Broadcast ») permet au maître (client) de s'adresser à
l'ensemble des esclaves (serveurs) présents sur le bus en envoyant une requête à l'adresse 0. D'autre
part, un certain nombre de fonctions de diagnostique ne sont implantées que sur Modbus série.
En plus des champs définis par la couche applicative de Modbus (code fonction et données), Les
trames Modbus série incluent :

- L’adresse de l'esclave en en-tête (1 octet) :


o Adr = 0 pour la diffusion,
o 1<Adr<255 pour un échange entre maître et esclave
- Champ de contrôle de la validité de l'échange : (1 ou 2 octets)

8.2.1 La couche physique

La couche physique de Modbus série obéit à l'une des 2 normes RS232 ou RS485.

a) RS232 : permet l’échange entre un maître et un esclave à une distance de moins de 20 m et


des niveaux de tension de +/-12v par rapport à la masse

b) RS485 : permet l’échange entre un maître et plusieurs esclaves à une distance qui peut aller
jusqu’à 120 m et des niveaux de tension de 0/5v par rapport à la masse.

Le tableau suivant illustre le câblage en RS485 à deux fils

MDRB543
49

Le tableau suivant illustre le câblage en RS485 à 4 fils

8.2.2 La couche liaison de données

Deux variantes du protocole Modbus série coexistent, qui se différencient au niveau de la couche
liaison de données : modbus RTU et Modbus ASCII. L'implantation Modbus RTU est obligatoire sur un
composant Modbus série; celle de Modbus ASCII étant facultative.

a) Trame modbus RTU


Les octets transportés par les trames Modbus RTU comportent par défaut 11 bits : 1 bit START,
8bits de données, 1 bit de parité et un bit STOP.
La taille maximale des données est de 256 octets. L’ensemble des informations contenues dans
le message est exprimé en hexadécimal.

Les trames sont séparées par des intervalles de « silence » de durée au moins égale à 3,5
caractères hexadécimaux.
Dans le cas du mode RTU, le champ contrôle d’erreur CRC (Cyclical Redundancy Check) sert à
s’assurer de l’intégrité des données reçues. Le CRC contient une valeur codée sur 16 bits.

MDRB543
50

8.3 Modbus TCP


via TCP/IP avec Ethernet : on parle alors de Modbus TCP/IP ou Modbus TCP.

Le port 502 est réservé aux communications Modbus. L'équipement serveur « écoute » donc sur ce
port pour recevoir les requêtes émises par le client. Celles-ci sont émises par le client sur un port
>1024.

8.3.1 Encapsulation des trames


Le protocole Modbus TCP permet d'encapsuler des trames Modbus PDU dans des trames Ethernet,
et ainsi offrir les services Modbus ce type de réseau :

MDRB543
51

La trame Modbus TCP est constituée d'une trame Modbus-TCP précédée d’un en-tête baptisée «
MBAP Header ». L'absence de champ de contrôle propre à la trame Modbus-TCP s'explique par le fait
que celui-ci est déjà réalisé par la couche 2 d'Ethernet.

L’en-tête MBAP Header comporte 4 champs :


- Transaction Identifier (2 octets) : Ce champ est utilisé pour identifier les transactions
circulant sur le réseau, afin que le client puisse faire le lien entre une requête qu'il a émise et
une confirmation qu'il reçoit.
- Protocol Identifier (2 octets) : Ce champ permet d'utiliser plusieurs variantes de protocoles et
de les distinguer; pour Modbus, ce champ est à 0x00.
- Length (2 octets) : Ce champ indique la taille (en octets) de la trame Modbus à (partir du
champ suivant).
- Unit Identifier (1 octet) : Ce champ est utilisé lorsque la trame est adressée à une passerelle
Modbus-TCP / Modbus-série, afin d'identifier l'adresse Modbus de l'esclave sur cette ligne

Le contrôle sur chacun de ces champs pour un client et un serveur est récapitulé dans le tableau
suivant :

MDRB543
52

9 Profibus et profinet
Profibus est un protocole de communication basé sur les profils d'équipements. A son origine,
Siemens, un des leaders mondiaux de l'automatisme. Profibus demeure néanmoins un réseau ouvert
regroupant un grand nombre de fabricants membre de l'association: Plusieurs déclinaisons de ces
protocoles coexistent (Profibus DP, profibus PA, Profibus FMS, Profinet) sur différents supports
(RS485, FO, Ethernet...)

9.1 Profibus
Le nom Profibus signifie PROcessFIeld BUS. Deux variantes de Profibus ont été développées pour
l’automatisation de la fabrication et des processus : Profibus DP (Decentralized Periphery –
Périphérie décentralisée) et Profibus PA (Process Automation – Automatisation de processus). Les
deux variantes diffèrent en termes de câble, de configuration des fiches et d’interface.

9.1.1 Couche de transmission de bits (OSI-Layer 1)

Trois méthodes différentes sont spécifiées pour la couche de transmission de bits :


- Avec la transmission électrique selon EIA-485, des câbles à paires torsadées avec des
impédances de 150 ohms sont utilisés dans une topologie de bus. Des débits binaires de 9,6
kbit/s à 12 Mbit/s peuvent être utilisés. La longueur de câble entre deux répéteurs est
limitée de 100 à 1200 m, selon le débit binaire utilisé. Cette méthode de transmission est
principalement utilisée avec PROFIBUS DP.
- Avec la transmission optique par fibre optique, des topologies en étoile, en bus et en anneau
sont utilisées. La distance entre les répéteurs peut aller jusqu'à 15 km. La topologie en
anneau peut également être exécutée de manière redondante.
- Avec la technologie de transmission MBP (Manchester Bus Powered), les données et
l'alimentation du bus de terrain sont acheminées via le même câble. La puissance peut être
réduite de telle manière qu'une utilisation dans des environnements à risque d'explosion est
possible. La topologie du bus peut atteindre 1900 m de long et permet le branchement à des
appareils de terrain (max. 60 m de dérivation). Le débit binaire ici est de 31,25 kbit / s fixe.

MDRB543
53

Cette technologie a été spécialement conçue pour une utilisation dans l'automatisation de
processus pour PROFIBUS PA.

PROFIBUS DP utilise un câble blindé à deux conducteurs avec une gaine violette et fonctionne à des
vitesses comprises entre 9,6 kbits / s et 12 Mbit / s. Une vitesse particulière peut être choisie pour un
réseau pour donner suffisamment de temps pour la communication avec tous les appareils présents
dans le réseau. Si les systèmes changent lentement, une vitesse de communication inférieure est
appropriée, et si les systèmes changent rapidement, une communication efficace se produira grâce à
une vitesse plus rapide. La transmission symétrique RS485 utilisée dans PROFIBUS DP permet de
connecter seulement 31 appareils à la fois ; cependant, plus d'appareils (jusqu'à 126) peuvent être
connectés ou le réseau étendu avec l'utilisation de concentrateurs ou de répéteurs (4 concentrateurs
ou répéteurs pour atteindre 126). Un concentrateur ou un répéteur est également compté comme
un appareil.

Utilise le connecteur Sub D 9 avec les affectations suivantes des broches.

PROFIBUS PA fonctionne à une vitesse fixe de 31,25 kbits / s via un câble blindé à deux conducteurs à
gaine bleue. La communication peut être initiée pour minimiser le risque d'explosion ou pour les
systèmes qui nécessitent intrinsèquement un équipement sûr. Les formats de message dans
PROFIBUS PA sont identiques à PROFIBUS DP.

Remarque : PROFIBUS DP et PROFIBUS PA ne doivent pas être confondus avec PROFINET.

9.1.2 Couche liaison de données (OSI-Layer 2)

La couche de sécurité FDL (Field bus Data Link) fonctionne avec une méthode d'accès hybride qui
combine le passage de jetons avec une méthode maître-esclave. Dans un réseau PROFIBUS DP, les
contrôleurs ou les systèmes de contrôle de processus sont les maîtres et les capteurs et actionneurs
sont les esclaves.

Chaque octet est sécurisé avec une parité paire et transféré de manière asynchrone avec un bit de
démarrage et d'arrêt. Il ne peut y avoir de pause entre un bit d'arrêt et le bit de démarrage suivant
lorsque les octets d'un télégramme sont transmis. Le maître signale le début d'un nouveau
télégramme avec une pause SYN d'au moins 33 bits ("1" logique = bus inactif).

Plusieurs maitres peuvent accéder aux esclaves, l’accès aux esclaves est par le passage de jetons
entre maitres.

Pour la gestion de l’anneau logique chaque station active mémorise trois paramètres :

- TS (This Station) : adresse station locale active


- PS (Previous Station) : adresse station active précédente dans l’anneau logique
- NS (Next station) : adresse station active suivante dans l’anneau logique

Ces stations gèrent trois tables internes :

MDRB543
54

- LAS (List of Avctive Station): c’est une liste commune de toutes les adresses des stations
actives sur le réseau constituée pendant l’état d’écoute du jeton après mise sous tension.
- GAPL (GAP List) : liste spécifique à chaque station active, contenant les adresses manquantes
entre cette station et la prochaine dans l’anneau.
- Live List : liste commune des adresses de toutes les stations actives et passives présentes sur
le réseau.

Cycliquement à chaque jeton une station active met à jour sa GAPL par une FDL-request d’un numéro
prélevé dans la GAPL.

A cette raquette il ne peut y avoir que Trois réponses :

- Station active prête à entrer dans l’anneau


- Station active non prête
- Station passive

Les paramètres de configuration

- HSA (Highest station adress): l’adresse la plus élevée qu’une station active peut avoir, une
station passive peut avoir une adresse supérieure (2..126)
- TS : adresse physique de cette station (0..126)
- RETRY_CTR (compteur de répétition) : Nombre de répétition du télégramme en absence de
réponse (1..8)
- TSL (Time Slot) : temps d’attente de réception (<2ms)
- TSET (temps mort) : le temps qui peut s’écouler en un événement (par exemple : la réception
d’un caractère ou l’écoulement d’un temps interne de surveillance) et la réaction à cet
événement (1..255bits/s)
- MIN-TSDR : délais minimum entre la réception du dernier bit d’un télégramme et l’émission
du premier bit du télégramme suivant (10..65535bits/s)
- MAX-TSDR : délais maximum entre la réception du dernier bit d’un télégramme et l’émission
du premier bit du télégramme suivant
- TTR (Target Rotation time : temps de rotation du jeton) : ce paramètre a une influence
critique sur les performances du système. Cette valeur détermine le temps maximum de
rotation du jeton pour toutes les stations active présente sur l’anneau logique. Lors de la
réception du jeton, ce temps est comparé avec le temps de cycle effectivement écoulé. Selon
le résultat de cette comparaison, le système détermine si la station considérée peut expédier
des télégrammes (les messages de type Prioritaires prédominent)

MDRB543
55

- GAP Factor (Facteur d’actualisation de liste) : période d’émission d’une invitation pour une
nouvelle station à se connecter sur le bus

La trame Profibus

La trame Profibus est de taille maximum de 255 octets.

La transmission de chaque trame est précédée d’une attente de synchronisation égale à 33 temps
bits à ‘1’ (1Tbit= 83ns pour 12Mbit/s). La transmission est asynchrone sur 11 bits : 1 bit Start, 1 bit
Stop, 8 bits data et un bit de parité (paire).

- SYN : temps de synchronisation (33 Tbits)


- SD : délimiteur de débit de trame
- LE : longueur de la trame de DA à FCS
- LEr : Répétition de la longueur de la trame
- DA : adresse destination
- SA : adresse source
- DSAP : point d’accès du service de destination
- SSAP : point d’accès du service de la source
- DU : données (244 octets maximum)
- Contrôle (requête, réponse, acquittement)
- FCS : clef de contrôle (chcksum)
- ED : délimiteur de fin (16h)

Le télégramme de réponse est du même format que la trame émise ou du format cour sur un octet
d’acquittement selon le type de télégramme

MDRB543
56

9.1.3 Couche application

Pour utiliser ces fonctions, différents niveaux de service du protocole DP ont été définis :

1. DP-V0 : pour l'échange cyclique de données et le diagnostic, lors qu’un maitre DP procède le
jeton il effectue les actions suivantes :
a. Accès cyclique (polling) en lecture/écriture de tous les esclaves
b. Accès acyclique à tout esclave en configuration/diagnostique selon son état remonté
précédemment
c. Recherche d’une autre station maître (FDL_Request)
d. Circulation du jeton dans l’anneau logique

2. DP-V1 : pour l'échange acyclique de données et la gestion des alarmes, lors qu’un maitre DP
procède le jeton il effectue les actions suivantes :
a. Le cycle DP-V0
b. Accès acyclique sur demande à tout esclave individuellement
c. Paramétrage, exploitation, visualisation des alarmes (alarme d’état, de mise à jour de
constructeur) des appareils de terrain intelligents.

3. DP-V2 : pour isochrone mode de diffusion et d'échange de données (esclave communication -


à-esclave), les extensions par rapport à DP-V1 sont :
a. Isochronous Mode (IsoM) : cycles bus DP équidistants
b. Data Exchange Broadcast (DxB) : échange entre esclave
c. Time Synchronization (Time Stamp) : horodatage des données
d. Redundancy concept (Redundance): redondance active maître et esclave

Le fichier GSD
Tout équipement profibus DP est caractérisé par un fichier de configuration contenant les
caractéristiques de cet équipement (E/S, vitesse,…) maître ou esclave, fichier GSD (Generic Station
Description)

MDRB543
57

9.2 Profinet
De la même façon que le protocole Modbus a été porté sur Ethernet avec Modbus-TCP, le protocole
Profinet reprend les principaux services de Profibus, sur ethernet.

Cependant, à la différence de Modbus-TCP, la contrainte « temps réel fort » a été transposée à


Profinet, ce qui implique un portage plus élaboré qu'une simple encapsulation des trames.
Profinet définit 3 niveaux de temps réel :
- non déterministe 100ms
- temps réel « soft » (SRT) 10ms
- temps réel isochrone (IRT) <1ms

1. Temps réel logiciel SRT :


Pour satisfaire les contraintes temps réel de l’automatisation, PROFInet possède un canal de
transmission optimisé, dénommé Soft Real Time. Basé sur Ethernet (couche 2), il raccourcit
considérablement le temps de traitement dans la pile de communication et accroît la vitesse
Ethernet de rafraîchissement des données.

Tout d’abord, la suppression de plusieurs niveaux de protocole réduit la longueur du message;


ensuite, la durée de préparation des données à la transmission et au traitement par l’application est
écourtée.

Parallèlement, la puissance de calcul réservée dans l’appareil à la communication est nettement


allégée.

PROFInet ne se contente pas de minimiser la pile de communication des automatismes


programmables il optimise aussi la transmission en attribuant à chaque paquet de données PROFInet
une priorité.
Les échanges entre appareils sont ensuite contrôlés par les constituants du réseau, en fonction de
ces priorités : la priorité 6, accordée d’office aux données temps réel, l’emporte sur le traitement des
applications.

2. Temps reel materiel IRT :


La solution IRT ne suffit pas aux applications de positionnement et de synchronisme du Motion
Control. Celles-ci exigent des temps de rafraîchissement de l’ordre de 1 ms avec une incertitude sur
les tops de synchronisation (jitter) entre deux cycles consécutifs de 1 μs, pour synchroniser un
maximum de 100 nœuds.
Pour satisfaire ces contraintes déterministes, PROFInet a défini, au niveau de la couche 2, une
méthode de transmission contrôlée par tranche de temps.
Grâce à la synchronisation d’horloge des participants du bus, il est possible de réserver sur le réseau
une tranche pour la transmission des données critiques de la tâche d’automatisation.
Le cycle de transmission est donc segmenté en parties «déterministe» et «non déterministe» : les
télégrammes cycliques temps réel sollicitent la tranche déterministe tandis que les télégrammes
TCP/IP occupent la plage non déterministe.
Cette transmission «isochrone» est matérielle : un circuit ASIC se charge de la synchronisation du
cycle et de la réservation du canal temporel pour les données temps réel.
Cela implique l'utilisation de cartes réseau spécifiques pour connecter un PC à un réseau profinet.

MDRB543

Vous aimerez peut-être aussi