IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Protocoles Discussion :

Délimitation de trames


Sujet :

Protocoles

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Membre averti
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2017
    Messages
    26
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 45
    Localisation : Belgique

    Informations professionnelles :
    Activité : Étudiant
    Secteur : High Tech - Matériel informatique

    Informations forums :
    Inscription : Décembre 2017
    Messages : 26
    Par défaut Délimitation de trames
    Bonjour,

    Je suis en train d'étudier les protocoles de couche 2 (liaison de données).

    Dans les généralités j'en suis à la délimitation des trames, je comprends bien toutes les méthodes sauf l'une d'entre elles... peut-être pourrez-vous m'aider à comprendre ?

    Voici le texte
    Violer le codage normalement utilisé par la couche physique : méthode employée quand le codage du support physique contient des redondances. Sur certains réseaux locaux un bit de données est codé sur 2 bits physiques (deux signaux différents sur le support). En principe un bit à 1 correspond à une impulsion positive et un bit 0 à une impulsion négative. Ce schéma signifie que chaque bit de données à transmettre correspond à la transmission d'une impulsion (positive ou négative), ce qui permet au destinataire de délimiter les bits. Les combinaisons positive-positive et négative-négative ne sont pas employées pour les données mais servent dans certains protocoles à délimiter et à synchroniser les trames.
    Qu'entend-on par "codage qui contient des redondances" ? Est-ce le fait de coder chaque bit de données sur 2 bits physiques ? Quels types de réseau utilisent ce codage ? (par exemple)

    Quand on parle de violer le codage normalement utilisé, je comprends qu'on envoie chaque bit de données sur 1 bit physique au lieu de 2. Est-ce exact ? Mais comment cela peut-il permettre au destinataire de délimiter les bits d'une meilleure façon que si le codage avait été fait sur 2 bits physiques ?

    Merci d'avance pour vos lumières !

    Sébastien

  2. #2
    Membre chevronné
    Profil pro
    Inscrit en
    Septembre 2009
    Messages
    1 855
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Septembre 2009
    Messages : 1 855
    Par défaut
    Bonjour,

    Citation Envoyé par SebastienBE Voir le message
    Qu'entend-on par "codage qui contient des redondances" ? Est-ce le fait de coder chaque bit de données sur 2 bits physiques ? Quels types de réseau utilisent ce codage ? (par exemple)
    Je ne trouve pas le texte très clair, peut-être qu'il fait référence au codage Manchester. Par le terme redondance, je ne sais pas trop si ça fait référence à la duplication de bit (coder sur 2 bits un 1 bit) ou sur la duplication des liens Ethernet pour envoyer une même trame (trunking)

    Citation Envoyé par SebastienBE Voir le message
    Quand on parle de violer le codage normalement utilisé, je comprends qu'on envoie chaque bit de données sur 1 bit physique au lieu de 2. Est-ce exact ? Mais comment cela peut-il permettre au destinataire de délimiter les bits d'une meilleure façon que si le codage avait été fait sur 2 bits physiques ?
    En électronique, envoyer une trop longue série de 1 ou de 0 d'affilé peut poser des problèmes, c'est pourquoi des codages sont utilisés pour éviter ce problème. Par contre je ne suis pas certain que le texte fait référence à ça.

    Mais là, on parle de layer 1 : lorsque tu analyses tes données en layer 2, tu ne devrais pas avoir de duplication de bits car le hardware a fait automatiquement la conversion

  3. #3
    Membre averti
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2017
    Messages
    26
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 45
    Localisation : Belgique

    Informations professionnelles :
    Activité : Étudiant
    Secteur : High Tech - Matériel informatique

    Informations forums :
    Inscription : Décembre 2017
    Messages : 26
    Par défaut
    Bonjour et merci pour ta réponse.

    On parle en effet ici de délimiter les trames, c'est donc la couche 2 qui reçoit un flux de bits et dans ce flux il faut pouvoir reconstituer les trames découpées par la couche 2 de l'émetteur.

    Je ne pense donc pas que cela soit en rapport avec le trunking et le codage Manchester, en couche 1 comme tu le dis bien.

    On dit qu'on viole le codage afin de délimiter les trames (au lieu d'utiliser de drapeaux ou le comptage des caractères). Si on ne tient pas compte du texte que j'ai fourni, pouvez-vous me citer les autres techniques de délimitation de trames ?

    Hormis celle dont il est question ici j'ai connaissance des techniques suivantes :
    • Comptage des caractères
    • Drapeaux avec remplissage d'octets
    • Drapeaux avec remplissage de bits


    Merci d'avance,

    Sébastien

  4. #4
    Membre chevronné
    Profil pro
    Inscrit en
    Septembre 2009
    Messages
    1 855
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Septembre 2009
    Messages : 1 855
    Par défaut
    Pour moi, la délimitation de trame se fait forcément en couche 1 (c'est le rôle du périphérique PHY) : en couche 2 (périphérique MAC) tu devrais toujours avoir le même format peu importe le media utilisé. Par exemple, sur de l'Ethernet 10Gb/s ou de l'ADSL, plusieurs porteuses sont utilisées pour transmettre une trame : ce n'est donc pas juste en analysant une suite de 1 et de 0 sur un canal que tu pourras identifier le début et la fin d'une trame.

    Pour connaitre toutes les méthodes utilisée, il faut se plonger dans les normes associées car tu ne trouveras pas facilement de réponse en faisant des recherches basiques sur le net.

    En figure 14, tu peux voir le type d'encodage utilisé pour du 100BASE-TX : http://ww1.microchip.com/downloads/e...tes/01120a.pdf


    ... ça ne répond pas forcément à ta question mais je ne peux pas plus t'aider.

  5. #5
    Membre averti
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2017
    Messages
    26
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 45
    Localisation : Belgique

    Informations professionnelles :
    Activité : Étudiant
    Secteur : High Tech - Matériel informatique

    Informations forums :
    Inscription : Décembre 2017
    Messages : 26
    Par défaut
    J'avoue que je m'y perds un peu.

    Selon le modèle OSI, l'unité utilisée en couche 2 (liaison de données) est la trame comme le montre ce schéma : https://fr.wikipedia.org/wiki/Modèle...I_Model_v1.svg

    Je pensais que c'était le rôle de la couche 2 de réceptionner le flux de bits, détecter les erreurs et contrôler le flux, de reconnaître les trames encodées par la couche liaison de données de l'émetteur pour finalement transmettre des paquets à la couche réseau.

    La couche 1, physique, ne gère que le type de média.

    Y a-t-il un arbitre qui peut départager nos avis qui divergent ?

    Merci,

    Sébastien

  6. #6
    Membre chevronné
    Profil pro
    Inscrit en
    Septembre 2009
    Messages
    1 855
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Septembre 2009
    Messages : 1 855
    Par défaut
    Citation Envoyé par SebastienBE Voir le message
    Selon le modèle OSI, l'unité utilisée en couche 2 (liaison de données) est la trame comme le montre ce schéma : https://fr.wikipedia.org/wiki/Modèle...I_Model_v1.svg
    Je pense que ce schéma parle de trame Ethernet II : cette trame a un format standardisé (donc pas de duplication de bits) qui peut être différent de la trame physique qu'il y a sur le media de transmission.
    => Quand un programme va récupérer le contenu d'une trame dans un périphérique Ethernet, c'est toujours au format Ethernet II (en général le preambule et le CRC sont tronqués automatiquement par le hardware) qu'il l'a récupère : le programme n'a jamais à se soucier du codage utilisé pour le transport physique des données.

Discussions similaires

  1. Obtenir une trame Ethernet
    Par Scorff dans le forum Développement
    Réponses: 15
    Dernier message: 11/09/2006, 12h22
  2. [TComPort] -> Pb de trame non complète ?
    Par MaTHieU_ dans le forum C++Builder
    Réponses: 2
    Dernier message: 09/04/2004, 14h22
  3. Réponses: 2
    Dernier message: 04/02/2004, 22h32
  4. redirection de trames
    Par Fry dans le forum Développement
    Réponses: 2
    Dernier message: 06/01/2004, 13h31
  5. Importer des fichiers textes délimités
    Par Invité dans le forum Outils
    Réponses: 2
    Dernier message: 23/09/2002, 13h56

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo