IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Algorithmes et structures de données Discussion :

[physique] théorie de l'information


Sujet :

Algorithmes et structures de données

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Membre émérite Avatar de Tuxico
    Profil pro
    Étudiant
    Inscrit en
    Août 2003
    Messages
    662
    Détails du profil
    Informations personnelles :
    Âge : 38
    Localisation : Belgique

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Août 2003
    Messages : 662
    Par défaut [physique] théorie de l'information
    Bonjour,

    je ne savais pas trop ou poster ce message qui est à caractère physique et non informatique mais comme je sais que parmis vous il y pas mal de matheux et de phyisiciens je me suis dit...

    alors voilà

    prenons par exemple, une source sans mémoire qui émet un message imparfaitement avec pour cause du bruit durant la transmission .
    Prenons la relation suivante :

    0 <= h(x/y) <= h(x)

    L'égalité entre 0 et h(x/y) à normalement lieu dans le cas ou les deux variables x et y sont totalement indépendantes si je ne me trompe pas .
    Pour l'égalité entre h(x/y) et h(x), je peux dire par la formule suivante : h(y/x) <= h(x) que l'information h(x/y) est celle relative à X, Y étant supposé connu . Le fait de connaitre Y impose une diminution de la quantité d'information dans le choix de X je dirai donc l'égalité se rencontre de nouveau ssi X et Y sont indépendants .

    D'où ma question (enfin ) :

    Dans le cas où les 2 variables X et Y sont effectivement idépendantes on aurait donc :

    0 = h(x/y) mais aussi
    0 = H(X) et donc
    une entropie nulle dans la transmission de X?

  2. #2
    Membre éprouvé

    Inscrit en
    Juin 2004
    Messages
    1 397
    Détails du profil
    Informations forums :
    Inscription : Juin 2004
    Messages : 1 397
    Par défaut
    Pour pouvoir répondre, il faudrait que tu précises tes notations (à moins que d'autres n'y arrivent).
    h(x/y), c'est quoi ? La probabilité de x sachant y ?
    H(x) c'est l'entropie ?

    Si tu me dis ça, je relis .
    Je ne suis pas spécialiste, mais je crois comprendre ton soucis

  3. #3
    Membre émérite Avatar de Tuxico
    Profil pro
    Étudiant
    Inscrit en
    Août 2003
    Messages
    662
    Détails du profil
    Informations personnelles :
    Âge : 38
    Localisation : Belgique

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Août 2003
    Messages : 662
    Par défaut
    h(X/Y) c'est la probabilité conditionelle de X sachant Y .
    h(X) en effet c'est l'entropie donc H = I/n ou (I = l'information = n . log m pour un message de n éléments avec m symboles de départ)

    merci

  4. #4
    Rédacteur

    Avatar de Matthieu Brucher
    Profil pro
    Développeur HPC
    Inscrit en
    Juillet 2005
    Messages
    9 810
    Détails du profil
    Informations personnelles :
    Âge : 43
    Localisation : France, Pyrénées Atlantiques (Aquitaine)

    Informations professionnelles :
    Activité : Développeur HPC
    Secteur : Industrie

    Informations forums :
    Inscription : Juillet 2005
    Messages : 9 810
    Par défaut
    h(X/Y), c'est l'entropie conditionnelle, tu veux dire, non ?
    J'aurai plutôt dit que h(X)=h(X/Y) si X et Y sont indépendants, comme pour la probabilité - comme l'entropie est calculée selon les probas... - et h(X/Y) = 0 si X = Y

  5. #5
    Membre émérite Avatar de Tuxico
    Profil pro
    Étudiant
    Inscrit en
    Août 2003
    Messages
    662
    Détails du profil
    Informations personnelles :
    Âge : 38
    Localisation : Belgique

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Août 2003
    Messages : 662
    Par défaut
    Miles: oui conditionelle, je l'ai rajouté par après
    En effet, ca me parait logique donc si X=Y ou forcément si le message à été transmis donc l'information s'annule et l'entropie aussi .
    j'hésitai donc je me suis dit autant demander

    merci.

+ Répondre à la discussion
Cette discussion est résolue.

Discussions similaires

  1. Réponses: 12
    Dernier message: 08/03/2006, 17h27
  2. [SAP DB] Information
    Par aem_ dans le forum SAP
    Réponses: 6
    Dernier message: 07/04/2003, 22h54
  3. [PostgreSQL] Informations générales.
    Par nicox dans le forum PostgreSQL
    Réponses: 3
    Dernier message: 11/03/2003, 09h47
  4. [PRO*C] Recherche information
    Par Anonymous dans le forum Interfaces de programmation
    Réponses: 2
    Dernier message: 04/04/2002, 17h53

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo