Bonjour,

je ne savais pas trop ou poster ce message qui est à caractère physique et non informatique mais comme je sais que parmis vous il y pas mal de matheux et de phyisiciens je me suis dit...

alors voilà

prenons par exemple, une source sans mémoire qui émet un message imparfaitement avec pour cause du bruit durant la transmission .
Prenons la relation suivante :

0 <= h(x/y) <= h(x)

L'égalité entre 0 et h(x/y) à normalement lieu dans le cas ou les deux variables x et y sont totalement indépendantes si je ne me trompe pas .
Pour l'égalité entre h(x/y) et h(x), je peux dire par la formule suivante : h(y/x) <= h(x) que l'information h(x/y) est celle relative à X, Y étant supposé connu . Le fait de connaitre Y impose une diminution de la quantité d'information dans le choix de X je dirai donc l'égalité se rencontre de nouveau ssi X et Y sont indépendants .

D'où ma question (enfin ) :

Dans le cas où les 2 variables X et Y sont effectivement idépendantes on aurait donc :

0 = h(x/y) mais aussi
0 = H(X) et donc
une entropie nulle dans la transmission de X?