Bonjour,
je ne savais pas trop ou poster ce message qui est à caractère physique et non informatique mais comme je sais que parmis vous il y pas mal de matheux et de phyisiciens je me suis dit...![]()
alors voilà
prenons par exemple, une source sans mémoire qui émet un message imparfaitement avec pour cause du bruit durant la transmission .
Prenons la relation suivante :
0 <= h(x/y) <= h(x)
L'égalité entre 0 et h(x/y) à normalement lieu dans le cas ou les deux variables x et y sont totalement indépendantes si je ne me trompe pas .
Pour l'égalité entre h(x/y) et h(x), je peux dire par la formule suivante : h(y/x) <= h(x) que l'information h(x/y) est celle relative à X, Y étant supposé connu . Le fait de connaitre Y impose une diminution de la quantité d'information dans le choix de X je dirai donc l'égalité se rencontre de nouveau ssi X et Y sont indépendants .
D'où ma question (enfin) :
Dans le cas où les 2 variables X et Y sont effectivement idépendantes on aurait donc :
0 = h(x/y) mais aussi
0 = H(X) et donc
une entropie nulle dans la transmission de X?![]()
Partager