
Envoyé par
math_infomatique
j'ai encore une question concernant le principe de Minimum cross entropy MCE
D(P,Q)=sum pi log(pi/qi)
P et Q deux distributions differentes
mais elles représentent quoi réellement??
je peux dire que P est la probabilité de l'occurrence d'un pixel i
mais Q serait quoi alors ?
ou bien P est l'image binaire et Q l'image d'origine? c'est flou?
Si on applique le principe de MCE au seuillage d'image, P représente la distribution des valeurs dans l'image d'origine.
Q représente la la distribution des valeurs dans l'image partagée en 2 : une demi-image "valeur basse" et une demi-image "valeur haute".
On cherche alors le meilleurs seuil, celui qui maximise la "ressemblance" entre les 2 distributions. Et donc qui minimise la perte d'information => qui minimise l'entropie de la différence.
et est ce que je peux écrire
D(P,Q)=sum pi log(pi/qi) tel que qi=1-pi
seulement dans ce cas on peut avoir pi=qi d'où log1=0
D(P,Q)=0
Heu... on peut tout écrire. Mais je ne vois pas pourquoi tu veux faire cela. 
Si tu cherches a faire du seuillage, les distributions P,Q sont les histogrammes des images. Si "histo" est l'histogramme normalisé de P, alors :
D(P,Q) = sum{ i.histo(i).Log( i.histo(i) / T(i).histo(i) ) }
= sum{ i.histo(i).Log( i / T(i) ) }
= sum{ i.histo(i).Log(i) } - sum{ i.histo(i).Log(T(i)) }
Avec T(i) la valeur de i dans la demi-image basse/haute suivant la valeur de i. Par exemple :
T_low = sum {i.histo(i)} pour i<seuil
T_high = sum {i.histo(i)} pour i>=seuil
d'où:
D(P,Q) = sum{ i.histo(i).Log(i) } - sum_(i<seuil){ i.histo(i).Log(T_low) } - sum_(i>=seuil){ i.histo(i).Log(T_high) }
(si je ne me suis pas trompé dans les calculs
)
Partager