TRAP D>> oui cela manquait!! Conclusions, si ce n'est redites?
Zavonen>> intéressant! Tu expliques un peu??
TRAP D>> oui cela manquait!! Conclusions, si ce n'est redites?
Zavonen>> intéressant! Tu expliques un peu??
Nemerle, mathématicopilier de bars, membre du triumvirat du CSTM, 3/4 centre
Voici comment je vois les choses...Zavonen>> intéressant! Tu expliques un peu??
Tout d'abord il faut connaître un minimum sur la théorie de Shannon, on peut par exemple lire en diagonale la page:
http://fr.wikipedia.org/wiki/Th%C3%A9orie_de_l'information
De fait il y a seulement besoin de connaitre la notion de 'quantité d'information liée à la réalisation d'un évènement et de quelques une de ses propriétés, directement liées aux probas élémentaires comme:
I(A et B) = I(A) + I(A sachant B)
que I(A sachant B) est toujours inférieure à I(A), le fait d'avoir plus d'info a priori ne peut que diminuer l'entropie.
On applique cela aux évènements:
A1: Au premier tour personne ne dit rien
A2 : au second tour personne ne dit rien
...............................
An : personne ne dit rien au tour n
Tous ces évènements, considérés comme indépendants (on suppose qu'à chaque tour on a tout oublié des tours précédents, apportent une quantité d'information identique à celle de A1.
Mais de fait ...
Quand A2 se produit, on sait déjà que A1 est réalisé
Donc
P(A1 et A2) = P(A1)+P(A2|A1) <=2P(A1)
P(A1 et A2 et A3) <= P(A3) + P(A1 et A2)<=3P(A1)
et ainsi de suite ....
P(A1 et A2 et ... et An) <= nP(A1)
L'info nécessaire à déterminer un élément dans un ensemble à N éléments est :
log2(N).
On applique cela à N=Y(Y-1)(Y-2)(Y-3)(Y-4)/120
pour Y =10, 11, ...,dans mon tableau jusqu'à 20
les quantités sont calculées avant chaque ligne, appelons cela I(Y)
Viennent ensuite, les quantités d'information I(n,Y) 'expérimentales'
associées, pour ne valeur de Y, à la réalisation des évènements:
A1
A1 et A2
A1 et A2 et A3
.......
A1 et A2 et .... et An
La première donnée est particulièrement importante puisque c'est P(A1).
On peut au passage remarquer la propriété donnée avant
I2(Y) <= 2I1(Y)
In(Y)<= nI1(Y)
et donc I23(Y) <= 23 Y1(Y)
On remarque donc que si
I1(Y) <I(Y)/23
la partie est perdue d'avance
I(Y) ne fait que croitre avec Y cela c'est une évidence
I1(Y) ne faît que décroitre avec Y. Cela est intuitif (plus le nombre de n-uples possibles a priori est elevé et plus l'évènement A1 est probable et donc moins sa réalisation apporte d'information, mais cela je ne l'ai pas encore démontré formellement.
Bref, en mettant les choses bout à bout, il semble que pour N>10, la situation soit 'perdue d'avance'.
J'opte donc Y=10 comme valeur maximale possible.
Ce qu'on trouve est plus important que ce qu'on cherche.
Maths de base pour les nuls (et les autres...)
Très bonne esquisse de preuve, très intéressant! Je n'avais pas revu Shannon depuis des lustres
Nemerle, mathématicopilier de bars, membre du triumvirat du CSTM, 3/4 centre
Oui, mais finalement, après avoir revu tout ça, il y a quelque chose que je ne m'explique pas, ce sont les gains d'info importants à la fin du processus correspondant à Y=10, (le cas étudié auparavant donc) c'est contraire à ce que j'affirme, et je ne sais pas où est la faille. On arrive au total, ça c'est cohérent, mais avec deux grands pas pour finir, d'amplitude plus grande que le premier pas.Très bonne esquisse de preuve, très intéressant! Je n'avais pas revu Shannon depuis des lustres
Je crois que mes résultats (les calculs) sont bons, pour les établir mon programme initial a subi plus qu'un toilettage.
Il faudrait peut être reprendre cela un peu plus rigoureusement sur le plan théorique, je vais essayer.
Déjà, il fallait lire ,mais c'était une inattention:
et non:I(A et B) = I(A) + I(B sachant A)
Par ailleurs, l'affirmation que I(B|A)<=I(B) est vraie quand B et A sont des variables aléatoires, pas des évènements isolés.I(A et B) = I(A) + I(A sachant B)
Donc l'argumentation ne tient plus, ce qui ne veut pas dire qu'on ne puisse parvenir au résulat par ce genre de considérations.
Ce qu'on trouve est plus important que ce qu'on cherche.
Maths de base pour les nuls (et les autres...)
Par d'accord: l'information de B sachant A, même quand ce sont des événements isolés, ne peut être supérieure à l'information de B !Envoyé par Zavonen
Nemerle, mathématicopilier de bars, membre du triumvirat du CSTM, 3/4 centre
Supposons que E soit un ensemble assez grand.
A une partie à 2 éléments x et y
B = {x} U complémentaire de A.
Donc B est égal à E à un élément près et coupe A suivant un seul élément.
L'information apportée par la réalisation de B est presque nulle (B est presque sûr).
Par contre l'information liée à la réalisation de B sachant A réalisé est une unité.
Ce qu'on trouve est plus important que ce qu'on cherche.
Maths de base pour les nuls (et les autres...)
Tout porte à croire que Y=10. Il suffirait de démontrer que l'une quelconque des 4 dernières colonnes est une suite croissante
Ce n'est pas simple à cause de l'influence des autres opérations sur chacune d'elles.
Il semble plus difficile de raisonner à partir du nombre d'itérations conduisant à un processus stationnaire. Bien que toujours assez basse par rapport à 23, les variations semblent fantasques et prêtent peu à conjecture.
Ce qu'on trouve est plus important que ce qu'on cherche.
Maths de base pour les nuls (et les autres...)
Vous avez un bloqueur de publicités installé.
Le Club Developpez.com n'affiche que des publicités IT, discrètes et non intrusives.
Afin que nous puissions continuer à vous fournir gratuitement du contenu de qualité, merci de nous soutenir en désactivant votre bloqueur de publicités sur Developpez.com.
Partager