Citation:
Envoyé par
souviron34
Sauf que , ce que visblement tu n'arrives à comprendre, ou je m'exprime mal, c'est que la QUANTITE dont on prend le log est imprécise.. DONC que le log d'une valeur imprécise soit précis, ça ne veut rien dire de plus...
On est bien d'accord encore une fois, mais tu prends systématiquement ce cas en exemple comme s'il s'agissait de quelque chose d'universel ! Tout le monde ne passe pas sa carrière à faire de la mesure physique, quand même !
Il y a une vieille blague sur les scientifiques que tu dois déjà connaître :
Citation:
Question : les nombres impairs sont-ils tous premiers ?
— Le mathématicien : faux ! 9 n'est pas premier ;
— Le physicien : 1 est premier, 3 est premier, 5 est premier, 7 est premier, 9 euh… n'est pas premier, 11 est premier, 13 est premier… Bon bah aux erreurs expérimentales près, c'est bon !
— L'informaticien : 1 est premier, 3 est premier, 5 est premier, 7 est premier, 9 n'est pas premier, 9 n'est pas premier, 9 n'est pas premier, 9 n'est pas premier…
Citation:
ça faut être franchement con, mais j'ai jamais vu ça... Faut croire que t'es entouré de zombies, alors :aie:
Tu n'imagines même pas ce que l'on peut voir…
Seulement, à l'usage, il y a deux catégories de personnes : d'un côté ceux qui ne veulent pas être informaticiens (c'est leur droit) et qui ne touchent à la programmation que comme spécialisation supplémentaire. Ceux-là, aujourd'hui, s'orientent surtout vers le Java. Et d'autre part, il y a les gens qui font d'énormes erreurs simplement parce qu'ils débutent. Là, en général, on leur montre la voie une seule fois et ils y restent d'eux-mêmes toute leur carrière.
Citation:
Encore une fois, le premier exemple : A QUOI SERT-IL ??????
Il se trouve que ce n'est pas un cas inventé pour en débattre mais un post véritable et une vraie question de la part du demandeur. « À quoi ça sert » est hors sujet. La vraie question ici est « comment t'y prendrais-tu pour obtenir le résultat » ?
Après, tu peux arguer qu'il ne s'agit que de cas marginaux qui ne justifient pas la mise en place de classes dédiées mais pourquoi s'en priver quand on en a besoin ?
Citation:
Encore une fois, je conteste cette position : comment un calcul peut-il être EXACT avec précision PLUS FORTE que celle de la donnée entrée ????
Ah ben dans le cas du développement décimal ci-dessus, la question ne pose pas ! la précision est forcément absolue puisque la donnée initiale n'est pas une mesure mais une définition mathématique. Même si le développement est infini, il s'agit bien d'écrire un algo qui le perpétue jusqu'au bon plaisir de l'utilisateur. Et il se trouve que cet algo est le même que sur papier.
Citation:
Mais faire 1 euro / 3 ne t'avanceras de toutes façons qu'à 0.33 (et tu peux garder un 3 si tu veux pour la première opération suivante, mais la propagation de l'incertitude est INSTANTANEE , pas à la fin...
Encore une fois, ce n'est pas du tout l'objet de la discussion. Personne ici ne cherche à calculer la valeur d'un tiers d'euro et il n'y a pas du tout non plus d'incertitude sur 1÷3. Ça donne forcément « 0,333333… » jusqu'à l'infini. Dans l'exemple précédent, le demandeur cherche à connaître l'emplacement et la longueur de la séquence de chiffres qui se répète ensuite (en l'occurence, c'est un seul chiffre).
Voici encore un exemple trivial mais qui, pour le coup, est utilisé en permanence par nos ordinateurs lorsque l'on dialogue avec eux : la conversion de base, et typiquement le décimal vers le binaire et réciproquement. Quand tu convertis un unsigned long long binaire, donc 2⁶⁴ vers du décimal affichable à l'écran, tu obtiens 80 bits en BCD ou 20 caractères en ASCII, soit 160 bits. Il s'agit donc typiquement de faire de l'arithmétique sur des formats qui dépassent la longueur des types natifs standard.
Ce n'est pas du tout une question anodine parce qu'elle est récurrente sur les forums et qu'on s'aperçoit que même lorsqu'il ne s'agit que de passer d'une base à l'autre, très peu de gens pensent d'emblée à itérer sur « modulo du nombre par la base puis division entière par la base ».
Or, réécrire printf() ou strtol(), c'est bien plus qu'un cas d'école : c'est à la fois simple et fondamental, et tout le monde ne travaille pas sur PC. Programmer un micro-contrôleur, par exemple, nécessite de savoir comment ça marche.
Citation:
: si tu fais 1000 opérations : addtionner 2 nombres à 10-2 d'incertitude réelle t'améneras toujours à 10-2 au premier coup... Ce n'est pas en ayant 30 décimales sur ton tiers que tu gagneras en précision...
Personne n'a dit le contraire (pour peu que les incertitudes soient uniformément réparties et qu'elles se compensent).
Citation:
Je ne crois pas tout à fait qu'on soit d'accord sur le fond ;)
Bien sûr que si. Tu nous expliques depuis le début que — en pratique — les cas où on a réellement besoin de grands nombres sont rares et qu'il faut donc résister à la tentation d'y recourir dès le départ, avant même de s'être penché sur son problème. Personne n'a dit le contraire, encore une fois.
Ce que l'on a dit en revanche, c'est que ce n'est pas la peine de s'en passer et encore moins d'en être privés lorsqu'ils sont à la fois simples à mettre en place et qu'ils facilitent les calculs. Seulement, à chaque fois qu'on présente un exemple, tu nous réponds « oui mais ça, on s'en fiche » ou « ça ne sert rien ». C'est peut-être vrai dans ton domaine, ça ne l'est pas systématiquement. Et tout le monde n'est pas « utilisateur final » non plus, surtout ici.
Calculer Pi, c'est intéressant. Calculer un logarithme jusqu'à une précision arbitraire RÉCLAMÉE par l'utilisateur, c'est intéressant (et c'est surtout intéressant de savoir le faire), calculer une fonction de conversion de base, c'est intéressant.
Citation:
Je ne suis pas d'accord... On évite de recourir aux grands nombres CAR ILS NE SONT D'AUCUNE UTILITE : soit ils sont précis et ponctuels (comme les nombres premiers), et alors ils ne peuvent servir QUE à des listes
Ok. Qui calcule ces listes et comment les stocke-t-on ? Parfois, c'est quand même plus intéressant de les recalculer.
Citation:
Encore une fois, pas d'accord... Quelle arithmétique ??? Celle des concours de geeks - ou de chercheurs - qui veulent publier plus que le voisin, ou la vraie arithmétique ????
L'arithmétique des concours de geeks, ce n'est pas de la vraie arithmétique ?
Citation:
Dans la vraie arithmétique, on s'en tamponne comme de l'an 40, de la valeur numérique.... Et dans l'informatique industrielle (méthodes de convergence, numériques, etc) la précision des phénomènes/mesures/coeffs limite la précision...
Mais n'oublie pas que, bien souvent, quand tu passes une donnée de précision fixe à une fonction et que celle-ci te renvoie un résultat à la même précision (et au même format), celle-ci est obligée de travailler sur un format plus grand et de tronquer le résultat avant de te le renvoyer. Et partir du moment ou tu dépasses le format natif standard, travailler sur deux éléments ou travailler sur mille, c'est le même boulot.
Citation:
Je ne peux pax être d'accord... Un informaticen fait des programmes.. L'utilité des grands nombres est extrêmement restreinte. Pourquoi quelqu'un qui n'est pas du domane devrait-il les connaitre spécifiquement ??
C'est là que nos avis divergent, à mon avis : un informaticien n'est pas un pupitreur qui se contente de nourrir une machine tombée du ciel avec des données pré-machées par les physiciens et pour leur compte. C'était peut-être vrai dans un premier temps avec les batchs et lorsque les premiers ordinateurs centralisés ont remplacé les bureaux de calcul, mais même là, il a bien fallu que quelqu'un les conçoive et les fabrique.
Pour moi, l'informaticien est précisément la personne qui doit — sinon concevoir — être au fait du fonctionnement de sa machine.
C'est une question que j'avais posé à un élève ingénieur en informatique à qui les cours d'architecture des ordinateurs et d'électronique numériques ne parlaient pas et qui considérait de façon assez ostentatoire que ce n'était pas leur rôle d'étudier ces choses-là. Je lui avais demandé « c'est le métier de qui, alors, de concevoir les ordinateurs, si ce n'est celui des ingénieurs en informatique ? ». Il m'avait répondu pudiquement « — Quelqu'un au dessus de moi… » en souriant.
À ce stade, des gens au-dessus de lui, il en reste mais pas beaucoup.
Citation:
Tu passes ton permis, tu conduis une voiture. Est-ce que ça veut dire que quand tu passes le permis tu devrais savoir conduuire un semi 35 tonnes 18 essieux sur une route de montagne enneigée à 14% par temps de brouillard ????
Non, et ce n'est pas l'objet non plus ici. Mais on t'apprend quand même comment fonctionne en gros un moteur à explosion et une boîte de vitesse, même si tu ne les dépannes pas toi-même. Manipuler des chiffres comme on le fait à l'école, c'est plutôt de cet ordre-là.
Citation:
Un infomaticien doit apprendre à ne pas utiliser le Charles de Gaulle pour faire décoller un CESSNA ou un ULM... Il doit donc strictement avoir la même base qu'un physicien, un chimiste, ou n'importe qui: le bon sens pour chosiir l'échelle et l'outil adapté...
L'aviation, c'est typiquement le mauvais exemple aussi, puisqu'on n'y passe pas un permis de voler mais un authentique brevet de pilote, qui demande d'avoir des connaissances et une perception globale de la chose bien plus vaste que la simple exploitation de son appareil.
Les formations de pilotes de ligne, elles, sont pour ainsi dire de vraies formations d'officier.
Et puisque tu parles du Charles de Gaulle, les pilotes de chasse s'y posent mais le navire est exploité par des marins. Pas par des pilotes. Ce que tu nous dis en l'occurrence, c'est à peu près : « tout ce qui m'intéresse, c'est : est-ce que le Charles de Gaulle peut voler ? ».
D'autre part, toute ta réflexion part du principe que soit tu utilises des logiciels de calcul, soit tu utilises des langages qui proposent des le départ des types suffisamment larges pour les besoins quotidiens des scientifiques. Mon premier ordinateur, lui, était un huit bit sous BASIC. Les types entiers étaient forcément des short, et les autres formats numériques étaient des nombres flottants en simple précision (32 bits) ou double précision (64 bits) comme aujourd'hui.
Or, il n'y avait pas de FPU à l'époque et même les ordinateurs nativement 32 bits ont pris un certain temps avant de se démocratiser. Comment faisait-on alors pour effectuer les opérations en virgule flottante fondamentales sur 64 bits, si ce n'est en itérant sur les 7 octets de sa mantisse ? En plus, les multiplications pouvaient se faire à l'octet près, mais les divisions et les racines carrées, par exemple, se faisaient au niveau du bit.
Tu ne me feras pas croire qu'en physique, tu n'utilises jamais la racine carrée, par exemple. Qui est chargé d'écrire la fonction sqrt() que tu utilises et à quel niveau d'étude ou à quel rang professionnel peut-on être chargé de l'implémenter dans une machine ?
Citation:
Le fond de notre désaccord c'est que tu penses que la précision informatique EST une précision réelle... C'est FAUX...
Mais bien sûr que non. Où va tu chercher une chose pareille ? Tout le monde connaît les pièges inhérents aux calculs en virgule flottante.
Citation:
suivant qu'on utilise tel ou tel algo (cablé ou non) , tel ou tel processeur, on n'aura pas le même résultat...
Ça, par contre, c'est fondamental : un résultat peut être non-significatif mais il sera toujours déterministe, sur une plateforme donnée. La manière dont le calcul va être mené jusqu'au dernier bit est normalisée, que ce bit ait du sens au final ou pas.
Citation:
La "granularité" de l'humain, d'une monnaie, d'une machine-outil, des données qui ENTRENT et SORTENT du soft LIMITENT la précision...
Tu te répètes ! :-)
Tout le monde ne fait pas de la mesure physique ni des mathématiques appliquées. Prend le problème à l'envers : si quelqu'un a l'envie de faire des calculs sur des chiffres très grands, alors l'ordinateur est l'outil idéal pour le faire et donc, c'est sur les forums comme les nôtres plus que partout ailleurs que tu trouveras les sujets qui en traitent.
Citation:
Pour expliquer, je reviens sur l'exemple d'aile d'avion que j'avais eu ailleurs dans un aure thread sur ce forum: […] Que donc tu utilises 18 décimales ou 500 ou 9 ne changera stirictement rien..
Mais tout le monde a compris, bon sang. Tout le monde ici sait ce qu'est une précision numérique.
Citation:
C'est je crois, le fond : il y a une illusion persistente que "l'exactitude' des décimales de la machine réprésente une exactitude du nombre , et donc du résultat : non c'est une exactitude du chiffre, de manière ex-nihilo et purement ponctuelle... l'exactitude du nombre et du résultat ne dépend que très peu de l'exactitude du chiffre, si on est à la bonne échelle et qu'on atteint au minimum la précision limite...
Tu nous l'a déjà dit avec l'exemple du G.P.S. : une distance au nanomètre, non seulement ne sert à rien, mais est forcément inexacte puisqu'elle est noyée dans le bruit de la mesure.
Mais il faut vraiment sortir de ce référentiel, à la fin.
Citation:
Ouuufffffffff.....
Comme tu dis… :-)