IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Débats sur le développement - Le Best Of Discussion :

Quel avenir du C++ par rapport au C# ou à Java ?


Sujet :

Débats sur le développement - Le Best Of

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Membre éprouvé Avatar de Metal Tom
    Profil pro
    Inscrit en
    Avril 2003
    Messages
    119
    Détails du profil
    Informations personnelles :
    Âge : 43
    Localisation : France

    Informations forums :
    Inscription : Avril 2003
    Messages : 119
    Par défaut
    Citation Envoyé par Fëanor13
    En quoi ça va supprimer le boucles, les if, les else, les exceptions et les objets ???????
    Fallait regarder la suite.


    Citation Envoyé par Fëanor13
    T'es tu déjà intéressé au réseaux neuronaux ? La pluspart sont codés en C++
    Je pensais à quelque chose qui se fait matériellement. Plus dans le sens de neurones "biologiques" que de réseaux neuronaux.

    Citation Envoyé par Fëanor13
    Voui mais dans un monde comme ça il n'y aurait plus de programmeur mais que des utilisateurs. On lui dit quoi faire, comme pour un chien. Ya plus de programmateurs de chiens à ce que je sache...
    Pas totalement. Toi tu pars du fait que l'ordinateur serait comme un chien et démontre qu'il serait comme un chien. Moi je pense que l'ordinateur de l'avenir sera construit d'une telle manière qu'il apprendra tout lui même. Mais encore faut-t-il le construire. Naturellement je n'ai aucune idée sur la manière de procéder. Sinon j'aurais plus pmon P3 700 et encore moins mon P200MMX :-)

    Citation Envoyé par Fëanor13
    Capteur plus processeur préprogrammé. Où est le neuf ?
    Fallais lire la suite aussi. Désolé j'ai peut être du mal a exprimer mes idées :-)

    Citation Envoyé par Fëanor13
    La reconnaissance vocale y arrive de plus en plus. laisse lui le temps. il y a cinquante ans, le informatitiens avaient du mal à faire faire une division à leur machine.
    C'est vrai que du chemin a été parcouru. Mais je suis convaincu qu'on est encore à la préhistoire de l'informatique. Comme tu dis : patience.

    Citation Envoyé par Fëanor13
    Tu surestime énormément ce qu'est capable de faire l'homme. la puissance de calcul d'un ordinateur atteint à peine actuellement celle d'une mouche. Il s'agit de machins mécaniques réagissant à des courants éléctriques précis à des moments précis, alors que le moindre nerf (sur quelques milliards) est capable de réagir sans faille à une intansité électrique de n'importe quelle intensité, de n'importe quelle fréquence et durée et à (presque) n'importe quel temps. Un P4 est une lamentable grossièreté à coté de ce qu'est un système nerveux quel qu'il soit.
    Ce que je disais allait dans ce sens. Soit je m'exprime mal sois tu comprends mal ce que je veux dire. Mais là n'est pas la question. Imagines un processeur qui utilse une structure comparable à un système nerveux. Là je pense que tu saisis le bond que ferait l'informatique. C'est une des raisons qui me fait penser que l'informatique aura beaucoup de liens avec la biologie dans l'avenir. D'ailleurs les algorithmes génétiques, et tous les trucs là le prouvent.

    Citation Envoyé par Fëanor13
    C'est beau les idéaux... mais ici on parle d'argumentation et de techniques..
    E,n fait comme je parle du futur, si ce que je dis existe au niveau technique ce que je dis n'a plus de sens.

    Citation Envoyé par Fëanor13
    Désolé si j'ai été un peu sec, mais ça fait trois posts que je me répète.
    Pas de prob. Pour une fois qu'un débat avance :-)

    Citation Envoyé par Fëanor13
    Pour ce qui est d'autres types de langages, adaptés à la logique floue par exemple, ils existent mais il ne s'agit pas forcément de langage de programmation. De même notre langage à nous, humains si suppérieurs [ironie], est faite pour la communication et non pas la description d'algorythme. Il ne s'agit même plus de niveau d'abstraction ou de concept de programmation différents, mais de langue de NATURE différente, c'est pour ça que je ne considère pas ce que disent les militaire comme étant de ma langue...
    Il a d'ailleurs été démontré que le langage "français" ne suffisait pas à décrire les mathématiques. C'est pour ça que les informaticiens font de la logique. C'est le plus bas niveau de tout concept de langage, matériel, etc. Donc si on utilise une autre logique, tout change ! Et je sens que ça va changer bientôt ça. Les logiques divalentes ne suffisent plus à tout décrire.
    Exemple : un morceau de papier avec écrit d'un côté : "ce qu'il y a d'écrit de l'autre côté est vrai" et de l'autre côté : "ce qu'il y a d'écrit de l'autre côté est faux". Avec la logique utilisée habituellement il n'y a aucun moyen de modéliser ce shéma. On tombe sur une absurdité !
    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    (A->B) -> ((nonA->B) ->non B)
    Je pense qu'une logique tétravalente pourra régler le problème.

  2. #2
    Membre confirmé
    Profil pro
    Inscrit en
    Mars 2003
    Messages
    28
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Mars 2003
    Messages : 28
    Par défaut
    G regardé ce que tu appelai logique tétravalente, d'ou la lenteur de ma réponse.

    Tu stigmatise trop la différence entre architecture logicielle et matérielle. En fait il n'ya pas tant de différence que cela
    Disons qu'une architecture logiciel émule simplement une architecture matérielle et c'est à peut près la seul différence. à l'origine de l'informatiqe, la prog se faisait en branchant des cables.
    Maintenant, ces branchements sont fait via des commandes assembleur, mais il n'y a pas bcp de différences. Pour les réseaux neuronaux C pareil. on simule une architecture matérielle qui aurait éxactement le même comportement avec les même caractéristiques.
    on s'apperçoit par exemple que les réseaux neuronaux ont une grande capacité d'apprentissage.
    -> il leurs faut des profs, pas des codeur

    l'avantage d'émuler de tels architectures, c'est qu'on peut en changer.
    (à chaque problème correspond une architecture optimale différente)
    A propos du chien : un chien ça apprend, si si!

    Avec la logique tétravalente, il s'agit de cognition, et ça, ça se code pas, ça ne s'ordonne pas, ça s'apprend, via des essais, des confrontation de sa propre cognission avec des exemples concret.
    -> prof et non pas codeur

    => langage informationnel et non plus impératif.

    Pour ce qui est de passer à des architectures matérielles entrainent obligatoirement des modification de programmer, c'est pas en passant par des valeurs de 3 ou quatres ou même 50 valeurs/bit qui changera quoi que ce soit, mais seulement à une structure analogique où on ne pourra plus faire de comparaison de valeur exacte.

    quand à modéliser ce genre de problème -> à quoi ça peut servir dans un logiciel.
    Je te rappel que programmer sert à faire des logiciels.

    un hyppothétique langage servirai-t-il à construire ces ordinateurs ou à leur dire quoi faire? s'il s'agit du deuxième cas, pourquoi pas nos langues odinaires, et dans ce cas, en quoi est-ce programmer que de parler ?

  3. #3
    Membre éprouvé Avatar de Metal Tom
    Profil pro
    Inscrit en
    Avril 2003
    Messages
    119
    Détails du profil
    Informations personnelles :
    Âge : 43
    Localisation : France

    Informations forums :
    Inscription : Avril 2003
    Messages : 119
    Par défaut
    Nos raisonnements commencent à converger. Sauf que moi ce que je conclus c'est qu'il faudra une couche supplémentaire pour réaliser tout ça de manière plus "naturelle". Tout comme il serait difficile (mais pas impossible, je suis d'accord) d'écrire un gros programme actuel en assembleur ou même basic. Le C++ est une couche par dessus le C. Qui lui même est une couche au dessus de l'assembleur à sa manière.
    Je pense qu'il faut soit une nouvelle couche soit une manière différente de procéder. Je ne dis pas qu'avec les moyens actuels c'est impossible : peu de choses sont réellement impossibles en informatique. Mais ce serait plus "facile" ou plus "naturel" dans un autre système. Mais quelle gueule il aurait : mystère.

  4. #4
    Membre confirmé
    Profil pro
    Inscrit en
    Mars 2003
    Messages
    28
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Mars 2003
    Messages : 28
    Par défaut
    tu parle d'un ordinateur analogique ou numérique ???

    dans le premier cas j'écris qu'il n'y a plus de langage de programmation
    et pour le second cas je reste persuadé que le C++ suffis amplement:
    le c++ est très bein pour construire un système type réseaux neuronal...
    (on peut en faire un en moins de 500 lignes)

  5. #5
    Membre éclairé
    Inscrit en
    Novembre 2002
    Messages
    51
    Détails du profil
    Informations forums :
    Inscription : Novembre 2002
    Messages : 51
    Par défaut
    le C++ a encore de beau jours devant lui.

    C'est un peu un langage batard qui se trouve entre 2 mondes:
    - le monde des langages de bas niveau (C)
    - le monde de la POO (Java)
    Le C++ n'est qu'une adaptation du C a la POO, le Java qui a été dés le départ concus comme un langage orienté objet et a une structure beaucoup plus 'solide' que le C++.
    Ces 2 mondes continuront d'évoluer et d'exister (on aura toujours besoin de prog rapide et la POO n'est pas pret de disparaitre).

    J'ai quand meme l'impression que bon nombre de programmeurs sont séduit par la simplicité, l'homogénéhité et solidité de la structure du langage java.
    Je veux dire par la que quelqu'un qui veu faire de la POO pure va plutot programmer en Java plutot qu'en C++. La POO en C++ est plutot un bidouille installé par dessu un noyau C. Le C++ posséde des concepts assez tordu (héritage en diamant,...) qui peuvent rebuter certain programmeur.

  6. #6
    Membre éprouvé Avatar de Metal Tom
    Profil pro
    Inscrit en
    Avril 2003
    Messages
    119
    Détails du profil
    Informations personnelles :
    Âge : 43
    Localisation : France

    Informations forums :
    Inscription : Avril 2003
    Messages : 119
    Par défaut
    Analogique ou numérique, je ne suis pas madame soleil. Je ne sais pas de quoi le futur est fait.
    Sino je suis d'accord que le C++ suffit et suffira pendant quelques années. Mais quand il y aura des changements radicaux ça ne suffira plus. Et je ne parle pas des réseaux neuronaux vu que c'est de l'informatique de hier, aujourd'hui et du futur proche. Mais bon j'ai l'impression qu'on est à peu près d'accord.

  7. #7
    Membre éprouvé Avatar de Metal Tom
    Profil pro
    Inscrit en
    Avril 2003
    Messages
    119
    Détails du profil
    Informations personnelles :
    Âge : 43
    Localisation : France

    Informations forums :
    Inscription : Avril 2003
    Messages : 119
    Par défaut
    Citation Envoyé par sylvain114d
    - le monde des langages de bas niveau (C)
    Le C est un langage de haut niveau. Les bas niveau sont plus spécifiques aux matériels. Le C est très portable. On causait à un moment de l'histoire de haut/bas niveau dans ce thread.

  8. #8
    Membre averti
    Profil pro
    Inscrit en
    Mai 2002
    Messages
    55
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Mai 2002
    Messages : 55
    Par défaut
    Quel débat entre Metal Tom et Fëanor13 !

    Il y a juste un truc qui m'a dérangé quand vous commenciez à parler fortement d'ordinateurs intelligent. Vous avez commencé par vous demander ce que serait la prog de demain, et vous voilà en train de penser à des ordinateurs qui "sauraient comment faire" les choses et prendraient des décisions. Seulement, ces deux notions sont à mon avis divergentes et doivent absolument le rester.
    J'ai toujours eu l'intime conviction que l'intelligence et l'incompétence étaient en fait les deux facettes du même phénomène, deux notions indissociables. En d'autre termes, l'intelligence artificielle ne pourra se faire sans "incompétence articielle". Je m'explique : qu'est-ce qui fait à l'heure actuelle la puissance des ordinateus ? C'est le fait que tu peux leur demander n'importe quoi, à n'importe quel moment et autant de fois que tu veux, il te répondra toujours la même chose, de façon rationnelle et sans jamais t'envoyer chier parce qu'il en a marre de répondre. C'est sa force, et pourtant c'est ce qui prouve qu'il est particulièrement stupide. Prenons maintenant un ordinateur super intelligent, capable de prendre des décisions, de corriger tes erreurs, etc... il serait forcément amené à remettre en cause tout ce que tu lui dis, et à l'interpréter à sa façon... Il serait devenu très intelligent, mais aussi totalement faillible. Car qui dit prise de décision dit possibilité d'erreur dans cette prise de décision, ce qui est définitivement inadmissible dans le cadre du comportement d'un ordinateur tel qu'on le connait.

    Je ne dis pas que l'intelligence artificielle n'a pas d'avenir dans l'informatique, ce serait absurde. Ce que je veux dire, c'est qu'il doit naître à mon avis une nouvelle espère d'ordinateurs intelligents, mais que cette nouvelle génération ne PEUT PAS faire disparaître celle que nous connaissons, celle que nous programmons, car celle-ci nous sera toujours indispensable. Je crois donc que vos avis divergent littéralement car ils se rapporte à deux modes d'évolution qui sont nécessairement amenés à se compléter, dans des domaines d'application radicalement différents.

    D'autres part, quand metal tom parle de base ternaire, il n'est pas très loin de la vérité puisque la physique quantique (qui n'après de nombreux scientifiques sera amenée à supplanter la micro-électronique dans le domaine de l'informatique) permet de coder les infos à partir de trois état. Un photons peut être soit dans un état, soit dans un autre, soit les deux à la fois...

  9. #9
    Membre émérite
    Profil pro
    Inscrit en
    Juillet 2002
    Messages
    842
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Juillet 2002
    Messages : 842
    Par défaut
    Je vais peut etre te paraïtre niais en te demandant ca, mais je pars du principe que pour débattre les choses doivent être posées clairement. Lorsque tu parles de possibilité d'erreur, sur prise de décision, j'aimerais savoir ou tu situe exactement l'erreur. Si par exemple l'erreur se situait au niveau de l'interprétation de l'ordre donné par un utilisateur, le problème ne se poserait pas. C'est bête, mais où un tel ordinateur commetrait une erreur de décision ?

    J'ajouterais concernant le sujet, que trois état ne remettrons en cause qu'un petite partie du C/C++. Personnelement je les utilise assez souvent, mais je ne suis pas sur que tout le monde utilise frequement les opérateurs &, |, ^, <<, ou >> (avec des entiers, pas les surcharges). Leurs sens étant exclusivement binaire, il va falloir leur redonner un nouveau sens (pour les décalages de bits, le nouveau sens ne pose pas de problèmes).

  10. #10
    Membre éclairé
    Inscrit en
    Novembre 2002
    Messages
    51
    Détails du profil
    Informations forums :
    Inscription : Novembre 2002
    Messages : 51
    Par défaut
    Metal Tom a dit
    Le C est un langage de haut niveau. Les bas niveau sont plus spécifiques aux matériels. Le C est très portable. On causait à un moment de l'histoire de haut/bas niveau dans ce thread.
    Bien sur ça depend ou tu te places, moi je parlai par rapport au Java, Php...
    Le C permet une manipulation direct de la memoire et ça c'est pas vraiement du haut niveau !!!

  11. #11
    Expert confirmé
    Avatar de neo.51
    Profil pro
    Inscrit en
    Avril 2002
    Messages
    2 663
    Détails du profil
    Informations personnelles :
    Âge : 42
    Localisation : France, Pyrénées Atlantiques (Aquitaine)

    Informations forums :
    Inscription : Avril 2002
    Messages : 2 663
    Par défaut
    Je pense que le C++ restera, comme le C reste et l'assembleur reste.

    Par contre, pour le developpement de progiciel ou de systèmes d'information le C++ me semble un peu dépassé (pas taper ). On a des platterformes de développement avec le support du xml en standard, les webservices, la possibilité de faire une partie d'un système en web sans changer de plateforme, etc... Disons que c'est des facilités qui font gagné du temps et c'est bien connus le temps c'est de l'argent.

    On a maintenant entre .NET et java des plateformes de développement qui permettent de programmer plus vite et d'éviter pas mal de bug dans les programme avec la disparitions de pointeur et le code managé. Vous allez me dire qu'un programme bien fait en C++ n'as pas de bug, de dépassement de mémoire, etc ... Je suis d'accord, mais en C++ c'est une chose de plus à laquelle il faut penser donc forcément quelque part du temps "perdu".

    Là ou j'émmet des doutes c'est sur les jeux et la 3D. Java ne me semble pas du tout adapté et même si on à l'impression que microsoft voudrait que tout le monde fasse ces jeux avec DX9/C# je demande quand même à voir...

    Donc pour conclure, le c++ disparaitra : NON. C'est juste qu'on ne fera plus certainnes choses avec ! Mais le C++ restera dans les jeux, l'informatique industrielle, et l'informatique embarqué !

  12. #12
    Membre éprouvé Avatar de Metal Tom
    Profil pro
    Inscrit en
    Avril 2003
    Messages
    119
    Détails du profil
    Informations personnelles :
    Âge : 43
    Localisation : France

    Informations forums :
    Inscription : Avril 2003
    Messages : 119
    Par défaut
    Citation Envoyé par neo.51
    Je pense que le C++ restera, comme le C reste et l'assembleur reste.
    C'est évident. A mon avis ils ont la même "espérance de vie" pour être plus précis..

    Citation Envoyé par neo.51
    Par contre, pour le developpement de progiciel ou de systèmes d'information le C++ me semble un peu dépassé (pas taper ). On a des platterformes de développement avec le support du xml en standard, les webservices, la possibilité de faire une partie d'un système en web sans changer de plateforme, etc... Disons que c'est des facilités qui font gagné du temps et c'est bien connus le temps c'est de l'argent.
    Tu prêches pour ta paroisse, c'est un peu normal. Chaque informaticien a des langages et outils qu'il adore et des langages/outils qu'ils détestent. Et c'est de là que naissent de superbes trolls quand deux informaticiens se rencontrent sur un forum :-)

    Citation Envoyé par neo.51
    On a maintenant entre .NET et java des plateformes de développement qui permettent de programmer plus vite et d'éviter pas mal de bug dans les programme avec la disparitions de pointeur et le code managé. Vous allez me dire qu'un programme bien fait en C++ n'as pas de bug, de dépassement de mémoire, etc ... Je suis d'accord, mais en C++ c'est une chose de plus à laquelle il faut penser donc forcément quelque part du temps "perdu".
    C'est vrai que le débuggage en C (et en C++ dans une moindre mesure) c'est long, fastidieux et chiant.

    Citation Envoyé par sylvain114d
    Bien sur ça depend ou tu te places, moi je parlai par rapport au Java, Php...
    Le C permet une manipulation direct de la memoire et ça c'est pas vraiement du haut niveau !!!
    Là je suis d'accord.

    Sinon je suis d'accord avec tout ce que dit Blustuff. (pour faire court... )

    Citation Envoyé par papapetz
    Quel débat entre Metal Tom et Fëanor13 !
    Ca devient éprouvant. Surtout quand tout le monde s'y met !

    Sinon ce que tu dis à propos de l'intelligence artificielle et de l'incompétence artificielle, etc. Je pense que tu vois la chose d'une façon trop philosophique. L'intelligence artificielle est par définition artificielle. Je ne crois pas qu'elle a pour but de faire émerger des sentiments à une machine. On est pas dans Star Trek (comme hier soir sur Canal Jimmy où Data apprenait à danser : c'était trop fun la gueule qu'il tirait ).
    Le but c'est que les machines arrivent apprendre, programmer. Après il y a la notion de vie artificielle qui va avec c'est à dire la régénération, l'autoréparation, la reproduction. Imagines t'as une machine qui fait d'autres machines : t'as tout un parc informatique pour pas un rond !!!
    Sinon quand tu dis que des ordinateurs artificiellement intellignets ne pourront pas remplacer les ordinateurs actuels. Moi je pense que justement si. Les machines actuelles seront complètement dépassées par les capacités des autres. A moins que ça ne serve de jouet pour les enfants.

    Citation Envoyé par papapetz
    D'autres part, quand metal tom parle de base ternaire, il n'est pas très loin de la vérité puisque la physique quantique (qui n'après de nombreux scientifiques sera amenée à supplanter la micro-électronique dans le domaine de l'informatique) permet de coder les infos à partir de trois état. Un photons peut être soit dans un état, soit dans un autre, soit les deux à la fois...
    C'est un exemple parmi tant d'autres de projets de machines futures.

    Bon, j'arrête là : je suis crevé après un message pareil. Je retourne me coucher :-)

  13. #13
    HRS
    HRS est déconnecté
    Membre chevronné
    Avatar de HRS
    Inscrit en
    Mars 2002
    Messages
    678
    Détails du profil
    Informations forums :
    Inscription : Mars 2002
    Messages : 678
    Par défaut
    ce qu'oublie neo.51, c'est qu'avant de gagner du temps, il faut en
    perdre (formation et changement de mentalité)

    Seules les entreprises bien structurées, capables d'avoir des objectifs
    à long terme peuvent faire le pari des plateformes (java ou .NET)

    beaucoup de directions d'entreprises naviguent à vue (elles lisent 01
    Informatique pour connaître le vocabulaire à la mode) et seul le talent
    des individus permet qu'elles s'en sortent

    Or les plateformes .NET ou Java ne peuvent être que des choix
    d'entreprises et non d'individus (car nécessitant trop d'investissements)

    donc exit le langage C# qui n'existe pas en dehors de .NET

    C/C++ font partie des langages préférés des individus

  14. #14
    Membre averti
    Profil pro
    Inscrit en
    Mai 2002
    Messages
    55
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Mai 2002
    Messages : 55
    Par défaut
    En fait blustuff ce que je veux dire c'est qu'une prise de décision engendre nécessairement un choix entre plusieurs solutions, sachant que ces solutions n'apporteront pas les même résultats. Il y a donc forcément une incertitude dans la qualité du résultat obtenu.
    Je sais qu'un ordinateur qui commetrait des erreurs, cela peut paraître irréaliste pour nous qui ne connaissons que les ordinateurs sous forme de machines qui appliquent bêtement une tâche, et ne peuvent donc pas se tromper dans l'exécution de cette tâche (sauf erreur de leur concepteur). Mais c'est justement parce que l'intelligence apporte aux ordinateurs un mode de fonctionnement totalement différent que des notions, tout aussi nouvelles, d'erreurs et d'imprécision, feront aussi leur apparition.

    En gros ce que j'essaie de dire, c'est que pour être aussi intelligent que nous, un ordinateur devra nécessairement être aussi faillible que nous. De même que pour être aussi précis et infaillible qu'un ordinateur, nous devrions nécessairement devenir aussi stupides que lui. L'un ne va pas sans l'autre.

    On dit souvent que "l'erreur est humaine", moi je vais juste un peu plus loin en disant que l'erreur est le propre de toute forme d'intelligence.

  15. #15
    Membre éclairé

    Inscrit en
    Décembre 2002
    Messages
    60
    Détails du profil
    Informations forums :
    Inscription : Décembre 2002
    Messages : 60
    Par défaut
    Il suffit de penser aux systemes experts. Ils sont censes donner la solution la plus probable, cais celle-ci peut-etre fausse. Le fait de savoir qu'elle est fausse et de connaitre plus tard la bonne reponse va aider le systeme expert a apprendre.

    Ce n'est evidement que quelque chose de tres rudimentaire par rapport a une veritable intelligence qui est en general amenee a faire des choix quasiment en permanence dans des tas des domaines differents, mais il existe deja une forme d'erreur, la ou l'intelligence se pointe.

    Maintenant, une intelligence artificielle devrait toujours etre capable de ne jamais se tromper dans une addition.

  16. #16
    Membre averti
    Profil pro
    Inscrit en
    Mai 2002
    Messages
    55
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Mai 2002
    Messages : 55
    Par défaut
    Merci Elrond d'avoir cité le cas des systèmes expert, je voulais y faire à l'allusion et finalement j'ai oublié (suis-je trop intelligent ? )

    Citation Envoyé par Metal Tom
    A moins que l'on ne copie le mode de résonnement de l'être humain. Et comme on ne le connaît pas ce serait un difficile à faire.
    Bien au contraire, c'est la seule chose que l'on sache faire à l'heure actuelle ! On n'a pas encore su imaginer une approche de l'intelligence qui soit radicalement différente du fonctionnement de notre cerveau. Certains spécialiste avancent d'ailleurs que cette approche nous conduit droit dans le mur...

    Enfin bref, ce que je voulais surtout dire, c'est que dans certains contextes bien précis, il est hors de question qu'un ordinateur puisse avoir le droit de prendre une décision, qu'elle soit bonne ou mauvaise. Deux types d'informatique doivent coexister : l'informatique intelligente (mais peut-on encore appeler ça de l'informatique ? le terme système cognitif serait p-e plus adapté), et l'informatique traditionnelle, celle qui exécute un ordre sans "réfléchir", sans interpréter et SURTOUT sans prendre la MOINDRE décision autonome.

    Ne me dit pas qu'on n'aura un jour plus besoin de machines stupides et obéissantes sous le prétexte qu'elles seront tellement intelligentes qu'elles feront tout toutes seules. La preuve de ce besoin, tu la trouveras en observant les humains eux même : certains êtres humains en "forment" d'autres pour que ceux ci obéissent aveuglément, tout simplement parce que la démarche est plus efficace et moins risquée. Tout comme avec les ordinateurs, la moindre prise de décision ou d'autonomie de la part de ces outils (je parle des soldats, SRC et compagnie au cas ou tu n'aurais pas compris) remettrait en cause le but que se sont fixé ceux qui les utilisent. L'excés d'intelligence existe et existera toujours. Et le besoin de s'en affranchir se fera toujours sentir, dans tous les domaines, que ce soit pour une cause juste ou moins juste.

  17. #17
    Membre émérite
    Profil pro
    Inscrit en
    Juillet 2002
    Messages
    842
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Juillet 2002
    Messages : 842
    Par défaut
    Je suis chiant Patapez, mais tu n'a rien précisé, tu as redis la même chose differement. Je ne sais toujours pas où est la possibilité d'erreur.

    Je sais que mon avis sur le sujet que je vais énoncer n'est que de piètre valeur, vu que je programme d'une manière assez peu commune, c'est pour cela que j'aimerais avoir votre avis. Du C++, vers un langage qui n'a pas le type d'erreur reproché au C++, cad, pointeurs invalides, mauvaise déréférenciation, fuite de mémoire etc., ces opérations justement dangereuses sont remplaacées par quoi ? cad, que pour moi c'est opérations risquées sont effectivement très pratique, et si elles n'existent pas dans les autres langages, c'est tout de même une contrainte. Et il me semble que l'on peut très bien programmer en C++, sans pointeur, si on utilise des objets programmés par d'autres, comme celles du standard ou d'API quelconques. Vous en pesnez quoi ? (étrangement j'ai pas eu l'impression d'etre très clair)

  18. #18
    Membre averti
    Profil pro
    Inscrit en
    Mai 2002
    Messages
    55
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Mai 2002
    Messages : 55
    Par défaut
    Citation Envoyé par Metal Tom
    Analysons les mauvaises décisions. Elles viennent de quoi :
    - mauvaise connaissance du sujet sur lequel porte la désision
    - mélange des sentiments personnels
    - pression hiérarchique ou d'opinion public
    LOL !!! Si pour toi ces 3 lignes résument l'ensemble des possibilités d'erreur d'un système cognitif, c'est que tu n'as vraiment aucune idée de la complexité d'un tel système
    Un système cognitif tel que le cerveau est puissant parce que c'est un système COMPLEXE. C'est sa complexité qui en fait la puissance. Mais c'est aussi sa complexité qui en fait l'instabilité. Un malade mental n'est rien d'autre qu'un cerveau qui a été victime de sa propre complexité. Les états d'âme sont aussi la conséquence de cette complexité. De plus, notre cerveau est en plus une méta-intelligence : il arrive à analyser et comprendre son propre mode de compréhension. Ce qui en fait un système encore un peu plus fragile : les problèmes métaphysiques ne sont qu'une barrière de plus à l'efficacité pragmatique du cerveau.
    Je ne crois pas que tout ceci soit résumable en 3 lignes. Bref.

    La phrase que j'avais dite précédemment est pourtant évidente, mais tu ne semble pas vouloir l'admettre : Toute prise de décision engendre une possibilité d'erreur dans cette prise de décision.

    Je ne vais pas tourner et retourner cette phrase dans tous les sens pour te l'expliquer, elle me paraît simple et évidente, ne serait-ce que parce que la validité d'une décision de peut être calculée de façon déterministe.

    Enfin, j'ajouterai que pour inventer un système cognitif qui ne se trompe pas, il va déjà falloir inventer un mode d'intelligence autre que tous ceux que nous connaissons. En effet, le mode d'apprentissage d'un cerveau (humain ou autre) est basé sur l'échec. Ca tu n'y peux rien, c'est comme ça. Cela dit ce n'est qu'un demi-argument puisque l'intelligence artificielle a justement pour but d'arriver à se dégager de notre propre mode de fonctionnement.


    Blustuff>> de quels erreurs tu parle, les erreurs de programmation et d'exécution d'un programme ?? Si c'est le cas on ne parle plus du tout de la même chose là...
    Par contre, si tu parle bien des erreurs engendrées par une prise de décision quelle qu'elle soit : Tu me demande de préciser les "erreurs" auxquelles je fais allusion. Tu vas p-e trouver ça un peu facile, mais je pense (comme je le sous-entendait plus haut) que vouloir les énumérer ne ferait que montrer qu'on n'a pas bien compris la portée du sujet. Il ne s'agit pas de trouver des exemples et/ou des contre-exemples, mais bien de PROUVER l'éventualité d'un comportement faillible. Personnellement, je n'ai absolument pas les compétences requises.

  19. #19
    Membre émérite
    Profil pro
    Inscrit en
    Juillet 2002
    Messages
    842
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Juillet 2002
    Messages : 842
    Par défaut
    Non, je ne pense pas que l'on puisse lister les causes d'erreurs du cerveau huamain, pour moi c'est plutot vain, on ne sauras jamais si la liste est complète ou non. Par contre on peut s'apercevoir qu'il existe parmis ces erreurs, les erreurs d'oublis très fréquente dans un résonement, et représentant la quasi-totalité des errreurs dans les démarche scientifiques a mon sens (n'expliquant pas le sens que je lui donne ca ne veux pas dire grand chose), et les erreurs physiques ou je ne sais pas comment les appeller qui peuvent être représentée par la fatigue les maladies enfin tout ce qui trouve son equivalent dans les erreurs au niveau température / parasites éléctromagnétiques dans un proc, mais qui sont bien moins nombreuses. M'enfin, ce paragraphe s'éloigne beacoup du sujet je préférerais qu'on laisse tomber ou qu'on continue plus loin ou sur un autre post.


    Concernant le système intelligent, auquel tu t'interessais dans ta réponse, je trouve justement que cette notion d'erreur est mal défini. Tu dis que c'est évident, mais moi je ne trrouves pas. L'évidencee n'a jamais été une preuve, et je ne te demande pas de tourner ta phrase, mais d'approfondir ce que tu as dit. Pour moi, dit comme ca, ca reste très empirique pour reprendre les mots d'un autre.


    Et dernièrement encore sur un autre sujet, mais très proche du sujet celui là (je suis bien hein je fait un paragraphe pour chaque sujet complètement indépendant :)) ), je parle simplement du codage, et effectivement dees erreurs d'execution. (Je vioens de me relire, et c'est vrai que j'ai oublié de mette un lien logique, pardon....). C'est donc sur quelque chose de complétement différent, quelque chose de reproché au C++ dans les posts précédents.

  20. #20
    Membre éprouvé Avatar de Metal Tom
    Profil pro
    Inscrit en
    Avril 2003
    Messages
    119
    Détails du profil
    Informations personnelles :
    Âge : 43
    Localisation : France

    Informations forums :
    Inscription : Avril 2003
    Messages : 119
    Par défaut
    Pour patapetz : du calme, je ne résumais pas toutes les erruers possibles mais juste celles que je voyais en réfléchissant 2 minutes. J'attendais que chacun en sorte quelques unes. Ce qu'à fait Blustuff dans le premier paragraphe de sa réponse
    - oublis
    - physiques(fatigue, maladies et j'ajoute surtout le stress)
    - température / parasites éléctromagnétiques dans un proc
    les deux premiers sont corrigeables pour une machine. Le troisième c'est une histoire de bonne conception. N'oublions pas que les erreurs des premiers ordinateurs c'était beaucoup à cause de morpions qui bouffaient les fils électriques (d'où le bug mais tout le monde la connait cette histoire).

    Mais je ne dis toujours pas que c'est les seules causes d'erreurs. Je ne dis pas queles causes d'erreurs sont dénombrables. Mais de ce qu'on a vu pour l'instant il n'y a rien d'insurmontable. Et cela n'enlève aucunement de la complexité au système.

    Citation Envoyé par patapetz
    La phrase que j'avais dite précédemment est pourtant évidente, mais tu ne semble pas vouloir l'admettre : Toute prise de décision engendre une possibilité d'erreur dans cette prise de décision.
    Souligne le mot possibilité. Il y a une possibilité d'erreur mais ce n'est pas certain. C'est une histoire de probabilités à ce niveau là.

    Sinon pour l'histoire de reprendre un programme ou objet/structure, etc de quelqu'un d'autre (dernier paragraphe du premier message après mon précédent de Blustuff) personnellement je déterste ça. Mais heureusement pour moi c'est arrivé que dans le cadre d'un projet et une fois pour un stage. Sinon je préfère faire tout moi même. Mais il y a beaucoup de cas où c'est infaisable.

    Citation Envoyé par patapetz
    Enfin, j'ajouterai que pour inventer un système cognitif qui ne se trompe pas, il va déjà falloir inventer un mode d'intelligence autre que tous ceux que nous connaissons.
    C'est pas exclu ? L'informatique est lea seule science où on invente tout. Les autres sciences on découvre.

    Citation Envoyé par patapetz
    En effet, le mode d'apprentissage d'un cerveau (humain ou autre) est basé sur l'échec. Ca tu n'y peux rien, c'est comme ça. Cela dit ce n'est qu'un demi-argument puisque l'intelligence artificielle a justement pour but d'arriver à se dégager de notre propre mode de fonctionnement.
    Pourquoi forcément copier notre mode de fonctionnement ? Vu qu'on est trop faillible à quoi ça sert ? Si une machine calcule aussi lentement que nous elle est bonne pour la casse. Mais c'est vrai que pour certaines choses on peut s'inspire. Mais la question est : prennons nous les avantages de l'humain ou les inconvénients ? C'est une autre histoire.

Discussions similaires

  1. Quel intéret du Portage par rapport à indépendant ?
    Par sylk974 dans le forum Structure
    Réponses: 20
    Dernier message: 01/03/2019, 08h46
  2. Réponses: 1
    Dernier message: 16/08/2010, 10h34
  3. Réponses: 2
    Dernier message: 31/10/2009, 15h01
  4. Quel est l'intéret de Google Chrome OS par rapport à Android ?
    Par Annaelle32 dans le forum Actualités
    Réponses: 16
    Dernier message: 13/07/2009, 18h38
  5. Réponses: 1
    Dernier message: 30/04/2007, 10h13

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo