1. #161
    Inactif
    Profil pro
    Inscrit en
    juillet 2005
    Messages
    1 958
    Détails du profil
    Informations personnelles :
    Âge : 52
    Localisation : France

    Informations forums :
    Inscription : juillet 2005
    Messages : 1 958
    Points : 2 379
    Points
    2 379

    Par défaut

    Citation Envoyé par Neuromancien2 Voir le message
    A mon avis tu fais une différence qui n’a pas lieu d’être. Sauf à adhérer à des thèses « spiritualistes », la distinction entre l'activité mentale d'un système vivant (biochimique) et d'un système artificiel (informatique) n’a aucun fondement. Si on dispose de modèles physico-chimiques et psychologiques suffisamment précis, on peut donc reproduire les mécanismes de l’esprit humain. Si on prend la définition d’une émotion donnée par A. Cardon, une machine peut parfaitement être affectée par des émotions, qui sont l’équivalent des émotions humaines. Marvin Minsky a d'ailleurs déjà traité la question dans les années 1980.
    Comment peux-tu affirmer qu'on peut reproduire les mécanismes de l’esprit humain ? Tu n'en sais rien.
    Personne ne le sais car on n'a jamais réussi (ce qui ne veut donc pas dire qu'on ne peut pas).
    À moins que tu ne parles que des réactions chimiques. Mais ce qui n'apporte rien. Quand je dis de faire attention au terme c'est exactement pour ce que tu dis après « qui sont l’équivalent des émotions humaines »
    C'est complètement faux. Il y a des similitudes de fonctionnalité. Mais un scientifique qui dirait que les « émotions » implantés dans les système IA sont des équivalents des humaines seraient pris pour un plouc. Enfin, à moins qu'il ne fasse attention à la manière de l'amener et qu'il sâche donc à qui il s'adresse. Comment peux-tu dire dans la même phrase qu'il y a équivalence et qu'une comparaison n'a aucun fondement ?

    Le terme est trompeur car pour l'instant ça n'a rien à voir. Et c'est à ça que je met en garde. Je suis donc d'accord qu'il ne faut pas les comparer. C'est pour ça que je dis que ça n'a RIEN à voir: on ne peut pas les comparer.
    Ne déformes pas mes propos.

  2. #162
    Inactif
    Profil pro
    Inscrit en
    juillet 2005
    Messages
    1 958
    Détails du profil
    Informations personnelles :
    Âge : 52
    Localisation : France

    Informations forums :
    Inscription : juillet 2005
    Messages : 1 958
    Points : 2 379
    Points
    2 379

    Par défaut

    Citation Envoyé par GrandFather Voir le message
    Même si ce mécanisme est de mieux en mieux cerné par les sciences cognitives, il reste totalement hors de portée d'une modélisation informatique.
    Je suis effectivement complètement d'accord. Pour l'instant ce n'est qu'un ersatz d'émotion puisque ce qui intéresse les roboticiens ce n'est pas de donner des « vraies » émotions à un robot, mais juste de lui implémenter un mécanisme de contrôle simulant le principe des émotions : je me cogne, je me « fais mal », j'évite de me recogner.

    Maintenant je le répète, je n'ai aucun problème à me dire qu'un jour on y arrivera peut être. Ça ne blesse aucune de mes convictions.

  3. #163
    Alp
    Alp est déconnecté
    Expert éminent sénior

    Avatar de Alp
    Homme Profil pro
    Inscrit en
    juin 2005
    Messages
    8 580
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 28
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations forums :
    Inscription : juin 2005
    Messages : 8 580
    Points : 11 391
    Points
    11 391

    Par défaut

    Il est vrai qu'il y a encore pas mal de côtés qui demeurent assez obscurs. De plus, il a été démontré, comme dit avant dans le débat, que certains problèmes ne pourront pas être résolus grâce à un algo. Cependant, les sciences, depuis des siècles, ont connu pas mal de renversements qui ont changé parfois la façon de voir les choses.

    Qui sait, des futures découvertes pourront nous amener à contredire ce qui a été dit jusqu'à maintenant. Peut-être n'a-t-on pas encore exploré des possibilités importantes pour la résolution de nouveaux problèmes...

    Dans tous les cas, très bonne idée ce débat. Merci aux contributeurs.

  4. #164
    Membre à l'essai
    Profil pro
    Inscrit en
    janvier 2008
    Messages
    13
    Détails du profil
    Informations personnelles :
    Localisation : Belgique

    Informations forums :
    Inscription : janvier 2008
    Messages : 13
    Points : 15
    Points
    15

    Par défaut

    Citation Envoyé par GrandFather Voir le message
    Certes, mais il y a un gouffre entre les émotions (générées par la partie la plus ancienne et la plus rudimentaire de notre cerveau, le "cerveau archaïque") et les sentiments qu'elles induisent, ces derniers mobilisant notamment la mémoire à long terme. Même si ce mécanisme est de mieux en mieux cerné par les sciences cognitives, il reste totalement hors de portée d'une modélisation informatique.
    Le terme "hors de portée" ne me semble pas approprié en l'occurence. La théorie du logicen et mathématicien Jean-Louis Krivine dit que les couches fonctionnelles (pas la couche physique que sont les neurones, etc ...) du cerveau parleraient un language structuré proche du lambda calcul. Le lambda calcul repose sur 3 opérations simples : adresser une instruction, adresser une donnée, exécuter une instruction. Il a montré que ces 3 opérations étaient à la base de tous raisonnement. Il a entre autre montré que la démonstration du théorème d'incomplétudes de Gödel dont quelqu'un parlait plus haut, pouvait se ramener à un lambda-calcul, donc à un programme.

    La fonction languagière ou symbolique du cerveau et donc ses conscructions gognitives comme les mathématiques, seraient l'interprétable dans un language de très haut niveau basé sur des règles très simples.

    Un autre mathématicien, Stephen Wolfram, a également démontré avec ses travaux sur les automates cellulaires (A New Kind Of Science) que des règles de bases très simples, pouvaient engendrer une très grande complexité.

    Ces travaux pourraient montrer que l'intelligence est calculable à partir de règles simples et qu'elle serait le résultat complexe de l'évolution au sens darwinien. Ne gagnerait-on donc pas à laisser une intelligence artificielle se développer elle-même plutôt que de vouloir à tout prix modéliser l'intelligence humaine, la conscience, les émotions, etc ... Le résultat serait une certaine intelligence peut-être supérieure, ou peut-être pas ... mais certainement différente. Car finalement à quoi pourrait bien servir de "singer" l'intelligence humaine. Nous ne sommes pas aussi parfait que nous ne puissions être amélioré.

    Les travaux d'Alain Cardon, déjà évoqués, vont de ce sens. Effectivement, il explique dans son livre : "Modéliser et concevoir une machine pensante", qu'un système multi-agents massivement parralèles, dont chaque agent est doté de comportements relativement simples, est capable de faits de concsience, de pensées (pas au sens humain du terme). Il ne s'agit pas d'une hypothèse ou d'une théorie, car Cardon a construit ce système. Cardon, note que le système doit être doter d'un corp capable de sensations (un corp virtuel ou un robot doté de multiple senseurs). Il s'inspire ainsi les travaux en neurologie de Damasio qui a démontré que les émotions étaient le siège de nos décisions et que sans cette corporéité, sans ce flux de sensations, le cerveau tombait en abend....

    Cerise sur le gâteau, et pour répondre aux critiques sur la difficulté de programmer sur des ordinateurs multi-processeurs, ces systèmes étant massivement parrallèles ils sont donc taillés pour tourner sur des ordinateurs pourvus de 1,2,4 ou 64.000 processeurs sans trop de difficultés d'implémentation.

  5. #165
    Membre à l'essai
    Profil pro
    Inscrit en
    janvier 2008
    Messages
    13
    Détails du profil
    Informations personnelles :
    Localisation : Belgique

    Informations forums :
    Inscription : janvier 2008
    Messages : 13
    Points : 15
    Points
    15

    Par défaut

    Citation Envoyé par Garulfo Voir le message
    Je suis effectivement complètement d'accord. Pour l'instant ce n'est qu'un ersatz d'émotion puisque ce qui intéresse les roboticiens ce n'est pas de donner des « vraies » émotions à un robot, mais juste de lui implémenter un mécanisme de contrôle simulant le principe des émotions : je me cogne, je me « fais mal », j'évite de me recogner.
    Pas du tout. Ce dont tu parles c'est au mieux un système rules based au pire un bête If Then Else. Ce que propose Cardon, va largement au-delà.

    Lit son livre et on pourra en reparler.

  6. #166
    Rédacteur

    Avatar de millie
    Profil pro
    Inscrit en
    juin 2006
    Messages
    6 937
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : juin 2006
    Messages : 6 937
    Points : 9 567
    Points
    9 567

    Par défaut

    Citation Envoyé par singularitor Voir le message
    Il a entre autre montré que la démonstration du théorème d'incomplétudes de Gödel dont quelqu'un parlait plus haut, pouvait se ramener à un lambda-calcul, donc à un programme.
    .
    Ca, c'est un résultat connu. Toutes preuves peuvent s'écrire sous forme d'un programme. Le vrai problème est de savoir si un programme peut écrire des preuves (dans certaines classes d'énoncés) (à la manière d'un humain).

    Ou bien, à la manière d'un humain, le programme va planter sur une preuve un peu trop dur
    Je ne répondrai à aucune question technique en privé

  7. #167
    Alp
    Alp est déconnecté
    Expert éminent sénior

    Avatar de Alp
    Homme Profil pro
    Inscrit en
    juin 2005
    Messages
    8 580
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 28
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations forums :
    Inscription : juin 2005
    Messages : 8 580
    Points : 11 391
    Points
    11 391

    Par défaut

    Il me paraît assez difficile pourtant de créer un programme (donc une IA) qui pourrait résoudre tous les problèmes d'une certaine classe de problème. Après tout, si nous le créons, on aura du mal (c'est peut-être possible) à le faire bien mieux réfléchir que nous.

  8. #168
    Rédacteur

    Avatar de millie
    Profil pro
    Inscrit en
    juin 2006
    Messages
    6 937
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : juin 2006
    Messages : 6 937
    Points : 9 567
    Points
    9 567

    Par défaut

    Citation Envoyé par Alp Voir le message
    Il me paraît assez difficile pourtant de créer un programme (donc une IA) qui pourrait résoudre tous les problèmes d'une certaine classe de problème. Après tout, si nous le créons, on aura du mal (c'est peut-être possible) à le faire bien mieux réfléchir que nous.
    En fait, ce que je veux dire. C'est qu'il y a des énoncés qui sont prouvables, d'autres qui ne le sont pas (il peut y avoir des énoncés vrai mais non prouvable, ceux ci ne m'intéressent pas, quoique trouver une preuve du fait que l'énoncé est non prouvable est déjà un grand pas). Dans tous les énoncés prouvables, l'homme caresse l'espoir de pouvoir trouver cette preuve. Du fait que la preuve existe, on peut imaginer que l'homme peut la trouver (même si ça prend 3000 ans).
    Mais il est possible qu'il y ait une limitation pour faire résoudre ce type de problème par un algorithme (classique, équivalent à une machine de turing), une limitation prouvable mathématiquement
    Je ne répondrai à aucune question technique en privé

  9. #169
    Alp
    Alp est déconnecté
    Expert éminent sénior

    Avatar de Alp
    Homme Profil pro
    Inscrit en
    juin 2005
    Messages
    8 580
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 28
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations forums :
    Inscription : juin 2005
    Messages : 8 580
    Points : 11 391
    Points
    11 391

    Par défaut

    Mais est-ce que des travaux sur ces limitations ont trouvé ou approximé les conditions limites de résolvabilité de problèmes par l'humain ? Et dans quelles mesures une IA pourrait le faire mais pas nous ?

  10. #170
    Rédacteur

    Avatar de millie
    Profil pro
    Inscrit en
    juin 2006
    Messages
    6 937
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : juin 2006
    Messages : 6 937
    Points : 9 567
    Points
    9 567

    Par défaut

    Citation Envoyé par Alp Voir le message
    Mais est-ce que des travaux sur ces limitations ont trouvé ou approximé les conditions limites de résolvabilité de problèmes par l'humain ? Et dans quelles mesures une IA pourrait le faire mais pas nous ?
    En fait, ça me fait penser à un truc tout bête

    Si une preuve (de taille minimal) d'un énoncé existe et qu'il est trouvé par une machine, mais que cette preuve fait 10 Tera Octets en mémoire, aucun humain risque de la comprendre
    Je ne répondrai à aucune question technique en privé

  11. #171
    Alp
    Alp est déconnecté
    Expert éminent sénior

    Avatar de Alp
    Homme Profil pro
    Inscrit en
    juin 2005
    Messages
    8 580
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 28
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations forums :
    Inscription : juin 2005
    Messages : 8 580
    Points : 11 391
    Points
    11 391

    Par défaut

    Certes. Mais il l'aura trouvée.

  12. #172
    Rédacteur

    Avatar de millie
    Profil pro
    Inscrit en
    juin 2006
    Messages
    6 937
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : juin 2006
    Messages : 6 937
    Points : 9 567
    Points
    9 567

    Par défaut

    Citation Envoyé par Alp Voir le message
    Certes. Mais il l'aura trouvée.
    Oui bien sûr. Mais ce que je veux dire, c'est qu'un algorithme aura généré une preuve au delà des limites de la compréhension humaine (pas pour la difficulté, mais à cause de sa longueur), donc au delà de ce que pourrait faire un humain.
    Je ne répondrai à aucune question technique en privé

  13. #173
    Membre à l'essai
    Profil pro
    Inscrit en
    janvier 2008
    Messages
    13
    Détails du profil
    Informations personnelles :
    Localisation : Belgique

    Informations forums :
    Inscription : janvier 2008
    Messages : 13
    Points : 15
    Points
    15

    Par défaut

    Citation Envoyé par Alp Voir le message
    Certes. Mais il l'aura trouvée.
    Peut-on vraiment dire que c'est l'homme que a trouvé ? Si une intelligence artificielle trouve une preuve incompréhensible par l'homme et si en plus elle en est consciente alors c'est peut-être là que se situera le point de rupture entre une intelligence artificielle et une intelligence humaine.

  14. #174
    Alp
    Alp est déconnecté
    Expert éminent sénior

    Avatar de Alp
    Homme Profil pro
    Inscrit en
    juin 2005
    Messages
    8 580
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 28
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations forums :
    Inscription : juin 2005
    Messages : 8 580
    Points : 11 391
    Points
    11 391

    Par défaut

    Par "il" je voulais bien dire l'ordinateur, pas l'humain.

    En effet, si cela arrive, ça sera alors une grande avancée.

  15. #175
    Expert éminent sénior

    Profil pro
    Inscrit en
    janvier 2007
    Messages
    10 547
    Détails du profil
    Informations personnelles :
    Âge : 60
    Localisation : France

    Informations forums :
    Inscription : janvier 2007
    Messages : 10 547
    Points : 17 060
    Points
    17 060
    Billets dans le blog
    2

    Par défaut

    bah l'intelligence humaine (la conceptualisation) a ses propres limites : comme l'a dit Pascal (ça remonte à un certain temps ), il est proprement INCONCEVABLE au sens propre au cerveau et à la pensée de se représenter le fameux cercle, de même qu'il est INCONCEVABLE d'appréhender les 3 différents modèles d'univers, de même qu'il est INCONCEVABLE d'envisager le centre mathématique d'un trou noir.

    Nous avons donc déjà de TRES fortes limitations sur ce terrain. Et on pense qu'on peut CREER une vraie intelligence ??????? Redescendez sur Terre de temps en temps, et arrêtez de fumer....
    "Un homme sage ne croit que la moitié de ce qu’il lit. Plus sage encore, il sait laquelle".

    Consultant indépendant.
    Architecture systèmes complexes. Programmation grosses applications critiques. Ergonomie.
    C, Fortran, XWindow/Motif, Java

    Je ne réponds pas aux MP techniques

  16. #176
    Inactif
    Profil pro
    Inscrit en
    juillet 2005
    Messages
    1 958
    Détails du profil
    Informations personnelles :
    Âge : 52
    Localisation : France

    Informations forums :
    Inscription : juillet 2005
    Messages : 1 958
    Points : 2 379
    Points
    2 379

    Par défaut

    Citation Envoyé par singularitor Voir le message
    Pas du tout. Ce dont tu parles c'est au mieux un système rules based au pire un bête If Then Else. Ce que propose Cardon, va largement au-delà.

    Lit son livre et on pourra en reparler.
    Mais bien sûr il parle d'autre chose
    Mais ce n'est pas le cas actuellement.
    Je ne prédis pas dans un bouquin grand public: je travaille sur ces systèmes, j'évalue des papiers qui sont publiés, j'écris des articles à ce sujet. Je ne suis pas un programmeur ni un écrivain, je suis un chercheur en informatique.

    Actuellement nous sommes très très loin de ce que proposes de manière utopique ces gens dans des livres pour le public.
    Encore une fois, l'état de la recherche ne montre absolument pas que ce soit possible. Et beaucoup se sont cassés les dents avec ce genre de prémonition.

    Lit quelques articles de recherches et on en reparlera.

  17. #177
    Inactif
    Profil pro
    Inscrit en
    juillet 2005
    Messages
    1 958
    Détails du profil
    Informations personnelles :
    Âge : 52
    Localisation : France

    Informations forums :
    Inscription : juillet 2005
    Messages : 1 958
    Points : 2 379
    Points
    2 379

    Par défaut

    Citation Envoyé par singularitor Voir le message
    Le terme "hors de portée" ne me semble pas approprié en l'occurence. La théorie du logicen et mathématicien Jean-Louis Krivine dit que les couches fonctionnelles (pas la couche physique que sont les neurones, etc ...) du cerveau parleraient un language structuré proche du lambda calcul. Le lambda calcul repose sur 3 opérations simples : adresser une instruction, adresser une donnée, exécuter une instruction. Il a montré que ces 3 opérations étaient à la base de tous raisonnement. Il a entre autre montré que la démonstration du théorème d'incomplétudes de Gödel dont quelqu'un parlait plus haut, pouvait se ramener à un lambda-calcul, donc à un programme. [...]

    J.-L. suppose cela oui. Cependant il y va très fort sur les suppositions. Et il n'a jamais prouvé que « ces 3 opérations étaient à la base de tous raisonnement. » Il a démontré qu'on pouvait réduire les raisonnements à ces trois opérations. La différence c'est que dans un cas, c'est ces 3 opérations que nous utilisons, dans l'autre cas, c'est ces 3 opérations que nous pourrions utiliser – mais c'est peut être autre chose. Je sais qu'un certain article d'un certains sites sur les automates intelligents dit que c'est « la base ». Mais il ne faut pas tout lire au premier degré sur internet. Finalement, il n'y a pas eu besoin de lui pour démontrer que le théorème de Gödel pouvait se ramener à un programme : la démonstration avait été formalisé avant qu'il le fasse. Étant formelle, on pouvait donc en faire un lambda-terme (et non un lambda-calcul comme tu dis). Attention, je ne minimise pas ses travaux: il est un logicien hors-pair.

    Ce que je veux dire c'est que même Cardon que tu as l'air d'adoré, dis qu'en supposant que cette théorie soit vrai (adéquation des sous-couches de la pensée avec le lambda-calcul) on reste dans le problème de la limite de la calculabilité.

    Il faut un élément de rupture, et on ne l'a pas encore.

  18. #178
    Inactif
    Profil pro
    Inscrit en
    juillet 2005
    Messages
    1 958
    Détails du profil
    Informations personnelles :
    Âge : 52
    Localisation : France

    Informations forums :
    Inscription : juillet 2005
    Messages : 1 958
    Points : 2 379
    Points
    2 379

    Par défaut

    Citation Envoyé par souviron34 Voir le message
    [...]
    Nous avons donc déjà de TRES fortes limitations sur ce terrain. Et on pense qu'on peut CREER une vraie intelligence ??????? Redescendez sur Terre de temps en temps, et arrêtez de fumer....
    Enfin depuis Pascal le monde a changé.
    Je reprécise que je ne vois aucun problème a créer une vraie intelligence. En fait, j'en rêve et ça fait parti des raisons pour lesquelles j'ai abouti en informatique. Nous ne sommes formés que d'un système complètement mécanique et nous avons une conscience qui a dépassé la mécanique. Pourquoi, dans un certain avenir, ne pourrait-il pas avoir la même chose pour un système artificiel ? sauf que ça a pris du temps pour que la vie en arrive là. Même en allant beaucoup plus vite, je ne crois pas que 2000 ans de science suffisent. C'est pourquoi je tempère les croyances de certains.

    Maintenant peut être que je me trompe et que ce ne sera jamais possible. Mais là on est dans la métaphysique.

  19. #179
    Expert éminent sénior

    Profil pro
    Inscrit en
    janvier 2007
    Messages
    10 547
    Détails du profil
    Informations personnelles :
    Âge : 60
    Localisation : France

    Informations forums :
    Inscription : janvier 2007
    Messages : 10 547
    Points : 17 060
    Points
    17 060
    Billets dans le blog
    2

    Par défaut

    Citation Envoyé par Garulfo Voir le message
    Nous ne sommes formés que d'un système complètement mécanique
    euh........ Et chimique et électrique....

    Citation Envoyé par Garulfo Voir le message
    et nous avons une conscience qui a dépassé la mécanique.
    là... hummmm hummmm ... parler de conscience , bien qu'étant extrêmement répandu, est complètement dépendant des croyances de chacun, et non scientifique...


    Citation Envoyé par Garulfo Voir le message
    Pourquoi, dans un certain avenir, ne pourrait-il pas avoir la même chose pour un système artificiel ? sauf que ça a pris du temps pour que la vie en arrive là. Même en allant beaucoup plus vite, je ne crois pas que 2000 ans de science suffisent. C'est pourquoi je tempère les croyances de certains.
    là je suis d'accord avec toi, mais avec la note ci-dessus, je doute fortement.. Les modèles de la pensée, de l'être humain, de la conscience, et également des sentiments et émotions sont étroitement liés aux croyances (un "dieu" créateur, le hasard, une réincarnation, etc etc..)

    Il se trouve que le modèle "monothéiste" (celui de la société occidentale) et quelques uns des modèles multithéistes prennent comme base (et donc SANS explications) que l'Homme est un être à part, qu'il a une conscience, et que cette conscience le différencie des autres espèces..

    Mais, ne croyant pas à l'une de ces théories, pour moi, je rejette ces 3 postulats de base.

    Par conséquent,


    Citation Envoyé par Garulfo Voir le message
    Maintenant peut être que je me trompe et que ce ne sera jamais possible. Mais là on est dans la métaphysique.
    il me semble que justement le débat s'est tourné vers ça depuis qu'on a arrêté de parler des recherches existantes et qu'on "PREVOIT" qu'on le fera...

    Car il y a une différence de fond entre constater (et vouloir) modéliser tel ou tel aspect du fonctionnement de notre cerveau et vouloir (et prédire) la reproduction de l'intelligence.... (ne serait-ce que car cela présuppose une définition de l'intelligence qui, comme je viens de le dire, ne soit pas liée aux croyances.. et il n'y en a pas..)
    "Un homme sage ne croit que la moitié de ce qu’il lit. Plus sage encore, il sait laquelle".

    Consultant indépendant.
    Architecture systèmes complexes. Programmation grosses applications critiques. Ergonomie.
    C, Fortran, XWindow/Motif, Java

    Je ne réponds pas aux MP techniques

  20. #180
    Inactif
    Profil pro
    Inscrit en
    juillet 2005
    Messages
    1 958
    Détails du profil
    Informations personnelles :
    Âge : 52
    Localisation : France

    Informations forums :
    Inscription : juillet 2005
    Messages : 1 958
    Points : 2 379
    Points
    2 379

    Par défaut

    Citation Envoyé par souviron34 Voir le message
    euh........ Et chimique et électrique....
    [...]
    là... hummmm hummmm ... parler de conscience , bien qu'étant extrêmement répandu, est complètement dépendant des croyances de chacun, et non scientifique...
    [...]
    là je suis d'accord avec toi, mais avec la note ci-dessus, je doute fortement.. Les modèles de la pensée, de l'être humain, de la conscience, et également des sentiments et émotions sont étroitement liés aux croyances (un "dieu" créateur, le hasard, une réincarnation, etc etc..)
    [...]
    Il se trouve que le modèle "monothéiste" (celui de la société occidentale) et quelques uns des modèles multithéistes prennent comme base (et donc SANS explications) que l'Homme est un être à part, qu'il a une conscience, et que cette conscience le différencie des autres espèces..

    Mais, ne croyant pas à l'une de ces théories, pour moi, je rejette ces 3 postulats de base.

    Par conséquent,
    [...]
    il me semble que justement le débat s'est tourné vers ça depuis qu'on a arrêté de parler des recherches existantes et qu'on "PREVOIT" qu'on le fera...

    Car il y a une différence de fond entre constater (et vouloir) modéliser tel ou tel aspect du fonctionnement de notre cerveau et vouloir (et prédire) la reproduction de l'intelligence.... (ne serait-ce que car cela présuppose une définition de l'intelligence qui, comme je viens de le dire, ne soit pas liée aux croyances.. et il n'y en a pas..)
    On est d'accord sur l'ensemble. Quand je parlais de mécanique chez nous, je veux dire que nous sommes composés d'un système, a priori, complètement modélisable par un ordinateur actuel ou à venir. Pourtant nous avons un « plus ». Ceci fait que ça ne me stresse pas de dire « un jour on aura peut être une vrai IA »... mais pour l'instant c'est de la science-fiction.

    Et je suis aussi d'accord avec toi : on parle plus de métaphysique et de ce qu'on pourrait avoir que de l'état actuel de la recherche. Sans compter qu'on dérive en dehors du champ de la programmation. Le sujet perd donc de son sens ici.

Discussions similaires

  1. Créer une intelligence artificielle qui joue a un jeu sur internet..
    Par pinkfloyd234 dans le forum Langages de programmation
    Réponses: 0
    Dernier message: 10/01/2013, 02h41
  2. [sondage]Tpe sur l'intelligence artificielle
    Par tpe.ia.2011 dans le forum Interviews
    Réponses: 4
    Dernier message: 10/01/2012, 19h45
  3. Réponses: 2
    Dernier message: 28/02/2011, 21h45
  4. [Débat] L'intelligence artificielle et l'imprévu
    Par benwit dans le forum Intelligence artificielle
    Réponses: 35
    Dernier message: 20/07/2010, 22h28
  5. Réponses: 0
    Dernier message: 14/06/2010, 18h48

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo