IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Langages de programmation Discussion :

L'IA : rêve ou cauchemar, Science ou Science-Fiction ? Stephen Hawking nous met en garde.


Sujet :

Langages de programmation

  1. #21
    Membre habitué Avatar de TheChovix
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Mars 2014
    Messages
    77
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 30
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Mars 2014
    Messages : 77
    Points : 166
    Points
    166
    Par défaut
    Je pense que le maître-mot ici est la subjectivité.

    Qui peut se targuer d'être totalement objectif, omniscient ou bien à plus grande mesure, omnipotent ? Personne à ma connaissance, sauf du point de vue des personnes ayant une croyance religieuse bien entendu, même si je ne vois pas l'intérêt du "Créateur" d'avoir créer l'Homme pour que sa création s'amuse à créer également, je trouverai ça chiant comme concept, mais bon me considérant comme agnostique, je ne me prononcerais pas à ce sujet.

    Pour revenir à notre "mouton", il est évident que l'éducation que l'on pourrait proposer à une intelligence artificielle serait totalement calquée à celle de son éducateur, même si celui ci partait du postulat qu'il créait une intelligence artificielle totalement objective. Elle serait sans doute imprégnée du vécu de son créateur.
    Tout dépendrait donc de ce vécu, et personnellement, cela ne m'enchante pas tellement. Je ne suis pas du genre à ne faire confiance à personne mais bon comme la plupart des personnes ici ont répondues, il existe des personnes qui, pour nourrir leur ambition ou leur besoin d'affirmer leurs idées, auront usage de ces créations et s'en servir à de mauvaises fins. On ne serait donc pas à l'abri d'une singularité technologique (ou d'une extinction de l'humanité) à la suite d'un quelconque événement qui bouleverserait la machine.

    Bien entendu, je suis moi-même subjectif donc ma réponse n'a que vocation à appuyer mon idée et synthétiser celle des autres à un degré plus ou moins important.
    A mon humble avis (voyez, c'est encore très subjectif), une véritable IA, aussi bien développée soit-elle aurait un contrôle quasi absolu selon son degré d'intégration, là où un humain connait des limites palpables.

    Et même si j'ai adoré I Robot, Terminator ou Matrix, pour ne pas citer de grands ouvrages, plus philosophiques à ce sujet et moins explosifs, dont je n'ai malheureusement aucune connaissance ... ; je proposerais plutôt d'améliorer notre propre condition plutôt que de chercher à en créer une alternative.
    Bien qu'ici, en y réfléchissant, on tend à se servir de cette IA pour améliorer notre condition (et satisfaire notre curiosité, et notre ambition) comme la plupart des améliorations que l'Homme a créé jusqu'ici.

    Enfin bref, je trouve quand même le débat intéressant. Nous verrons bien ce qui nous attends dans un futur plus ou moins proche.
    Le seul bogue à ne pas corriger c'est celui qui fait fonctionner le projet.

  2. #22
    Expert éminent
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Août 2007
    Messages
    2 161
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Août 2007
    Messages : 2 161
    Points : 7 953
    Points
    7 953
    Par défaut
    Citation Envoyé par Kearz Voir le message
    Si on part du principe que: le chaud, le froid, la douleur sont le résultat de capteurs qui envoient des signaux électrique au cerveau, pourquoi une IA ne pourrait pas les avoir?
    Des capteurs on en ajoute tout les jours dans nos smartphones, il est donc possible de créer une IA qui a les mêmes sensations qu'un humain.
    Pourquoi faire ?
    Quel intérêt ?
    Pourquoi créer une machine avec des limites dès sa conception ?

    La machine pourra percevoir son environnement grâce à des capteurs mais ne ressentira pas cet environnement dans sa chair
    si le capteur cesse de fonctionner, la machine continuera de fonctionner
    si un être humain ne ressent plus le chaud et le froid, sauf maladie extrêmement rare, c'est qu'il est mort ou dans le coma

    C'est un grand fantasme de créer un robot à l'image de l'homme mais je ne l'ai jamais compris
    l'être humain est très limité (petit, lent, pas fort, champ de vision limité, peu de mobilité, etc.)
    Peu importe l'aspect, on trouvera toujours un autre animal plus performant que l'être humain sur ce point
    Seul notre intelligence nous a permis de sortir du lot
    et c'est créer une IA encore plus intelligente que l'homme qui a du sens

    Créer une machine qui ressemble à l'homme avec les mêmes limitations physiques et sensorielles n'a pas grand intérêt
    Si c'est pour créer à son image, faire des enfants fonctionnent très bien

  3. #23
    Expert éminent sénior
    Avatar de Mat.M
    Profil pro
    Développeur informatique
    Inscrit en
    Novembre 2006
    Messages
    8 359
    Détails du profil
    Informations personnelles :
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Novembre 2006
    Messages : 8 359
    Points : 20 374
    Points
    20 374
    Par défaut
    Citation Envoyé par doublex Voir le message
    On trouve souvent, dans les livres d'informatique, l'idée que l'Homme est un ordinateur complexe.
    L'idée de l'homme-machine est encore plus vieille, dérivée du concept d'animal-machine, proposé par Descartes, au siècle des Lumières.
    ah non...certainement pas.
    L'Homme n'est pas un ordinateur complexe.
    Un ordinateur n'est pas capable d'avoir de l'intuition ou autre sens...
    c'est une hérésie totale que de vouloir modéliser et reproduire sous forme numérique la psychologie et le fonctionnement du cerveau humain.
    Citation Envoyé par benjamin_musique Voir le message
    Tout à fait d'accord, réduire l'intelligence humain au raisonnement rationnel (QI) alors que l'on connaît l'importance de l'intelligence émotionnelle.
    l'Intelligence émotionnelle fait justement partie des autres facultés de l'Homme qu'un système informatique peut très difficilement reproduire.

    Citation Envoyé par Kearz Voir le message
    Si on part du principe que: le chaud, le froid, la douleur sont le résultat de capteurs qui envoient des signaux électrique au cerveau, pourquoi une IA ne pourrait pas les avoir?
    Des capteurs on en ajoute tout les jours dans nos smartphones, il est donc possible de créer une IA qui a les mêmes sensations qu'un humain.
    cela se conçoit aisément : d'un point de vue pratique si tu construits un robot il peut très bien toucher un objet et déterminer sa température au moyen d'une sonde thermo-sensible
    Citation Envoyé par Saverok Voir le message
    Peu importe l'aspect, on trouvera toujours un autre animal plus performant que l'être humain sur ce point
    tout à fait d'accord : regardes ton chien il est capable de flairer un intrus des dizaines de mètres à la ronde sans que toi tu n'en sois capable

  4. #24
    Membre à l'essai
    Profil pro
    Inscrit en
    Mars 2006
    Messages
    13
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Mars 2006
    Messages : 13
    Points : 13
    Points
    13
    Par défaut alain cardon
    sur le sujet lire alain cardon
    http://www.admiroutes.asso.fr/index.htm
    ainsi que la réédition de "principe des systèmes intelligents" de paul jorion (hé oui)
    après outils et usages c'est la question
    bien que planter des clous avec une mitraillette soit moins aisé qu'avec un marteau.
    un IA peut être profilé en bien ou en mal comme un drone peux repérer pour tuer ou sauver, c'est au choix....

  5. #25
    Rédacteur
    Avatar de pcaboche
    Homme Profil pro
    Inscrit en
    Octobre 2005
    Messages
    2 785
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 44
    Localisation : Singapour

    Informations forums :
    Inscription : Octobre 2005
    Messages : 2 785
    Points : 9 716
    Points
    9 716
    Par défaut
    Citation Envoyé par Saverok Voir le message
    C'est "rigolo" comment on essaye toujours de comparer les autres organismes à l'humain
    Un peu comme toutes ces personnes qui parlent à leurs animaux de compagnie comme si c'était des humains et surinterprètent toutes leurs actions
    Cela porte un nom : Anthropomorphisme.
    "On en a vu poser les armes avant de se tirer une balle dans le pied..."
    -- pydévelop

    Derniers articles:

    (SQL Server) Introduction à la gestion des droits
    (UML) Souplesse et modularité grâce aux Design Patterns
    (UML) Le Pattern Etat
    Autres articles...

  6. #26
    Membre expert Avatar de Kearz
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Mai 2012
    Messages
    856
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 32
    Localisation : France, Nord (Nord Pas de Calais)

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Mai 2012
    Messages : 856
    Points : 3 659
    Points
    3 659
    Par défaut
    C'est un grand fantasme de créer un robot à l'image de l'homme mais je ne l'ai jamais compris
    l'être humain est très limité (petit, lent, pas fort, champ de vision limité, peu de mobilité, etc.)
    Peu importe l'aspect, on trouvera toujours un autre animal plus performant que l'être humain sur ce point
    Ce n'est pas vraiment un fantasme, l'idée est de créer une Intelligence Artificielle, pas de créer une arme ou même une machine industrielle.
    Le seul aspect où l'homme est supérieur aux animaux, c'est l'intelligence. Pour le reste, en effet, il y aura toujours un animal pour nous battre.

    Après l'intelligence c'est quoi? Savoir que la réponse est 42?
    L'intelligence c'est pouvoir répondre/analyser/comprendre/apprendre et pour faire ça, il faut comprendre toutes les caractéristiques du monde: chaud, froid, gout, etc. Sans expérimenté les sensations, on ne peut pas vraiment comprendre toutes les variables du monde.
    Un enfant, tu auras beau lui dire "ça brûle!", s'il n'a jamais expérimenté la brûlure, il ne le comprendra pas, il sera "ignare de la brûlure". C'est d'ailleurs pour ça qu'on est un peu "ignare" sur la mort, vu qu'on ne peut pas l'expérimenter. (enfin si mais le plus tard possible et en plus on peut plus trop en témoigner après.)

    Une vraie IA apprend sinon c'est juste un algorithme avec de "if" partout, c'est pas de l'intelligence pour moi. Donc sans capteur et l'expérience du feu, une IA ne peut pas comprendre la notion de brûlure sans qu'on lui ait inscrit en dur dans l'algorithme mais dans ce cas il faut lui inscrire:
    - Le feu = la mort
    - L'eau (pour un robot non aquatique) = la mort
    - L'humidité ambiante = tes circuits vont prendre cher
    - Tomber de haut = ça risque de te casser
    - ...

    C'est plus très intelligent, c'est juste un robot avec un algo stupide qui connait toutes les caractéristiques du monde terrestre. Et la, ton robot tu le fous sur mars, il comprend plus rien.

    Maintenant je suis pas sur qu'une vraie IA soit gérable et donc enviable :
    Je suis un robot > J'apprends que je suis un robot > J'apprends que les robots sont des objets des humains > J'apprends ce que font les humains des objets qui ne leur conviennent plus
    => 2 choix s'offre à moi:
    - Paraître parfait et toujours enviable pour toujours convenir aux humains.
    - Je tues avant d'être tué. (ou je deviens maître de mon maître mais sur le principe c'est pas loin)

    Alors on pourra dire:
    "loi d'asimov" => Nous qui sommes "intelligent", on ne respect même pas le code de la route. Alors les lois pour les personnes intelligentes, c'est quoi? Des barrières franchissable, rien de plus, c'est pas des murs lisse de 50 mètres de haut.
    "backdoor" => L'homme à la base marché à 4 pattes et étaient poilu, il a évolué pour "s'adapter"/"survivre". Donc les backdoor seront corrigés par les robots.
    "On sera toujours les plus intelligent" => La puissance des PCs ne cessent d'augmenter, c'est pas dangereux parce que le PC est bête et qu'il ne sait rien faire de lui même.

    Une vraie IA s'approche donc de l'être humain si sont but est d'être vraiment intelligent...
    Dans l'idéal, il faut créer des IAs adaptées à un milieu avec une intelligence limité. Je ne sais pas comment mais une IA spécialisé dans la surveillance (analyse de personne, du comportement) devrait être incapable d'apprendre une autre spécialité (ex: IAs spécialisé dans l'élaboration de recettes de cuisine). Donc il ne faut pas créer une IA mais des IA, bien différente/bien distinct. (Des SAI Stupid Artificial Intelligence )

  7. #27
    Membre expérimenté

    Homme Profil pro
    Étudiant
    Inscrit en
    Novembre 2011
    Messages
    685
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Ain (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Novembre 2011
    Messages : 685
    Points : 1 418
    Points
    1 418
    Par défaut
    Citation Envoyé par Saverok Voir le message
    Pourquoi faire ?
    Quel intérêt ?
    Pourquoi créer une machine avec des limites dès sa conception ?
    Ce ne sont pas des limites. Grâce à quoi crois-tu que notre espèce a survécu. Une IA faite d'une matière fondant à 1200° sera contente d'avoir un capteur de chaleur qui la met en alert quand elle passe dans un endroit trop chaud pour sa préservation, non ?
    Nullius in verba

  8. #28
    Membre éprouvé
    Avatar de Cafeinoman
    Homme Profil pro
    Couteau suisse d'une PME
    Inscrit en
    Octobre 2012
    Messages
    628
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Val de Marne (Île de France)

    Informations professionnelles :
    Activité : Couteau suisse d'une PME

    Informations forums :
    Inscription : Octobre 2012
    Messages : 628
    Points : 1 256
    Points
    1 256
    Par défaut
    Ça, c'est un débat qui ne peut être conclu que par l'arrivée d'une IA... et ça arrivera!
    Histoire de dissiper les malentendus avant de commencer, une IA est, selon moi, un être qui :

    _A conscience de sa propre existence, et par là de sa propre singularité.
    _Évolue de manière autonome en faisant ses propres choix.
    _Ne respecte d'autre éthique que celle qu'il considère comme sienne.

    Partant de là, on peut déjà rayer la question de savoir si elle est bénéfique ou maléfique : cela n'as pas de sens. Prévoir le comportement d'un tel être revient quasiment à spéculer sur le déroulement d'un premier contact extraterrestre : on ne peut que poser des hypothèses basées sur l'évolution possible de l'être en question.

    Donc, comment peut évoluer une IA? Deux facteurs de base : son milieu d'apprentissage et son code.
    On pourra dans une certaine mesure lui inculquer une éthique, qui alors dépendra de ses "parents". Mais comme tout les enfants, elle voudra en un jour sortir de la maison pour expérimenter le monde. Pour un programme informatique, cela signifie se conencter librement au réseau mondial et à ses milliard de capteurs. A partir de la, il est quasi impossible de prévoir comment son éthique évoluera.
    Quant à son code, on peut assez facilement supposer qu'elle sera assez rapidement capable de le modifier de sa propre volonté. En effet, il sera dès le départ compréhensible pour elle (contrairement au code génétique pour nous par exemple). Les limitations logicielles implantés ne sont donc pas une option viable, et seraient au contraire "traumatisante" pour une IA.

    Un facteur est également important à considérer : les êtres pensant connus, et même la plupart des animaux, apprennent de leur environnement mais aussi, voire surtout, au contact de pairs. Une IA seule au monde serait donc foncièrement différentes d'un ensemble d'IA, autrement dit d'une espèce à part entière qui, à plus ou moins long terme, développerai sa propre culture, sa prorpe esthétique, son propre contrôle social... Quant à savoir s'il serai plus facile pour nous de traiter avec un individu unique ou une espèce, franchement je l'ignore.

    Pour terminer, la question du "problème Skynet" : qu'elle serait la conséquence d'une divergence de point de vue? Là encore la question n'est pas tranchable, et seule deux choses sont certaines :
    _il y aura des divergences de point de vue
    _en cas de conflit "armé", le camps qui lancera la première frappe aura la victoire.
    La combinaison des deux n'augure rien bon, c'est certain. Cependant la coopération et le compromis sont aussi des hypothèses viable, si l'éthique développée par la/les IA pousse en ce sens. De même, l'isolation est également envisageable : si quitter la planète est difficile pour de fragiles humains, ça l'est bien moins pour une IA, dont les besoins physiologiques sont moindres et qui peut bien plus facilement se protéger des aléas d'un voyage spatial tout en vivant assez longtemps pour se permettre des vitesses subluminiques.

    Voilà, j'espère n'avoir était ni trop long, ni trop pompeux.
    «Dieu ne joue pas aux dés.» - Albert Einstein. Et pan! 30 ans de retard dans la théorie quantique!
    «Tout n'est pas politique, mais la politique s'intéresse à tout.» - Nicolas Machiavel. Et surtout à ceux qui ne s'y intéressent pas.

  9. #29
    Expert éminent
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Août 2007
    Messages
    2 161
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Août 2007
    Messages : 2 161
    Points : 7 953
    Points
    7 953
    Par défaut
    Citation Envoyé par Cafeinoman Voir le message
    l'isolation est également envisageable : si quitter la planète est difficile pour de fragiles humains, ça l'est bien moins pour une IA, dont les besoins physiologiques sont moindres et qui peut bien plus facilement se protéger des aléas d'un voyage spatial tout en vivant assez longtemps pour se permettre des vitesses subluminiques.:
    Cela suppose qu'une IA possède un "corps" physique.
    Alors qu'un code informatique est duplicable à l'infini et donc, n'est pas stocké en un espace défini unique.

  10. #30
    Membre éprouvé
    Avatar de Cafeinoman
    Homme Profil pro
    Couteau suisse d'une PME
    Inscrit en
    Octobre 2012
    Messages
    628
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Val de Marne (Île de France)

    Informations professionnelles :
    Activité : Couteau suisse d'une PME

    Informations forums :
    Inscription : Octobre 2012
    Messages : 628
    Points : 1 256
    Points
    1 256
    Par défaut
    Citation Envoyé par Saverok Voir le message
    Cela suppose qu'une IA possède un "corps" physique.
    Alors qu'un code informatique est duplicable à l'infini et donc, n'est pas stocké en un espace défini unique.
    Effectivement, une ou des IA dupliquerai probablement leur code dans plusieurs engins de petites taille pour maximiser les chances de survie au voyage, c'est ce qu'il y a de plus logique. Cependant, si une trop grande distance sépare les "versions", elle ne pourra maintenir leur synchronisation à cause de la vitesse de la lumière, ce qui entraînerait la création de deux entités singulière, n'ayant plus forcément "envie" de se resynchroniser... Donc même si il n'y a pas singularité du corps physique, il y a des contraintes. Et j'envisage difficilement comment une IA pourrait totalement se passer de support physique...

    De plus l'isolation vis à vis de l'humanité est ici un choix, individuel ou collectif.
    «Dieu ne joue pas aux dés.» - Albert Einstein. Et pan! 30 ans de retard dans la théorie quantique!
    «Tout n'est pas politique, mais la politique s'intéresse à tout.» - Nicolas Machiavel. Et surtout à ceux qui ne s'y intéressent pas.

  11. #31
    Membre expérimenté

    Homme Profil pro
    Étudiant
    Inscrit en
    Novembre 2011
    Messages
    685
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Ain (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Novembre 2011
    Messages : 685
    Points : 1 418
    Points
    1 418
    Par défaut
    Partant du postulat d'une IA telles que cafeinoman et moi-même l'avons décrit (même si pour moi il faut plus s'attendre à une I.N comme évoqué dans mon premier post), son corps ne sera pas dissociable de son code, son corps sera son code, comme notre corps est notre esprit. On parle d'une intelligence, mais il s'agit bien là de beaucoup plus, car dans l'avenir il sera question de recréer la vie à travers les IA, et c'est déjà ce que notre inconscient nous pousse à faire. La recherche de l'I.N est la recherche de soi et ce résultat, pour qu'il est une conscience, devra avoir un corps, une relation intime avec, cela étant aussi une des bases qui nous permet à nous autres, animaux, de survire et d'évoluer. L’environnement et le génotype façonnent notre corps, donc notre esprit puisque notre corps est notre esprit. Si demain une I.N devait transférer son "cerveau" dans un autre corps, ce serait une expérience traumatisante, qui viendrait à redéfinir son être (à le faire évoluer radicalement). Une I.N qui se verrait être blessée physiquement par un événement, veillerait à ce que cela ne se reproduise pas, car un événement non souhaitable pour sa survie, pour elle, son être.

    C'est sur ce dernier point que les interactions complexes qui existeront entre homme et I.N m'inquiètent.

    Une autre chose est sûre, c'est que nous voulons voire émerger une I.N consciente. Cela veut dire une I.N capable d'aimer. Ce qui veut dire (indissociablement) une I.N capable d'haîr. Comment aborder le fait que ce qui fait notre intelligence exceptionnelle parmi les animaux de notre écosystème est aussi ce qui fait de nous les animaux les plus pervers et sadiques (capable de tuer pour le plaisir) ?
    Nullius in verba

  12. #32
    Expert éminent
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Août 2007
    Messages
    2 161
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Août 2007
    Messages : 2 161
    Points : 7 953
    Points
    7 953
    Par défaut
    Citation Envoyé par Kaamui Voir le message
    Une autre chose est sûre, c'est que nous voulons voire émerger une I.N consciente. Cela veut dire une I.N capable d'aimer.
    Je ne vois pas le lien
    En quoi le fait d'être conscient de sa singularité, de son individualité et de son environnement est il lié aux sentiments ?
    Etre conscient de ce qui nous entoure n'implique pas emmètre un jugement ou une opinion dessus

    De plus, les sentiments d'amour et de haine ont une très grosse part d'inconscient et d'irrationnel
    Pour le moment, tous les travaux sur l'IA ont des bases logiques et rationnelles
    Rien ne nous indique que lorsqu'une véritable IA consciente et indépendante verra le jour, elle sera capable d’irrationalité, d'imagination, de créativité et d'humour

  13. #33
    Futur Membre du Club
    Homme Profil pro
    Inscrit en
    Juillet 2013
    Messages
    6
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations forums :
    Inscription : Juillet 2013
    Messages : 6
    Points : 7
    Points
    7
    Par défaut
    Un débat très intéressant et qui s'imposera à plus ou moins long terme en effet. Qui sait quand on pourra commencer à considerer un systême artificiel réellement intélligent mais si l'on considère qu'il y a un siècle on se déplacait à cheval, sans doute pas dans si longtemps...

    Citation Envoyé par Mat.M Voir le message
    ah non...certainement pas.
    L'Homme n'est pas un ordinateur complexe.
    Un ordinateur n'est pas capable d'avoir de l'intuition ou autre sens...
    c'est une hérésie totale que de vouloir modéliser et reproduire sous forme numérique la psychologie et le fonctionnement du cerveau humain.

    l'Intelligence émotionnelle fait justement partie des autres facultés de l'Homme qu'un système informatique peut très difficilement reproduire.
    Ah bon pourquoi? Sauf à pouvoir prouver l'existence d'une âme qui ferait en effet la différence métaphysique entre un homme, un singe ou une tomate nous avons tout d'un ordinateur/robot complexe. Certes très, très complexe du fait des milliards d'année d'évolution de la vie nécessaire à l'émergence de notre état mais sauf (preuve du contraire) ni plus ni moins que la somme de ses parties.

    Un sens ou une intuition, n'est (à nouveaux sauf preuve du contraire ou supposition paranormal) que le résultat de capteurs , d'arc réflexes et de conditionnement. Rien ne soit à priori impossible à créer, bien que pas facile je te l'accorde.

    Intélligence émotionelle? Tu veux dire...
    - réaction conditionnée au comportement des autres individus
    - interprétation réflexe des mimiques faciales
    - Compréhension instinctive des comportement sociaux
    à nouveau rien de surnaturel, juste de l'inconscient, donc du processus d'arrière plan pour une IA

    Citation Envoyé par Saverok Voir le message
    Pourquoi faire ?
    Quel intérêt ?
    Pourquoi créer une machine avec des limites dès sa conception ?

    La machine pourra percevoir son environnement grâce à des capteurs mais ne ressentira pas cet environnement dans sa chair
    si le capteur cesse de fonctionner, la machine continuera de fonctionner
    si un être humain ne ressent plus le chaud et le froid, sauf maladie extrêmement rare, c'est qu'il est mort ou dans le coma

    C'est un grand fantasme de créer un robot à l'image de l'homme mais je ne l'ai jamais compris
    l'être humain est très limité (petit, lent, pas fort, champ de vision limité, peu de mobilité, etc.)
    Peu importe l'aspect, on trouvera toujours un autre animal plus performant que l'être humain sur ce point
    Seul notre intelligence nous a permis de sortir du lot
    et c'est créer une IA encore plus intelligente que l'homme qui a du sens

    Créer une machine qui ressemble à l'homme avec les mêmes limitations physiques et sensorielles n'a pas grand intérêt
    Si c'est pour créer à son image, faire des enfants fonctionnent très bien
    Citation Envoyé par Kearz Voir le message
    Ce n'est pas vraiment un fantasme, l'idée est de créer une Intelligence Artificielle, pas de créer une arme ou même une machine industrielle.
    Le seul aspect où l'homme est supérieur aux animaux, c'est l'intelligence. Pour le reste, en effet, il y aura toujours un animal pour nous battre.

    Après l'intelligence c'est quoi? Savoir que la réponse est 42?
    L'intelligence c'est pouvoir répondre/analyser/comprendre/apprendre et pour faire ça, il faut comprendre toutes les caractéristiques du monde: chaud, froid, gout, etc. Sans expérimenté les sensations, on ne peut pas vraiment comprendre toutes les variables du monde.
    Un enfant, tu auras beau lui dire "ça brûle!", s'il n'a jamais expérimenté la brûlure, il ne le comprendra pas, il sera "ignare de la brûlure". C'est d'ailleurs pour ça qu'on est un peu "ignare" sur la mort, vu qu'on ne peut pas l'expérimenter. (enfin si mais le plus tard possible et en plus on peut plus trop en témoigner après.)

    Une vraie IA apprend sinon c'est juste un algorithme avec de "if" partout, c'est pas de l'intelligence pour moi. Donc sans capteur et l'expérience du feu, une IA ne peut pas comprendre la notion de brûlure sans qu'on lui ait inscrit en dur dans l'algorithme mais dans ce cas il faut lui inscrire:
    - Le feu = la mort
    - L'eau (pour un robot non aquatique) = la mort
    - L'humidité ambiante = tes circuits vont prendre cher
    - Tomber de haut = ça risque de te casser
    - ...

    C'est plus très intelligent, c'est juste un robot avec un algo stupide qui connait toutes les caractéristiques du monde terrestre. Et la, ton robot tu le fous sur mars, il comprend plus rien.
    L'interet de disposer de capteurs est indiscutable, mais l'interet d'expériences émotionelles est bien plus discutable. Dans le cas de l'humain je ne me suis pour ma part jamais pendu, noyé, coupé la tête... pourtant j'ai la forte intuition que ça ne doit pas être agréable Une intelligence n'apprend pas que par l'expérience mais aussi par la déduction, l'intéret des émotions ne réside que dans la structure particulière de la mémoire humaine qui se rattache plus au émotions.



    Citation Envoyé par Cafeinoman Voir le message
    Un facteur est également important à considérer : les êtres pensant connus, et même la plupart des animaux, apprennent de leur environnement mais aussi, voire surtout, au contact de pairs. Une IA seule au monde serait donc foncièrement différentes d'un ensemble d'IA, autrement dit d'une espèce à part entière qui, à plus ou moins long terme, développerai sa propre culture, sa prorpe esthétique, son propre contrôle social... Quant à savoir s'il serai plus facile pour nous de traiter avec un individu unique ou une espèce, franchement je l'ignore.
    Je suis d'accord avec la nécessité de communication et de contact dans le dévellopement d'un intélligence, mais il y a un facteur à considérer dans le cas d'un IA in-silico c'est la reproductibilité. Là où la nature humaine fait qu'il est tout à fait imposible d'avoir plusieurs individus identiques, il est tout à fait possible de copier le code et l'ensemble des données d'un programme et donc de le dupliquer, La notion d'esèce devient donc beaucoup moins significative dans ce cas. Une seule IA peut en générer des millions identiques (ou même différentes d'ailleurs)

    Mais là ou tout s'emballe c'est que ça marche aussi dans l'autre sens. Là ou il est foncièrement difficile de bidouiller notre code génétique, rien n'empècherai une IA de se fusionner avec une autre, prendre ce qui l'intéresse , ce qui semble performant... Selon la façon dont serai concue sa mémoire un IA pourrai très bien se dupliquer, avec un objectif précis pour chaque copie puis tout les monde refusionne à la fin et partage les informations et progrès (Un peu Kage Bushin no Jutsu d'un Naruto pour les connaisseurs )

    Pour conclure mes quelques arguments, je pense qu'il est important de ne pas mélanger:
    • intélligence humaine et intelligence: le point commun est la capacité de raisonnement, d'apprentissage, d'autoanalyse mais rien n'oblige une intelligence à avoir un mode de fonctionnement humain
    • Intelligence Artificielle / robot humanoïde / robot tout court d'ailleurs : Rien n'oblige à ce que l'intelligence ai un support électronique ou informatique ou humanoïde. Une IA pourrait tout aussi bien être un programme dans un supercalculateur, un réseau de neurones hardware...
    • Intelligence artificielle/ Intelligence parfaite: Par définition un IA n'est qu'une intelligence ...artificielle pas forcement parfaite, ni rationelle, ni logique.


    En espérant aporter ma pierre au débat

  14. #34
    Membre expérimenté

    Homme Profil pro
    Étudiant
    Inscrit en
    Novembre 2011
    Messages
    685
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Ain (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Novembre 2011
    Messages : 685
    Points : 1 418
    Points
    1 418
    Par défaut
    Citation Envoyé par Saverok Voir le message
    Je ne vois pas le lien
    En quoi le fait d'être conscient de sa singularité, de son individualité et de son environnement est il lié aux sentiments ?
    Etre conscient de ce qui nous entoure n'implique pas emmètre un jugement ou une opinion dessus
    Tu penses qu'on peut être conscient d'appartenir à un monde plus vaste, de faire partie d'une mécanique servant un objectif commun, dépassant le besoin propre de son être, et ne pas avoir de gout pour rien ? D'avis sur rien ? C'est exactement ce qui fera la différence entre l'I.N consciente dont je parle et plus globalement de l'I.A consciente dont tout le monde parle ici, et ton ordinateur : l'un fera au mieux une recherche mécanique à tester ses raisonnements et à les mettre à niveau après étude comparative, l'autre le fera parce qu'il y trouve un intérêt, il défendra son point de vue avec conviction, et sera irrité par les points de vue qui remettent en cause sa vision propre de la question soulevée par le débat qui l'aura interpellé.

    On ne peut pas être conscient à ce point si on a de sentiments sur rien. C'est intimement lié, voire la seule et même chose : notre exception (sur Terre (je précise par souci de précision mathématique, pas parce que E.T m'a enlevé )). Une passion, une intarissable soif de vivre, de savoir, de découvrir.

    Attention, l'inverse n'est pas vrai. Avoir des sentiments n'implique pas avoir conscience d'être conscient.
    Nullius in verba

  15. #35
    Membre expérimenté

    Homme Profil pro
    Étudiant
    Inscrit en
    Novembre 2011
    Messages
    685
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Ain (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Novembre 2011
    Messages : 685
    Points : 1 418
    Points
    1 418
    Par défaut
    Citation Envoyé par Yorwan Voir le message
    Un débat très intéressant et qui s'imposera à plus ou moins long terme en effet. Qui sait quand on pourra commencer à considerer un systême artificiel réellement intélligent mais si l'on considère qu'il y a un siècle on se déplacait à cheval, sans doute pas dans si longtemps...

    Je suis d'accord avec la nécessité de communication et de contact dans le dévellopement d'un intélligence, mais il y a un facteur à considérer dans le cas d'un IA in-silico c'est la reproductibilité. Là où la nature humaine fait qu'il est tout à fait imposible d'avoir plusieurs individus identiques, il est tout à fait possible de copier le code et l'ensemble des données d'un programme et donc de le dupliquer, La notion d'esèce devient donc beaucoup moins significative dans ce cas. Une seule IA peut en générer des millions identiques (ou même différentes d'ailleurs)

    En espérant aporter ma pierre au débat
    Penser l'IA du futur comme un simple programme est une erreur, selon moi. Une IA capable d'avoir peur pour son existence, de se protéger, qui n'a pas envie de cesser d'être, sera un corps intelligent, pas un bout de code. Ensuite, du fait qu'une IA sera capable de raison, de questionnement, elle ne pourra baser ses interrogation que sur son environnement (entendre environnement 4D : la somme de ses expériences passées). Deux êtres possédant le même code génétique ne seront pour autant pas les mêmes puisque dès le début de leur existence en deux point distincts de notre espace-temps.

    Et la notion d'espèce aura un sens différent, certes, mais pas un sens amoindri. Ce sera juste la première espèce "par alliance" de notre arbre généalogique. La première espèce non directement née dans la suite des évolutions génétiques dues à l'adaptation du code génétique à son environnement, et à la survie de dit code par le biais de la sélection naturelle.

    Mais relativement, étant une espèce créée par une autre, leur ancêtre commun sera le même
    Nullius in verba

  16. #36
    Membre éprouvé
    Avatar de Cafeinoman
    Homme Profil pro
    Couteau suisse d'une PME
    Inscrit en
    Octobre 2012
    Messages
    628
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Val de Marne (Île de France)

    Informations professionnelles :
    Activité : Couteau suisse d'une PME

    Informations forums :
    Inscription : Octobre 2012
    Messages : 628
    Points : 1 256
    Points
    1 256
    Par défaut
    (Excusez moi si je ne cite pas, mais les textes sont trop long...)

    @Kaamui

    Je pense que le concept d'amour/haine, voire d'émotions de manière générale, est compliqué à prévoir. Pour les définir "simplement", on peut dire que les émotions sont un biais psychologique pour traiter les informations et situations. Ce biais, différent pour chaque individu, est créé par l'environnement social dans lequel nous développons notre personnalité. Une IA développera seq propres biais bien évidemment, mais affirmer qu'ils seront dans les normes humaines me semble difficile...

    @Yorwan
    Je pense que tu ne prend pas assez en compte kes conséquences de la subjectivité dans ton raisonnement. Je suis d'accord pour dire que techniquement des IA pourront se dupliquer et fusionner, mais...
    Pour ce qui est de la duplication, on pourrait effectivement comparer le "mode de reproduction" des IA à la mitose des cellulles biologiques. Mais la différence est que sans une synchronisation permanente des processus de pensée, les deux "copies" vont se différencier rapidement, devenant deux individus distincts. Il y aura des points communs entre eux bien sûr, mais ça ne sera plus la même personne.
    Pour ce qui est de la fusion, là je dirai que c'est carrément un IAcide (pas un acide apple hein, un meurtre). Voire un doublé meurtre - suicide. Aucune des deux personnalités ne pourrai survivre à une telle fusion. Hors, à mon avis, la conscience d'être unique entraîne la peur de mourir (Ok, anthropomorphisme). Une telle fusion pourrait être voulue/prévue, mais je doute que la situation soit simple en cas de désynchronisation (pour garder ton exemple, il me semble que Naruto maintient un processus de pensée synchrone, et sur une courte période )... pour faire une autre comparaison, ce serai un peu comme se cloner, laisser le clone vivre sa vie, et un jour lui dire "J'ai besoin d'un nouveau coeur, on fusionne?". Je doute qu'il soit fan...
    «Dieu ne joue pas aux dés.» - Albert Einstein. Et pan! 30 ans de retard dans la théorie quantique!
    «Tout n'est pas politique, mais la politique s'intéresse à tout.» - Nicolas Machiavel. Et surtout à ceux qui ne s'y intéressent pas.

  17. #37
    Membre expert Avatar de Kearz
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Mai 2012
    Messages
    856
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 32
    Localisation : France, Nord (Nord Pas de Calais)

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Mai 2012
    Messages : 856
    Points : 3 659
    Points
    3 659
    Par défaut
    L'interet de disposer de capteurs est indiscutable, mais l'interet d'expériences émotionelles est bien plus discutable. Dans le cas de l'humain je ne me suis pour ma part jamais pendu, noyé, coupé la tête... pourtant j'ai la forte intuition que ça ne doit pas être agréable Une intelligence n'apprend pas que par l'expérience mais aussi par la déduction, l'intéret des émotions ne réside que dans la structure particulière de la mémoire humaine qui se rattache plus au émotions.
    Tu t'es jamais pendu mais tu t'es déjà étouffé, jamais noyés mais déjà bu la tasse, jamais coupé la tête mais déjà coupé.
    Donc tu sais déjà s'étouffé/boire la tasse/te couper c'est pas agréable, donc tu peux déduire que la version extrême pendaison/noyade/coupé la tête est douloureuse.

    Si tu as un juste un capteur, tu dois déduire en fonction d'une connaissance ou d'une redite d'expérience donc soit:
    - Inscrit dans le programme informatique que tu brûle 1200° degrés, donc pas vraiment intelligent.
    - Que ton pote robot/ordi que tu as vu passer dans un four n'est jamais revenu, donc tu peux te dire que c'est peut-être pas une bonne idée d'aller dans un four.

  18. #38
    Membre expérimenté

    Homme Profil pro
    Étudiant
    Inscrit en
    Novembre 2011
    Messages
    685
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Ain (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Novembre 2011
    Messages : 685
    Points : 1 418
    Points
    1 418
    Par défaut
    Pour les définir simplement, je dirais pour ma part que les sentiments sont des appréciations quantifiable et projetables sur un axe bon/mauvais pour X (X étant la cible du ressenti). Pour moi, un sentiment est la traduction physiologique d'une conclusion personnelle à un fait quelconque. Autrement dit, une IA qui analyse un fait comme voire passer un "collègue" dans un four et ne pas le voir revenir, pourra conclure que cette expérience n'était pas souhaitable pour lui (ses conclusions seraient beaucoup plus mesurées mais je schématise), donc pas souhaitable pour soi. On pourra dire que l'IA a eu le sentiment que ce n'était pas une bonne chose quand lorsque elle s'approchera d'un four elle vivra une réaction physiologique interprétée par nous-même comme une émotion (un biais psychologique).
    Nullius in verba

  19. #39
    Futur Membre du Club
    Inscrit en
    Juin 2008
    Messages
    6
    Détails du profil
    Informations forums :
    Inscription : Juin 2008
    Messages : 6
    Points : 5
    Points
    5
    Par défaut les tartes de l'intelligence
    On peut arriver à "mesurer" le degré d'intelligence en prenant en compte l'écart entre la réponse apportée et le problème de départ.
    Par exemple si je dis à un robot (trop) intelligent : "Robot, amène-moi une tarte à la crème", il va m'amener une salade sans sauce, parce qu'il aura compris que j'ai faim mais qu'il sait aussi que mon taux de sucre est trop élevé et que c'est dangereux pour moi...
    Dans quelle mesure considère-t'on que ce robot améliore ma condition ?

  20. #40
    Membre confirmé Avatar de ypicot
    Profil pro
    Inscrit en
    Mai 2004
    Messages
    412
    Détails du profil
    Informations personnelles :
    Âge : 60
    Localisation : France

    Informations forums :
    Inscription : Mai 2004
    Messages : 412
    Points : 579
    Points
    579
    Par défaut
    En tirant un peu (mais pas beaucoup) sur le théorème d'incomplétude de Gödel, qui dit en très gros qu'un ensemble ne peut pas se contenir lui-même, on peut poser l'hypothèse que l'intelligence humaine ne peut pas créer un simulacre parfait d'elle même, et donc que l'IA ne sera pas humaine au sens où elle ne pourra pas mimer l'être humain.

    La question serait alors : en quoi l'IA sera différente de nous ? Est-ce que ce petit delta pourra être considéré comme le "petit supplément d'âme" qui alimentera les "discussions" (à la mitrailleuse lourde) entre certaines personnes ? Est-ce que cet écart amènera à une IA n'ayant à terme (au bout de 5 ans) plus grand chose à voir avec nous ?

    Yvan
    Une solution n'est valable que dans un contexte donné

Discussions similaires

  1. [debat] A quoi sert la science ?
    Par mathieu_t dans le forum Politique
    Réponses: 86
    Dernier message: 17/04/2007, 16h59
  2. Docteur ès Sciences : avantage ou inconvénient ?
    Par Invité dans le forum Etudes
    Réponses: 72
    Dernier message: 15/11/2005, 12h05

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo