Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Y a-t-il une intelligence artificielle ?


Sujet :

Intelligence artificielle

  1. #1
    Nouveau Candidat au Club
    Y a-t-il une intelligence artificielle ?
    Bonjour tout le monde !

    Autant le dire tout de suite, je ne suis pas du tout programmeur !
    Dans le cadre de mes études je suis amené à commenter le livre de Luc Julia "L'intelligence artificielle n'existe pas". Luc Julia affirme dans son livre qu'il n'existe aucune intelligence artificielle à ce jour car les machines selon lui “ne font que suivre des règles, des exemples et des codes”.
    1) Je suis à la recherche d'éventuels contre-exemples dans lesquels les machines sont capables de prendre des décisions qui ne sont pas directement induites par des algorithmes où des lignes de codes, ou qui montreraient qu'une machine peut apprendre par elle-même sans aide humaine pour certaines tâches.
    Je suis par exemple tombé sur cette vidéo qui montre un programme de Google ayant LUI-MÊME appris à marcher, pour aller d'un point A à un point B. Est-ce que tout ça est simplement de la com ?


    2)Sur >> cette page de reinforcement learning <<, il est dit qu'un véhicule autonome pourrait prendre des décisions sans protocole "if-then". Comment cela serait-il possible ?

    J'ai creusé un peu du côté du deep learning et du reinforcement learning mais je n'ai pas le bagage mathématique pour comprendre. Voila pourquoi je me permets de vous solliciter pour cette question. Les réseaux de neurones ont l'air toujours plus complexes et toujours plus approchant des réseaux humains (même s'ils semblent à des années lumière de leur complexité) mais je n'arrive pas à comprendre si cette complexité induit véritablement une forme de "liberté" ou d'"auto-apprentissage" chez la machine (aussi petite soit-elle) où si tout demeure malgré tout régit par des codes programmés par l'homme.

    Merci d'avance !

  2. #2
    Expert éminent
    salut,

    c'est toujours plus ou moins la même question que nos générations (se) posent, un gros morceau cette "intelligence" artificielle, et ô combien passionnant.
    aussi je ne suis pas expert mais simplement amateur du sujet, et je te livre ici ce que je crois savoir, sans trop présumer ni encore moins prétendre à une vérité unique et gravée dans le marbre sur ces questions.

    Citation Envoyé par Ph1dias Voir le message
    Luc Julia affirme dans son livre qu'il n'existe aucune intelligence artificielle à ce jour car les machines selon lui “ne font que suivre des règles, des exemples et des codes”.
    oui. je ne suis pas fan de Luc Julia, pour le moins je le trouve trop catégorique à mon gout sur un sujet qui met en ébullition énormément de cerveaux brillants par delà le monde, et qui en toute logique requerrait de suspendre son jugement un peu plus qu'il ne le fait, ne serait-ce que par souci de crédibilité.

    la question intéresse, bien avant les programmeurs, les chercheurs en IA, philosophes, psychologues et neuroscientifiques.
    pour pouvoir y répondre il convient en premier lieu de définir ce qu'est l'intelligence précisément, ce qui déjà à cette étape préliminaire n'est ni pleinement satisfaisant ni ne fait complètement consensus.

    actuellement un certain nombre de subtilités existent donc entre la définition d'intelligence artificielle qui regroupe sobrement "l'ensemble des théories et des techniques mises en œuvre en vue de réaliser des machines capables de simuler l'intelligence" (Wikipédia) et pour le moins la notion d'intelligence artificielle forte qui se positionne implicitement par rapport à l'intelligence humaine et semble impliquer la notion de conscience, notamment en tant que faculté pour une entité à "comprendre"/observer/apprendre sur les données de ses propres "algorithmes"/fonctionnements internes (conscience d'accès)

    Citation Envoyé par Ph1dias Voir le message
    Je suis à la recherche d'éventuels contre-exemples dans lesquels les machines sont capables de prendre des décisions qui ne sont pas directement induites par des algorithmes où des lignes de codes
    il faut différencier deux choses ; dans l'absolu un programme, par définition, suit des lignes de code, il ne les invente pas lui-même et des programmes informatiques n'émergent pas spontanément dans nos ordinateurs et à fortiori encore moins des programmes intelligents, en ça trouver des contre-exemples sera donc impossible par définition.

    en revanche si on prend l'exemple dans la vidéo que tu donnes, les programmeurs n'ont à aucun moment défini comment marcher, peut-être ont-ils défini des contraintes articulaires pour éviter que l'avatar n'ait son genou qui se torde dans le mauvais sens par exemple, mais pas plus. la seule chose qu'ils ont défini est l'incentive (la "motivation" ?) d'aller d'un point A à un point B, le programme a ensuite trouvé tout seul comment procéder avec le "corps" virtuel articulé dont il disposait.

    Citation Envoyé par Ph1dias Voir le message
    il est dit qu'un véhicule autonome pourrait prendre des décisions sans protocole "if-then". Comment cela serait-il possible ?
    c'est tout le propos des technologies de machine/deep learning, en pratique on a un certain nombre de données en entrée, des valeurs symbolisant par exemple la position du sol, l'angle que fait le pied avec la cheville, la hauteur du centre de gravité mais peut-être aussi la couleur du sol ou le nombre de cuisses qu'a l'avatar à chaque seconde, en somme tout un tas de données, mais dont on ne présuppose pas qu'elles soient toutes utiles.

    chaque valeur va alors être multipliée par un coefficient qui lui est propre, compris entre 0 et 1, de manière qu'un coefficient à 0 va inhiber la valeur d'entrée tandis qu'un coefficient à 1 maximisera son impact.
    charge alors au réseau de neurone de trouver la valeur idéale de ces coefficients par essais/erreurs, à travers un circuit de la récompense dont l'objectif est de maximiser les chances d'arriver au point B

    en sortie, une fonction dite "d'activation" permettra alors de rendre un verdict, un peu à la manière d'un if-else "légèrement flou" (voir par exemple la fonction sigmoïde)

    Citation Envoyé par Ph1dias Voir le message
    je n'arrive pas à comprendre si cette complexité induit véritablement une forme de "liberté" ou d'"auto-apprentissage" chez la machine
    l'"auto-apprentissage" ou apprentissage autonome on sait faire, c'est tout le propos de ces algorithmes de deep learning.

    la "liberté" en revanche c'est une notion spécifique, en l'occurrence je pense que tu fais plutôt référence à la capacité pour un individu à se déterminer lui-même (faire des "choix conscients") dans son environnement, dont l'un des prérequis est donc la conscience, et qui renvoie à la notion de sentience. pour le coup on y est pas encore mais j'ai la faiblesse de croire que ça avance rapidement.

  3. #3
    Nouveau Candidat au Club
    Bonjour, merci pour ta réponse (je partage ton point de vue au sujet de la posture un peu extreme de Julia) ! Cela va me permettre d'aller un peu plus loin dans mes questions :

    Citation Envoyé par BufferBob Voir le message

    il faut différencier deux choses ; dans l'absolu un programme, par définition, suit des lignes de code, il ne les invente pas lui-même et des programmes informatiques n'émergent pas spontanément dans nos ordinateurs et à fortiori encore moins des programmes intelligents, en ça trouver des contre-exemples sera donc impossible par définition.

    en revanche si on prend l'exemple dans la vidéo que tu donnes, les programmeurs n'ont à aucun moment défini comment marcher, peut-être ont-ils défini des contraintes articulaires pour éviter que l'avatar n'ait son genou qui se torde dans le mauvais sens par exemple, mais pas plus. la seule chose qu'ils ont défini est l'incentive (la "motivation" ?) d'aller d'un point A à un point B, le programme a ensuite trouvé tout seul comment procéder avec le "corps" virtuel articulé dont il disposait.
    1) dans le premier paragraphe tu dis que "dans l'absolu un programme, par définition, suit des lignes de code, il ne les invente pas lui-même", pourtant quand tu fais l'analyse de l'exemple de l'IA de Google, tu dis bien "les programmeurs n'ont à aucun moment défini [à l'iA] comment marcher". Or je suppose qu'aucune action venant d'une IA ne peut se produire sans ligne de code faite pour cette action en particulier, dans ce cas, comment cette machine peut-elle effectuer cette action sans ligne de code dédiée ? Je te pose la question, car pour moi, en l'état de ta réponse, la machine a bien réussi à apprendre d'elle-même, ce qui dénoterait une forme "d'intelligence artificielle forte", aussi petite et limitée soit-elle par rapport aux capacités humaines.

    Citation Envoyé par BufferBob Voir le message

    chaque valeur va alors être multipliée par un coefficient qui lui est propre, compris entre 0 et 1, de manière qu'un coefficient à 0 va inhiber la valeur d'entrée tandis qu'un coefficient à 1 maximisera son impact.
    charge alors au réseau de neurone de trouver la valeur idéale de ces coefficients par essais/erreurs, à travers un circuit de la récompense dont l'objectif est de maximiser les chances d'arriver au point B
    2) même question pour cet exemple, tu dis "à charge au réseau de neurone de trouver la valeur idéale". Ta phrase suggère l'idée d'une décision... or cette décision est-elle déterminée de toute part par l'homme en amont, et en fonction des données de l'environnement de la machine, ou, y a-t-il des paramètres de cette décision qui ne sont pas forcément prévisibles ?

    Citation Envoyé par BufferBob Voir le message

    la "liberté" en revanche c'est une notion spécifique, en l'occurrence je pense que tu fais plutôt référence à la capacité pour un individu à se déterminer lui-même (faire des "choix conscients") dans son environnement
    3) oui effectivement "capacité à se déterminer soi-même" me semble l'expression la plus appropriée de ce que je recherche

  4. #4
    Expert éminent
    Citation Envoyé par Ph1dias Voir le message
    (...) je suppose qu'aucune action venant d'une IA ne peut se produire sans ligne de code faite pour cette action en particulier, dans ce cas, comment cette machine peut-elle effectuer cette action sans ligne de code dédiée ?
    à travers des lignes de code "génériques" (difficile d'être plus explicite, à ce stade une compréhension des mécanismes en jeu, tant liés à la programmation qu'au deep learning plus spécifiquement, ne peut qu'aider), c'est à dire que la simulation pourrait ne rien donner de probant, et l'avatar ne jamais parvenir ni à mettre en œuvre un déplacement similaire à la marche bipède, ni même arriver au point B.

    Citation Envoyé par Ph1dias Voir le message
    Je te pose la question, car pour moi, en l'état de ta réponse, la machine a bien réussi à apprendre d'elle-même, ce qui dénoterait une forme "d'intelligence artificielle forte", aussi petite et limitée soit-elle par rapport aux capacités humaines.
    non, la machine apprend bel et bien par elle-même, mais elle ne porte pas de regard critique sur son apprentissage (pour rappel IA forte = conscience, conscience d'accès au minimum, voire -et c'est là le point difficile- conscience phénoménale), elle se contente de converger vers un objectif pré-encodé (aller au point B), la simulation est selon moi moins révélatrice d'un comportement intelligent au sens humain que de la nature spontanément émergente de la marche bipède* en fonction des contraintes mécaniques du corps humain.
    l'avatar aurait très bien pu se rendre au point B en trainant la jambe gauche ou jambes fléchies tout du long comme un canard, mais de toutes les possibilités existantes il a spontanément convergé vers le mécanisme de la marche.

    Citation Envoyé par Ph1dias Voir le message
    même question pour cet exemple, tu dis "à charge au réseau de neurone de trouver la valeur idéale". Ta phrase suggère l'idée d'une décision...
    non, elle suggère plutôt l'idée d'un processus, en l'occurrence itératif et défini par le principe même des réseaux de neurones, mais ce même fonctionnement permet aussi bien de faire avancer l'avatar que de reconnaitre des formes dans des images ou de faire des recommandations publicitaires. ça n'est pour autant pas entièrement automatique non plus (je schématise pour faciliter la compréhension), notamment l'architecture du réseau participe de l'efficacité de ce processus générique sous-jacent. le point ici est essentiellement celui d'un apprentissage non-supervisé et de la mise en évidence d'un comportement émergent.

    Citation Envoyé par Ph1dias Voir le message
    cette décision est-elle déterminée de toute part par l'homme en amont, et en fonction des données de l'environnement de la machine, ou, y a-t-il des paramètres de cette décision qui ne sont pas forcément prévisibles ?
    ni l'un ni l'autre, c'est "entre les deux", comme dit l'intelligence n'émergera pas toute seule et il faut programmer de manière à ce que quelque chose se produise, mais on est pas obligé de savoir à quoi s'attendre ni même d'être en mesure de le prédire en tout ou partie, c'est d'ailleurs ce que sous-entend la vidéo en précisant que la seule chose qui a été instillée à l'avatar c'est cet incentive d'aller du point A au point B


    * edit: c'est d'ailleurs ce que suggère le titre de la vidéo originale ( watch?v=hx_bgoTF7bs ) "Emergence of Locomotion Behaviours in Rich Environments"

  5. #5
    Nouveau Candidat au Club
    J'ai fait un BAC en Génie de la production Automatisé
    Bonjour Messieurs

    Je croix qu'il y a des systèmes qui sont capable de prendre des décisions selon les informations qu'il possède. Si nous regardons l'intelligence humaine versus l'intelligence artificielle. Pour moi l'être humain est une machine avec plusieurs pièces différences qui répondre a des besoins spécifique. Un ordinateur, un robot et un androïde utilise le même concepts plusieurs pièces différences qui répondre a des besoins spécifique.

    Si je regarde un humain marché et un androïde marché il utilise les mêmes concepts car les deux doivent répondes au loi, règles de l'univers. Ici la force de gravité.

    Pour la production de masse nous utilisions des caméras pour détecter les défaut mais l'être humain fait la même chose. Prise de vue, analyse des données et prise de décision.

    Le cerveau humain est remplir de neurones. Durant mes études j'ai suivi un cours sur les réseaux de neurones.

    Je croix que une machine possède une intelligence similaire a l'être humain.

    En fait la question se ne pose pas vraiment.
    Car nous pouvons pas comparé l'intelligence de l'être humain a cette des ordinateurs, des robots ou des androïdes. Car les systèmes sont similaire mais également différent. Cela revient de comparer une pomme a une banane.


    Lorsqu'un être humain prend une décisions suis une forme de règles, de logique. L'être humain est émotif c'est la que je croix que la différence de l’intelligence tes différentes. L'intelligence humaine est composer de deux partie une logique (rationnel) et une partie émotif (subjectif)

    Je croix que les androïdes doivent être unique, ressentir a leur façons les besoins de maslow. Qu'il ai des valeur propre et qu'il es un but dans leur existante.

    Regarde les film de science-fiction. Johnny 5 (film des 1980) lorsqu'il c'est fait frappé par la foutre est devenue différent de ses pairs. Même phénomène dans le film Homme Bicentenaire, une erreur spontané dans la fabrication d'Andrew. Dans le film Stealth l'avion de combat autonome encore la foutre. Dans Star Trek, le lieutenant Data un cas d’unicité de l’androïde.

    Je pratique cette unicité avec mes ordinateurs, il ont chaque leur nom et leur système d'exploitation différent. ils sont même un but dans ma vie. Je fais des robots avec des Arduino même chose mon petite dernier est Wall-E autonome.

    Je vous aie partage mon opinion sur un sujet qui me passion.

    Luna Gaia, ingénieur junior de systèmes

  6. #6
    Expert éminent sénior
    Citation Envoyé par Luna_Gaia Voir le message
    Je pratique cette unicité avec mes ordinateurs
    un ordinateur bref un système numérique ne pourra jamais être totalement unique pour la simple raison que d'une part on peut le connecter à un réseau ensuite on peut lui rajouter ou supprimer des éléments à l'infini.
    Ce qui n'est pas du tout le cas pour l'être humain; je suis un être totalement à part entière je ne peux pas fusionner avec une autre personne.
    La théorie, c'est quand on sait tout et que rien ne fonctionne.
    La pratique, c'est quand tout fonctionne et que personne ne sait pourquoi.
    ( A Einstein)

  7. #7
    Expert éminent
    je reviens très sobrement sur la discussion pour partager une vidéo qui me semble intéressante à bien des égards, avec Bernard Georges comme intervenant principal.
    notamment il évacue assez vite les ambiguïtés d'"IA forte", "machine learning" et autres termes qu'il estime désormais galvaudés et trop imprécis pour discuter plus spécifiquement de ce qu'il nomme "systèmes cognitifs artificiels"