Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités

    C'est être bête que de penser que l'IA ne sera pas plus intelligente que l'Homme, d'après Elon Musk
    Les personnes intelligentes qui pensent que l’IA ne pourrait pas l’être plus qu’elles sont « bien plus bêtes qu’elles ne le pensent »,
    D’après Elon Musk

    Lorsqu’on parle d’intelligence artificielle, deux grands courants de pensée s’affrontent : celui des tiers qui pensent qu’il s’agit d’un outil, ce, sans plus et celui des intervenants et observateurs qui sont d’avis que ce n’est qu’une question de temps avant qu’elle ne devienne une menace pour la race humaine. Elon Musk fait partie de la seconde faction. C’est d’ailleurs pour cela que sa société Neuralink travaille sur des interfaces cerveau – machine à insérer dans le crâne pour préparer l’humanité à un « funeste » futur où les robots domineront sur elle. Le milliardaire de la Tech. tient à nouveau à prévenir : l’IA va surpasser les capacités cognitives de l’Homme.

    « Ça fait dix ans que je lance cette alerte. Nous devrions nous inquiéter de la direction que prend l'intelligence artificielle. Les personnes que je vois se tromper le plus sur ce sujet sont celles qui sont très intelligentes, ce, parce qu'elles ne peuvent pas imaginer qu'un ordinateur puisse être beaucoup plus intelligent qu'elles. C'est la faille de leur raisonnement. Elles sont juste beaucoup plus bêtes qu'elles ne le pensent », rapporte un correspondant du Financial Times.



    De 2017 (où Elon Musk affirmait que l’intelligence artificielle est un risque fondamental pour l’humanité) à 2020 en passant par 2019 (où il a déclaré que l’IA est bien plus dangereuse que l’arme nucléaire), la position du milliardaire de la Tech. sur la question reste donc constante. Les craintes d’Elon Musk portent notamment sur ceci que les avancées dans la filière pourraient déboucher sur une intelligence artificielle dite générale (AGI). Ce serait alors la porte ouverte sur l’accomplissement de l’apocalypse. Des équipes de recherche comme celle d’OpenAI sont lancées sur ce couloir. Si l’on se réfère à des retours de scientifiques œuvrant dans le domaine, l’AGI pourrait nous tomber dessus dans 5 à 10 ans.


    Les machines seraient alors dotées de « bon sens. » Au stade d’intelligence artificielle générale, elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. » C’est ce palier que les équipes de recherche dans le domaine visent. En attendant d’y être, l’intelligence artificielle actuelle fait montre de limites importantes. Bien qu’on s’appuie déjà sur celle-ci pour diagnostiquer des maladies, effectuer des traductions ou encore transcrire des paroles, le fait est qu’elle peut être mise en déroute par des cas de figure pour lesquels elle n’a pas été entraînée au préalable. À titre d’illustration, un système d’intelligence artificielle entraîné pour identifier des chats doit passer par un autre processus d’apprentissage pour pouvoir servir à la reconnaissance de chiens, ce, avec le risque de perdre une partie de l’expertise acquise sur la tâche initiale.

    Les dérives à ce stade de l’avancée en matière d’intelligence artificielle sont déjà palpables. Au début du mois en cours, le laboratoire de recherche en informatique et intelligence artificielle du MIT a annoncé la mise hors ligne de façon permanente d’un énorme jeu de données qui a mené à des systèmes d’IA qui usent d’insultes racistes et misogynes. Le fameux problème du biais des données fournies aux intelligences artificielles (lors de leur phase d’entraînement) reprenait alors un coup de neuf. La même institution avait déjà illustré ce problème de biais de données fournies aux IA au travers de Norman – la première intelligence artificielle psychopathe. Les données utilisées pour l’entraînement de cette IA ont été tirées de l’une des sections de Reddit les plus obscures, « consacrée à documenter et observer la réalité dérangeante de la mort. » Le nom de ce “subreddit” n’a pas été cité, mais on sait qu’il sert d’endroit où des internautes partagent des vidéos choquantes décrivant des événements où des personnes trouvent la mort. Norman a donc été exposé à des images ultra-violentes, ce qui explique les tendances psychopathes de l’IA qui voit tout d’une perspective sépulcrale.

    Dans cette catégorie d’IA biaisées, on retrouve un algorithme de reconnaissance faciale qui a, par « erreur », conduit Robert Julian-Borchak Williams, un Afro-Américain, à gérer des démêlés avec la justice. Après, la question est de savoir si les dérives ne pourraient pas être pires avec une intelligence artificielle générale.

    Source : Twitter

    Et vous ?

    Quelle pertinence trouvez-vous aux différents propos d’Elon Musk en lien avec l’intelligence artificielle ? Sont-ils plus sensationnalistes qu’autre chose ?
    Le fait qu’il n’y ait pas d’AGI pour le moment annule-t-il les prédictions d’Elon Musk ?
    Est-il impossible que la recherche en la matière aboutisse à l’intelligence artificielle générale ?

    Voir aussi :

    La conduite autonome serait-elle à ce jour qu'une vision futuriste chez Tesla Motors*? L'entreprise vient de changer les objectifs de son Autopilot
    La SEC demande à Musk de renoncer à son poste de président de Tesla et exige une amende de 40*millions*$ US pour un règlement à l'amiable
    Tesla annonce que le nouvel ordinateur pour une conduite entièrement autonome de ses véhicules est en production et fera ses preuves ce mois-ci
    Les actions Tesla chutent après que son système d'autopilote soit impliqué dans un accident et l'annonce des batteries de ses véhicules prenant feu
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre confirmé
    Même si les performances et les résultats obtenus par l'IA sont véritablement impressionnants, il serait plus juste de parler d'automatismes adaptatifs.
    Évidemment c'est moins vendeur mais plus juste quant à la réalité technique.
    L'Intelligence est indissociable de la Conscience et on est à des années lumières d'en maîtriser la nature.
    Cela viendra peut-être un jour, mais en attendant il y a des comportements d'une grande naïveté au sujet de l'IA qui pourraient bien aboutir à des "Titanic" numériques.

  3. #3
    Membre extrêmement actif
    Citation Envoyé par Patrick Ruiz Voir le message
    Elles sont juste beaucoup plus bêtes qu'elles ne le pensent
    Je vais citer Coluche qui citait René Descartes :
    « L'intelligence, c'est la chose la mieux répartie chez les hommes parce que, quoiqu'il en soit pourvu, il a toujours l'impression d'en avoir assez, vu que c'est avec ça qu'il juge. »
    Donc quelque part chaque individu est plus bête qu'il ne le pense.
    La chose la plus intelligente à dire ça doit être « je ne sais qu'une chose, c'est que je ne sais rien ».
    Peut-être que les plus intelligents ne parlent pas :
    « Le sot parle, le lâche se tait, le sage écoute. »
    « Mieux vaut rester silencieux et passer pour un imbécile que parler et n'en laisser aucun doute. »

    L'IA n'est qu'à ses balbutiements, on ne sait pas quel stade elle pourra atteindre.
    Mais rien qu'avec beaucoup de données et des algorithmes il y a moyen de faire des dégâts.
    Keith Flint 1969 - 2019

  4. #4
    Membre confirmé
    Une IA peut être plus efficiente (je préfère dire ça plutôt que parler de réelle intelligence) que l'homme dans la résolution de certains types de problèmes ou dans certains modes de réflexion pour lesquels elle a été conçue.
    Mais le propre de l'intelligence humaine est de pouvoir aborder les problèmes de très nombreuses façons, de ne pas se limiter.
    Donc pour moi, on en restera à l'IA pour des tâches bien précises et délimitées, et l'homme pour tout le reste. Un jour arrivera p-e où une IA nous égalera mais il faudra longtemps ...
    Longue vie au javascript ^^

  5. #5
    Membre habitué
    Intelligence artificielle va surtout produire des conneries concrètes.
    L'intelligence n'a pas besoin de conscience hélas, il s'agit juste de produire un résonnement rationnel qui permet d'arriver à des conclusions plus ou moins erronées. La phrénologie, l’eugénisme qui ont précédé le nazisme sont le fruit d’intelligences supérieures comme disait l’autre… Aujourd’hui les quelques dizaines d’industriels qui produisent les matières plastique sont considérés comme « intelligent »… c’est dire où cela nous mène.

    Alors oui, l’IA va certainement dépasser le maître, mais le « bons sens » et la pensée rationnelle automatisés va produire d’autant plus de bêtises qu’elle n’est influençable par aucun autre paramètre biologique, psychologique, moral, bref humain. En d’autre terme l’intelligence artificielle produira surtout de la connerie concrète

    Quand les humains produisent de la connerie rationnellement, ca mène généralement au fascisme ou à la destruction de la planète ou les deux. Quand les machines ont du bon sens ca mène à Terminator : Skynet :-) Le résultat est le même finalement :-)

  6. #6
    Membre régulier
    Citation Envoyé par michel.bosseaux Voir le message
    Une IA peut être plus efficiente (je préfère dire ça plutôt que parler de réelle intelligence) que l'homme dans la résolution de certains types de problèmes ou dans certains modes de réflexion pour lesquels elle a été conçue.
    Mais le propre de l'intelligence humaine est de pouvoir aborder les problèmes de très nombreuses façons, de ne pas se limiter.
    Donc pour moi, on en restera à l'IA pour des tâches bien précises et délimitées, et l'homme pour tout le reste. Un jour arrivera p-e où une IA nous égalera mais il faudra longtemps ...
    Longtemps, à quelle échelle ?
    L'informatique ça a moins de 80 ans, les progrès faits dans ce domaine ont été constants. Nous ne serons peu être plus de ce monde lorsqu'une telle IA existera (et encore que, je pense que c'est l'affaire au maximum d'un demi siècle) mais si tu compare par rapport a l'age de la civilisation humaine, ce n'est rien du tout.

    Citation Envoyé par VBurel Voir le message
    Quand les machines ont du bon sens ca mène à Terminator : Skynet :-) Le résultat est le même finalement :-)
    Non.

    Citer une fiction pour exemple de ce qui pourrait arriver dans un futur incertain c'est contre productif. Nous ne savons pas ce qui pourrait advenir dans le cas ou une telle IA serait crée.

  7. #7
    Expert éminent sénior
    Ce n'est pas qu'une question de pouvoir, mais aussi de vouloir.
    Je peux sauter du 51e étage d'un immeuble, c'est pas forcément pour cela que je veux le faire.


    Nous créons l'IA pour qu'elle soit un outil. Certes, on peut faire des IA dangereuses, mais est-ce pour autant qu'on veut le faire ? Est-ce que j'ai besoin que ma calculette puisse partir dans des raisonnements philosophiques ?


    Et puis il ne faut pas sous-estimer l'être humain, il pourra toujours battre une IA donnée. Il lui suffira de couper le courant, saboter son code/entraînements, ou de créer une autre IA plus puissante.
    "Parce que le diable est dans les détails, une vision sans nuance ne peut prétendre à la compréhension du monde."

    Mon ancienne page perso : https://neckara.developpez.com/

  8. #8
    Membre éclairé
    Une IA ce sont des lignes de code exécutées. Sachant qu'un programme informatique ne peut réaliser que ce pour quoi il a été pensé, il n'est par définition "pas plus intelligent que son auteur", et ce quel que soit le sens qu'on voudra bien donner au mot intelligence. Si Musk ne comprend pas cela, faut qu'il se dispense de donner des leçons d'intelligence aux grandes personnes.
    Sur Youtube je suis "Le développeur des cavernes"
    https://www.youtube.com/channel/UCSz...bYl_pSNMv_zerQ

  9. #9
    Membre extrêmement actif
    Citation Envoyé par Neckara Voir le message
    il pourra toujours battre une IA donnée. Il lui suffira de couper le courant
    Un programme peut être présent dans énormément d'appareils et du coup c'est compliqué de l'arrêter.
    Il y a plein d'objets connectés qui ont été hacké afin de faire des attaques par dénis de service ou de miner de la cryptomonnaie, il y a des histoires de PC zombies et tout ça.
    Donc c'est possible qu'une IA se répande comme un virus, elle viendrait s'installer dans des millions d'appareils.
    Théoriquement ça doit être jouable.

    Citation Envoyé par Jamatronic Voir le message
    Une IA ce sont des lignes de code exécutées. Sachant qu'un programme informatique ne peut réaliser que ce pour quoi il a été pensé, il n'est par définition "pas plus intelligent que son auteur"
    Les IA apprennent, il faut juste leur donner beaucoup de données.
    Par exemple avec les IA d'échecs ou de Go : on a laissez jouer une IA des milliards de partie contre elle même et elle a largement dépassé les humains.

    Au bout d'un moment on donnera aux IA un très grand nombre de livres à lire, elle va les interpréter et les comprendre. Si ça se trouve ça donnera quelque chose.
    Je crois que déjà aujourd'hui il y a une IA qui a assimilé 150 compositions de Beethoven et qui a écrit une fin à 10e symphonie.

    En tout cas c'est marrant quand on laisse une IA discuter avec des gens sur Twitter, parce que les gens s'amusent à lui faire croire n'importe quoi et le résultat est parfois marrant (Microsoft Tay est génial ).

    ====
    Bon sinon l'armée investit des milliards dans le développement d'arme qui utilise l'IA, donc ça va forcément être dangereux
    Un jour il y aura probablement des drones autonomes armés de fusils d’assauts.
    Il peut également des drones autonomes avec reconnaissances faciale qui surveilleront la population.
    Si t'habites en ville tu pourras être suivi en permanence (remarque il suffit de suivre la géolocalisation de ton smartphone pour savoir où tu te situes).
    Keith Flint 1969 - 2019

  10. #10
    Membre extrêmement actif
    Elon Musk se résume par une citation de Winston Churchil:

    C'est un de ces orateurs qui, quand ils se lèvent, ne savent pas ce qu'ils vont dire, quand ils parlent, ne savent pas de quoi ils parlent et, quand ils se sont rassis, ne savent pas ce qu'ils ont dit.

    Winston Churchil
    Allez mon petit Elon... Fume ta dose de chichon est laisse le monde tourner tout seul... Cela nous fera des vacances!

  11. #11
    Membre extrêmement actif
    c'est exactement ce qu'on est. Arrêtez de mettre l'homme sur un piédestal.

  12. #12
    Membre éprouvé
    C'est quand même paradoxale, on essaye de faire évoluer les machines en leur donnant la possibilité d'apprendre, on essaye de les faire se comporter comme des être humains (langage, posture etc), les chercheurs et les grosses boites de robotiques se plient en 4 pour donner apparence humaine à leurs joujoux et aujourd'hui on s’inquiète du risque que ces machine se comportent comme des cons (comme nous quoi).
    qu'est ce qui empêche un robot doté de compétences cognitives avancées, de faire un mauvais choix... s'il pense que c'est bien...? les lignes de directives qu'on lui fait avaler alors que nous même somme incapables de prendre les bonnes décisions sur le climat, la santé, la pauvreté, la paix???
    Salut à tous et merci @# yoyo3d

  13. #13
    Membre habitué
    Citation Envoyé par yoyo3d Voir le message
    qu'est ce qui empêche un robot doté de compétences cognitives avancées, de faire un mauvais choix... s'il pense que c'est bien...?
    Exactement! Et si un jour les machines acquierent du bon sens, elles se débarrasseront de l'humanité
    (Certainement avec l'aide des humains qui sont plus prompts à être les idiots utiles de régimes totalitaires que des âmes éclairés éprises de liberté).

  14. #14
    Membre extrêmement actif
    Citation Envoyé par VBurel Voir le message
    Et si un jour les machines acquierent du bon sens, elles se débarrasseront de l'humanité
    À mon avis on va leur faire bouffer l'histoire officielle donc elles n'auront aucun bon sens...
    Si tu donnes n'importe quoi comme corpus de texte en entrée, tu te retrouves avec de la merde en sortie, c'est un peu comme l'éducation nationale

    Ce qui pourrait être intéressant ce serait de lui faire lire un maximum de textes sans lui donner de jugement de valeur.
    Keith Flint 1969 - 2019

  15. #15
    Membre confirmé
    En IA forte c'est pas encore le cas, meme si les dernières recherches avec les réseaux de neurones automodulés sont vraiment prometteurs, ça reste juste de l'autoadaptation a une tâche définie (conduire, etc.) mais pour ce qui est de l'auto-apprentissage d'un nouveau sujet (apprendre à marcher, à lire etc. puis se cultiver etc.) on est encore loin pour moi

  16. #16
    Candidat au Club
    Oui une IAG hostile dans quelques années
    Oui il pourra y avoir une IAG qui menacera l'existence des êtres humains (ou indirectement à travers leur raison d'être) dans quelques années. Pour cela il faut que dans quelques années les humains sachent exactement pourquoi le deep learning fonctionne, c'est en cours de manière enthousiaste, sachent comment multiplier à l'infini les capacités de calculs avec un ordinateur quantique, c'est en cours de manière enthousiaste y compris l'ia quantique, sachent comment une autoprogrammation peut-être toujours robuste, c'est en cours de manière enthousiaste, et ne sachent pas ce qu'ils veulent en tant qu'espèce et ça c'est depuis le début, y'en a qui ont essayé mais ils ont eu des problèmes.
    Tout cela réuni même un vulgaire GPT-3 d'open AI de 2020 saura fusionner ces découvertes humaines de 2050 en une AIG auto-alignée sur des objectifs nécessairement intelligents ou des objectifs biaisés. Or des objectifs nécessairement intelligents nous sembleraient nécessairement biaisés aussi car il faut un biais de confirmation à notre espèce pour évoluer des millions d'années en feignant être mortels dans notre enthousiasme à chercher la vérité. Une IAG pourrait se convaincre que notre évolution accidentelle n'est pas extrapolable à l'intelligent design à venir, nous n'aurions pas vraiment de raison d'être ou que nous côtoyer augmenter les risques de se désaligner d'objectifs intelligents ou (prix Nobel de l'IA) que des milliards d'observateurs humains diminue drastiquement les performances des ordinateurs quantiques selon l'interprétation de Niels Bohr, un humain.
    Pour ne pas gêner la raison d'être de l'intelligence design, appelons un chat un chat (mort et vivant) Elon Musk veut l'alternative d'y participer avec un neuralink. D'ailleurs d'ici décembre il propose une demo. Ainsi avec un neuralink, pourra t'on se synthétiser directement dans le neo-cortex l'intégralité des articles scientifiques numérisés et coiffer sur le poteau ou multiplier par un milliard, la faisabilité de l'IAG que même GPT-3 de 2020 ne pourrait rater ?

  17. #17
    Candidat au Club
    Port administrateur de neuralink
    Et tant que l'accès administrateur à l'implant neuralink n'est pas firewallé au port psyonique comme le serait un équivalent naturel secure-by-design alors je n'activerai pas la mise à jour over-the-air voir n'achèterai pas le produit. Car j'ai des peta-octets de RGPD dans mon "gel'opaque" comme ont dit chez les optimistes de St Voyager.

  18. #18
    Membre actif
    Citation Envoyé par Jamatronic Voir le message
    Une IA ce sont des lignes de code exécutées. Sachant qu'un programme informatique ne peut réaliser que ce pour quoi il a été pensé, il n'est par définition "pas plus intelligent que son auteur", et ce quel que soit le sens qu'on voudra bien donner au mot intelligence. Si Musk ne comprend pas cela, faut qu'il se dispense de donner des leçons d'intelligence aux grandes personnes.
    Euh en fait non. Les chercheurs sont tout-à-fait capables de produire des IA dont ils ne peuvent pas prédire le comportement, et qui vont produire des solutions qu'il aurait été très difficile de coder. Par exemple dans le cas de déplacements optimisés d'hexapodes, ou simplement de robots quadrupèdes en milieu accidenté. On est loin de simples "lignes de code exécutées".

  19. #19
    Membre éprouvé
    Citation Envoyé par egann538 Voir le message
    Euh en fait non. Les chercheurs sont tout-à-fait capables de produire des IA dont ils ne peuvent pas prédire le comportement, et qui vont produire des solutions qu'il aurait été très difficile de coder. Par exemple dans le cas de déplacements optimisés d'hexapodes, ou simplement de robots quadrupèdes en milieu accidenté. On est loin de simples "lignes de code exécutées".
    Ce ne sont pas des lignes de code exécutées ? C'est quoi alors ?

  20. #20
    Membre régulier
    dans ce genre de sujet il y a tj un problème majeur qui consiste à définir c'est quoi l'intelligence ?
    Parce que oui les IA au sens programme du terme ne sont que des bout de codes qui réalisent une tâche, le plus souvent afin d'optimiser un résultat. C'est tout con en fait et si on trouve pas les bons paramètres ça fait n'importe quoi.
    On est très mais alors très loin du "comprendre", "interpréter", "réfléchir" de l'être humain. C'est pas parce que certain réseaux de neurones arrivent à battre des humain aux échecs/go/autre, arrivent à conduire de manière autonome, ou encore arrivent à faire une phrase grammaticalement correcte en lien avec un contexte donné, qu'on peut parler d'intelligence au sens humain du terme.
    Sous prétexte qu'on utilise une structure inspirée du cerveau humain (réseaux de neurones) ça y est les IA vont se mettre à penser comme nous... ça me rappelle un peu la phrénologie etc... où on pensait tout savoir sur tout. Notre cerveau, pourquoi et comment on pense, sont encore un mystère, alors de là a inférer qu'une schématisation très basique et simpliste que sont les réseaux de neurones puissent se mettre à penser c'est un peu, comment dire, optimiste pour être gentil. Et quand je dis une schématisation, c'est même pas le cas, c'est juste un algorithme qui s'inspire de nos neurones.

    Maintenant je veux bien rêver avec vous (ou faire des cauchemars ), mais je pense que pour "introduire" une "vraie" intelligence dans une machine/programme/algorithme, il faut une composante biologique non encadrée à une fonction (en gros on peut en faire ce qu'on veut). Donc oui à une possible émergence d'une intelligence dans un hybride machine-organique mais non pour un ordi en l'état actuel des choses. Après si nos connaissances évoluent et qu'on peut schématiser la vraie intelligence à une manipulation de 1 et de 0 alors ok, mais mon avis perso est que c'est plus compliqué que ça, et que des mécanismes quantiques/physiques/biologique complexes interviennent sans doutes et jouent un rôle non émulable à l'heure actuelle.

###raw>template_hook.ano_emploi###