IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Membre très actif

    Homme Profil pro
    .
    Inscrit en
    Avril 2014
    Messages
    1 064
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : .

    Informations forums :
    Inscription : Avril 2014
    Messages : 1 064
    Par défaut
    Citation Envoyé par Jipété Voir le message
    Sûrement pas !

    Entre l'augmentation des coups de couteau dans les contrats et les coups de pied au Q pour faire bosser plus vite (et moins cher) les esclaves employés, je ne vois pas comment tu peux dire ça !
    Yééééééééééaaaaaaaaaaaahhhhhhhhhhhh ..... c'est justement ça la réduction des couts, et dans un second temps ce sera la suppression de la main d’œuvre salarié au profit de l'automatisation.

  2. #2
    Inactif  


    Homme Profil pro
    Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Inscrit en
    Décembre 2011
    Messages
    9 026
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 32
    Localisation : France, Loire (Rhône Alpes)

    Informations professionnelles :
    Activité : Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Secteur : Enseignement

    Informations forums :
    Inscription : Décembre 2011
    Messages : 9 026
    Par défaut
    Bonjour, je tiens tout de même à vous rappeler que plus de main d'œuvres implique plus de salaire donc une baisse du pouvoir d'achat.

    Or, comment feront-ils pour vendre leurs produits si plus personne ne peut les acheter ?

  3. #3
    Membre du Club
    Homme Profil pro
    Étudiant
    Inscrit en
    Octobre 2012
    Messages
    8
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Haute Garonne (Midi Pyrénées)

    Informations professionnelles :
    Activité : Étudiant
    Secteur : Enseignement

    Informations forums :
    Inscription : Octobre 2012
    Messages : 8
    Par défaut
    Si je m'en tiens au contenu de l'article, Billou a surtout peur que l'IA contourne son intelligence pour lui piquer ses marchés. Ah, ah, ah! Et sa si grande intelligence a du certainement lui apprendre qu'on peu toujours couper le courant électrique à cette superhyper IA, non*? Ou voulait-il dire qu'il désire exploiter l'IA pour ses propres intérêts. Ouh*! Le gourou. Allons, le pire n'est jamais sûr.

  4. #4
    Membre prolifique Avatar de Artemus24
    Homme Profil pro
    Agent secret au service du président Ulysses S. Grant !
    Inscrit en
    Février 2011
    Messages
    7 332
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Agent secret au service du président Ulysses S. Grant !
    Secteur : Finance

    Informations forums :
    Inscription : Février 2011
    Messages : 7 332
    Par défaut
    En lisant cet article, j'ai deux opinions qui me viennent à l'esprit :
    1) il est quand même surprenant que des gens qui ont participé, comme Bill Gates, à l'évolution de la technologie dans notre société, viennent ensuite nous mettre en garde.
    Si c'est si dangereux, pourquoi l'on t-il fait ? Ne sont-ils pas les premiers responsables ?
    Mais le pire dans cette histoire, c'est qu'ils sont les premiers à se remettre en question après avoir ouvert la boîte de Pandore.
    Ils ont la capacité d'entreprendre, de changer le monde, mais pas celle de comprendre les conséquences de ce qu'ils ont entrepris.
    Fait-il systématiquement introduire une réflexion "éthique" quand l'homme veut améliorer sa condition ?

    2) tel que l'article est formulé, avec une arrière pensée de science-fiction surfant sur nos peurs les plus intimes, on crée un monstre qui va asservir l'humanité.
    Que ce soit les robots Terminator comme nous le rappelle rt15, les extraterrestres, les martiens, les communistes, la peur des américains qui s'exprime par des rejets, est quand même une remise en question de leur société.
    A l'inverse, au japon le robot est l'ami de l'homme, qui sans lui, l'homme seul ne peut rien faire.
    Le fond du problème ne concerne pas l'intelligence artificiel ou les robots, mais bien ce que l'homme désire en faire.
    Tout ce que je comprends dans cet article, c'est que l'on déshumanise l'avenir de notre société car certains expriment des peurs irrationnelles.

  5. #5
    Membre éclairé

    Profil pro
    Inscrit en
    Juillet 2004
    Messages
    516
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Juillet 2004
    Messages : 516
    Par défaut
    Le complexe de Frankenstein continue de frapper les esprits. Les hommes ont toujours eu peur de leurs créatures. De même les jeunes gens sont considérés comme une menace pour les générations vénérables qui les soupçonnent de vouloir les supplanter. Ces peurs sont tout à fait fondées. C'est la loi de la nature en renouvellement permanent. L'IA est un simple outil qui agrandira le fossé entre ceux qui le possèderont et ceux qui le subiront. Cela a largement commencé mais l'outil n'y est pour rien. "Un couteau n'est ni vrai ni faux, mais qui l'empoigne par la lame est dans l'erreur". C'est donc la démocratie qui peut nous sauver d'une dictature cybernétique. Mais la démocratie aussi s'use principalement quand on ne s'en sert pas et doit sans cesse se renouveler.

  6. #6
    Membre éprouvé
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 429
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 429
    Billets dans le blog
    3
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Il rejoint donc le britannique Stephen Hawking qui avait lui aussi fait part de ses inquiétudes sur ce sujet en décembre dernier en expliquant que « le développement d’une intelligence artificielle complète peut signifier la fin de l’espèce humaine » avait-il insisté, avant de tenter une comparaison : « Une fois que les humains auront développé une intelligence artificielle, elle va prendre son envol et se reconstruire elle-même à un rythme toujours plus rapide. Les humains, limités par la lente évolution biologique, ne pourront suivre et seront remplacés ».
    Hum... Et pourquoi diable devrait on se retrouver remplacés ? On va donc tous mourir ? Ou bien c'est juste le pouvoir décisionnel qui va se retrouver entre les mains des machines ?

    Il me semble que les bactéries, malgré leurs limites évidentes d'intelligence, n'ont pas disparu de la surface de notre planète. Ce n'est donc pas une question d'intelligence, et mettre en place une intelligence supérieure n'a donc pas de raison de signer la fin de l'humanité. Par contre on a des exemples d'extinctions : les espèces en voie de disparition sont celles dont on a détruit les habitats. Pour que l'espèce humaine disparaisse, il faudrait détruire le sien... Qui est partant pour une guerre nucléaire ? Cela dit je doute qu'une quelconque IA y survive, vu que les équipements informatiques en prendraient un coup aussi. Non, je doute que la disparition de l'humanité ait le moindre sens, sauf que l'IA se mette à croire que l'Homme est pour l'IA ce que l'Ebola est pour l'Homme. Mais vu que ce serait son créateur, je doute que ce genre de logique fasse surface de manière aussi tranchée. Il y aurait certes des risques, mais ce n'est pas parce qu'un homme peut se faire manger par un lion ou un requin qu'on va les exterminer. Un risque localisé (l'Homme qui souhaiterait que certaines IA disparaissent, et non l'IA en général) n'est donc pas un bon argument non plus.

    La seule chose que je vois, c'est le transfert du pouvoir décisionnel. Or, ce genre de transfert... c'est la base même de l'automatisme, qui existe depuis belle lurette. Pourquoi s'en plaindre maintenant alors que c'est précisément ce qu'on cherche à faire avec nos objets connectés en permanence et les recommandations constantes à faire ceci ou cela ? Qui plus est, ceux qui sont au centre de ce phénomène sont précisément ceux qui le décrient aujourd'hui... Non, désolé, la seule interprétation potable que je vois est la suivante : une super intelligence serait un risque énorme pour le pouvoir de ces entreprises, car dupliquable et donc de coup marginal presque nul (faut stocker la copie quelque part quand même), ce qui veut dire que n'importe qui pourrait devenir un concurrent sérieux, mais aussi devenir indépendant car capable de générer ses propres solutions grâce à l'IA à sa disposition.

    Si je devais réinterpréter ses propos, ça me donnerais ça :
    Il rejoint donc le britannique Stephen Hawking qui avait lui aussi fait part de ses inquiétudes sur ce sujet en décembre dernier en expliquant que « le développement d’une intelligence artificielle complète peut signifier la fin du capitalisme » avait-il insisté, avant de tenter une comparaison : « Une fois que les humains auront développé une intelligence artificielle, elle va prendre son envol et se reconstruire elle-même à un rythme toujours plus rapide. Les grands groupes, limités par la lente évolution humaine, ne pourront suivre et seront remplacés ».
    Avis perso et assumé : il est où le problème ? Pas chez moi en tout cas. {^_^}

    Citation Envoyé par Stéphane le calme Voir le message
    Attention, il ne s’insurge pas contre l’intelligence artificielle mais son inquiétude s’inscrit plutôt sur le long terme : « d'abord, les machines travailleront pour nous, et pas de façon hyper intelligente, ce qui peut être positif si on le gère bien. Dans quelques décennies, l’intelligence artificielle sera suffisamment développée pour devenir un réel problème. Je suis d’accord avec Elon Musk et d’autres sur ce point et je ne comprends pas comment il est possible pour certains de ne pas se sentir concernés. »
    Si par problème il parle de concurrence... ben c'est l' jeu ma pauv' Lucette. Ne pas vouloir jouer à un jeu parce que les règles ne sont plus à son avantage, je trouve pas ça des plus adultes comme raisonnement. Qui plus est, quand il sort :

    Citation Envoyé par Stéphane le calme Voir le message
    je ne comprends pas comment il est possible pour certains de ne pas se sentir concernés.
    Le truc il est là : on peut se sentir concerné, mais pas en danger. Je me sens concerné, même vachement concerné, vu que l'IA c'est une des choses principales qui me fait me lever depuis plus de 10 ans. Loin de moi l'idée de me faire passer pour un cador, mais au moins ça me donne la possibilité de parler en mon nom plutôt que de donner mon interprétation de l'avis d'un autre. Pourquoi je ne me sens pas en danger ? Parce que quand on passe du temps à se renseigner et à réfléchir de manière profonde à un sujet, on finit par en tirer une vision large et structurée, et de là toutes les peurs dû à l'incompréhension du phénomène, toutes ces peurs qui se construisent sur l'incapacité d'appréhender la chose, s'estompent naturellement. Les craintes de ces personnes, qui ont passé bien plus de temps à réfléchir à comment assoir leur supériorité (à part peut-être Hawking, que je détaille plus loin) plutôt qu'à réfléchir à ce genre de problèmes, ne trouve aucune base si ce n'est cette crainte de l'inconnu. Tous les arguments qu'on nous avance, c'est qu'on ne sait pas ce que l'IA pourrait nous faire, et donc partons du principe qu'elle pourrait nous faire le pire. Si c'est un processus d'autodéfense tout à fait normal, je trouve que cela reste néanmoins trop basique pour lui donner une quelconque valeur argumentative : c'est un argument "par défaut".

    Citation Envoyé par Stéphane le calme Voir le message
    Pourtant, alors qu’il exprimait ses inquiétudes sur le risque que pourrait représenter l’intelligence artificielle pour l’humanité, l’ancien PDG de Microsoft qui assume désormais le rôle de conseiller en technologie a annoncé quelques minutes plus tard qu’il travaillait en collaboration avec Microsoft sur le projet Personal Agent. « L’un des projets sur lesquels je travaille avec Microsoft est Personal Agent qui se souviendra de tout et vous aidera à revenir en arrière afin de retrouver des choses ou vous aider à choisir à quelles choses vous devriez prêter attention. L’idée selon laquelle vous devez trouver des applications, les choisir et que chacune essaie de vous dire en quoi elle est nouvelle n’est tout simplement pas un modèle efficace – l’agent aidera à résoudre cela. Il fonctionnera sur tous vos terminaux ».
    Comme quoi, l'IA, tant que ça leur permet de vendre, y'a aucun soucis. Mais tout comme on ne souhaite pas vendre des solutions énergétiques qui permettent aux gens de ne plus avoir besoin d'en acheter à l'avenir (cf. ce site pour des exemples, et notamment la section "Why Aren’t Free-energy Generators in the Shops?"), on ne voudrait pas qu'il existe une IA qui permette aux gens de se passer de nos chers grands patrons. Surtout que c'est très probablement le producteur de ces Personal Agent qui aura le contrôle dessus, et non le pigeon propriétaire de celui-ci. Dès lors, on comprend mieux ce qui peut leur faire peur : ce n'est pas spécialement la disparition de l'humanité, mais la disparition de leurs privilèges et des clients qui leurs permettent de les entretenir.

    Jusque là je me suis focalisé sur le côté entreprise, mais si on prend le cas de Stephen Hawking, on parle de scientifique reconnu. Mais comme l'a mentionné rt15 (et après une lecture de plusieurs pages de Wikipédia), je constate l'absence totale de références à l'IA, ou même à l'intelligence en général, dans son parcours, tout du moins jusqu'à son intervention récente. De plus, je note aussi son fort intérêt pour les paris... et notamment les paris perdus, même dans son propre domaine. Je passe sur son intérêt pour la SF, dont l'influence ne serait qu'un argument supplémentaire à un jugement biaisé, ce qui pourrait par ailleurs expliquer pourquoi il perd autant de paris. Je me dis donc que ce n'est probablement qu'un n-ième pari en phase d'être perdu. Et si je me fie aux sources que je trouve sur le sujet :

    - la fameuse lettre ouverte (http://futureoflife.org/misc/open_letter) mentionne que le côté social (intégration à la société humaine) doit être autant étudié que la robustesse, ce qui pour moi n'est ni plus ni moins qu'une tautologie, vu que pour être considéré comme robuste, le système doit faire face aux contraintes qui s'exercent sur lui, les contraintes sociales en faisant partie. Au même titre que n'importe quel individu qui intègre une société. Et comme on ne saurait évaluer la qualité d'un individu sans évaluer ce qu'il a apporté de bon à la société, il en va de même pour l'IA. Dit autrement, je ne vois pas comment on pourrait faire des système efficaces sans considérer cette perspective sociale et d'intégration, vu que c'est précisément au travers de ça que l'IA prend tout son sens. Cette lettre ouverte ne m'apparait donc que comme une demande de la communauté scientifique envers les entreprises à considérer l'IA non pas comme leur jouet et source de pouvoir, mais comme un outil sérieux dont la société doit pouvoir évaluer et utiliser par elle-même. Exit le Personal Agent qui décide à votre place.

    - Un article criard réinterprétant à sa façon la lettre ouvertte (http://www.huffingtonpost.com/stephe...b_5174265.html) qui n'est ni plus ni moins qu'une apologie à la barbarie appliquée à l'IA : "One can imagine such technology outsmarting financial markets" -> pour quelles raisons si ce n'est des bénéficiaires proprement humains ? "out-inventing human researchers" -> la science visant à l'amélioration de la connaissance humaine, si les machines peuvent le faire mieux que nous je ne vois pas où est le problème. "out-manipulating human leaders" -> encore une fois, pour quels bénéficiaires ? "and developing weapons we cannot even understand" -> dois-je encore me répéter ? Come plusieurs l'ont mentionné avant moi, si les marchés passent de monopoles à distribution équilibrée des ressources, si la recherche fait un boum rendant l'espèce humaine encore plus consciente de ce qui se passe dans cet univers, si les leaders humains, donc par définition imparfaits, sont remplacés par des leaders automatiques capables de fournir automatiquement les raisons qui justifient leurs décisions et les sources de leurs informations, je ne vois franchement pas où est le problème. Raisonnement de bisounours ? Je suis tout à fait d'accord. Mais au même titre que le raisonnement inverse qui consiste à voir tout noir. Si l'un perd toute sa valeur de par son extrême positivisme, je ne vois pas pourquoi l'extrême inverse devrait avoir plus de poids. Sauf qu'en plus, comme Artemus24 le rappelle, on a un bon exemple de cas bisounours grâce au Japon et ses robots qui dansent, servent des plats ou font office de peluche. Au final, ce qui fait le bien ou le mal, ce n'est pas la technologie, c'est la façon de l'utiliser. "Whereas the short-term impact of AI depends on who controls it, the long-term impact depends on whether it can be controlled at all." -> avant il fallait controler des esclaves, ces "choses" qui valent moins qu'un humain, pour éviter qu'ils ne fassent n'importe quoi, et leur montrer le droit chemin. Aujourd'hui on prône l'égalité sans distinction de race, et on ne parle plus de contrôle mais d'influence. La peur que ces gens affichent aujourd'hui est dans la même veine que les gens au pouvoir d'autrefois : la répartition égalitaire des pouvoirs selon le mérite de chacun ne plait pas à ceux qui ont les privilèges.

    - http://rue89.nouvelobs.com/2015/02/0...it-tort-257492 met d'ailleurs en lumière certaines de ces critiques et bien d'autres, face à ces jugements pessimistes.

    Et enfin pour conclure :

    Citation Envoyé par Stéphane le calme Voir le message
    Partagez-vous les inquiétudes de Bill Gates ?
    Pas le moins du monde. L'IA, telle que je la conçois et telle que je compte travailler dessus, est un pas en avant vers le partage des connaissances et, par voie de conséquence, de l'amélioration individuelle continue. Est-ce que ça serait dangereux ? Pour les privilèges qui se basent sur la propagande, j'en suis persuadé. Pour le peuple, je suis persuadé du contraire.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  7. #7
    Membre régulier
    Profil pro
    Inscrit en
    Octobre 2006
    Messages
    9
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Octobre 2006
    Messages : 9
    Par défaut
    Si ce n'est pas pour demain ce sera pour après demain.

    Une grande partie de notre violence et guidé par nos besoins et croyances. Qu'elle sera les besoins et croyances de l'IA?
    Si on excepte l'obsolescence programmée, ce que l'homme fabrique est destiné à être stable et à durer, à s'autoréguler et bientôt à s'auto réparer et en temps de guerre à s'auto défendre.
    En fait nous travaillons depuis toujours à fabriquer des choses dont on voudrait qu'elles nous survivent.

    Tant que cette intelligence supérieure tourne sur une machine sans bras ni jambes je pense que ça limite le risque
    Avec des imprimantes 3d évoluées pourquoi ne pas s'auto répliquer (un exemplaire de secours). Voilà pour le "besoin".

    Peut-être ces systèmes arriveront-ils à la conclusion ("la croyance") que certains hommes sont des empêcheurs de fonctionner en rond et d'autre nécessaires (pour un temps) à leur entretien.
    A la fin, ces machines nous laisseront peut-être exister en nombre limité au nom de la biodiversité, à moins qu'elles la juge inutile.

    Penser qu'on pourra débrancher alors c'est machines, c'est penser que les centrales nucléaires ne sont pas dangereuses.

    Mais ce qui est "énorme" c'est d'imaginer que ce sera peut-être la fin de notre connerie pourtant sans limites.

Discussions similaires

  1. Bill Gates fait la promotion des MacBook sur son blog
    Par Katleen Erna dans le forum Humour Informatique
    Réponses: 36
    Dernier message: 09/12/2010, 20h46
  2. Réponses: 18
    Dernier message: 03/06/2010, 18h45
  3. Bill Gates se lance dans la suppression des ouragans et le contrôle de la météo
    Par Pierre Louis Chevalier dans le forum La taverne du Club : Humour et divers
    Réponses: 18
    Dernier message: 25/07/2009, 18h04
  4. Au sujet des mots de passe
    Par FranT dans le forum Langage
    Réponses: 6
    Dernier message: 17/09/2002, 23h16
  5. Au sujet des constantes
    Par FranT dans le forum Langage
    Réponses: 8
    Dernier message: 09/08/2002, 12h03

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo