Discussion :



Bonjour, je tiens tout de même à vous rappeler que plus de main d'œuvres implique plus de salaire donc une baisse du pouvoir d'achat.
Or, comment feront-ils pour vendre leurs produits si plus personne ne peut les acheter ?
Si je m'en tiens au contenu de l'article, Billou a surtout peur que l'IA contourne son intelligence pour lui piquer ses marchés. Ah, ah, ah! Et sa si grande intelligence a du certainement lui apprendre qu'on peu toujours couper le courant électrique à cette superhyper IA, non*? Ou voulait-il dire qu'il désire exploiter l'IA pour ses propres intérêts. Ouh*! Le gourou. Allons, le pire n'est jamais sûr.
En lisant cet article, j'ai deux opinions qui me viennent à l'esprit :
1) il est quand même surprenant que des gens qui ont participé, comme Bill Gates, à l'évolution de la technologie dans notre société, viennent ensuite nous mettre en garde.
Si c'est si dangereux, pourquoi l'on t-il fait ? Ne sont-ils pas les premiers responsables ?
Mais le pire dans cette histoire, c'est qu'ils sont les premiers à se remettre en question après avoir ouvert la boîte de Pandore.
Ils ont la capacité d'entreprendre, de changer le monde, mais pas celle de comprendre les conséquences de ce qu'ils ont entrepris.
Fait-il systématiquement introduire une réflexion "éthique" quand l'homme veut améliorer sa condition ?
2) tel que l'article est formulé, avec une arrière pensée de science-fiction surfant sur nos peurs les plus intimes, on crée un monstre qui va asservir l'humanité.
Que ce soit les robots Terminator comme nous le rappelle rt15, les extraterrestres, les martiens, les communistes, la peur des américains qui s'exprime par des rejets, est quand même une remise en question de leur société.
A l'inverse, au japon le robot est l'ami de l'homme, qui sans lui, l'homme seul ne peut rien faire.
Le fond du problème ne concerne pas l'intelligence artificiel ou les robots, mais bien ce que l'homme désire en faire.
Tout ce que je comprends dans cet article, c'est que l'on déshumanise l'avenir de notre société car certains expriment des peurs irrationnelles.
Le complexe de Frankenstein continue de frapper les esprits. Les hommes ont toujours eu peur de leurs créatures. De même les jeunes gens sont considérés comme une menace pour les générations vénérables qui les soupçonnent de vouloir les supplanter. Ces peurs sont tout à fait fondées. C'est la loi de la nature en renouvellement permanent. L'IA est un simple outil qui agrandira le fossé entre ceux qui le possèderont et ceux qui le subiront. Cela a largement commencé mais l'outil n'y est pour rien. "Un couteau n'est ni vrai ni faux, mais qui l'empoigne par la lame est dans l'erreur". C'est donc la démocratie qui peut nous sauver d'une dictature cybernétique. Mais la démocratie aussi s'use principalement quand on ne s'en sert pas et doit sans cesse se renouveler.
Hum... Et pourquoi diable devrait on se retrouver remplacés ? On va donc tous mourir ? Ou bien c'est juste le pouvoir décisionnel qui va se retrouver entre les mains des machines ?
Il me semble que les bactéries, malgré leurs limites évidentes d'intelligence, n'ont pas disparu de la surface de notre planète. Ce n'est donc pas une question d'intelligence, et mettre en place une intelligence supérieure n'a donc pas de raison de signer la fin de l'humanité. Par contre on a des exemples d'extinctions : les espèces en voie de disparition sont celles dont on a détruit les habitats. Pour que l'espèce humaine disparaisse, il faudrait détruire le sien... Qui est partant pour une guerre nucléaire ? Cela dit je doute qu'une quelconque IA y survive, vu que les équipements informatiques en prendraient un coup aussi. Non, je doute que la disparition de l'humanité ait le moindre sens, sauf que l'IA se mette à croire que l'Homme est pour l'IA ce que l'Ebola est pour l'Homme. Mais vu que ce serait son créateur, je doute que ce genre de logique fasse surface de manière aussi tranchée. Il y aurait certes des risques, mais ce n'est pas parce qu'un homme peut se faire manger par un lion ou un requin qu'on va les exterminer. Un risque localisé (l'Homme qui souhaiterait que certaines IA disparaissent, et non l'IA en général) n'est donc pas un bon argument non plus.
La seule chose que je vois, c'est le transfert du pouvoir décisionnel. Or, ce genre de transfert... c'est la base même de l'automatisme, qui existe depuis belle lurette. Pourquoi s'en plaindre maintenant alors que c'est précisément ce qu'on cherche à faire avec nos objets connectés en permanence et les recommandations constantes à faire ceci ou cela ? Qui plus est, ceux qui sont au centre de ce phénomène sont précisément ceux qui le décrient aujourd'hui... Non, désolé, la seule interprétation potable que je vois est la suivante : une super intelligence serait un risque énorme pour le pouvoir de ces entreprises, car dupliquable et donc de coup marginal presque nul (faut stocker la copie quelque part quand même), ce qui veut dire que n'importe qui pourrait devenir un concurrent sérieux, mais aussi devenir indépendant car capable de générer ses propres solutions grâce à l'IA à sa disposition.
Si je devais réinterpréter ses propos, ça me donnerais ça :
Avis perso et assumé : il est où le problème ? Pas chez moi en tout cas. {^_^}Il rejoint donc le britannique Stephen Hawking qui avait lui aussi fait part de ses inquiétudes sur ce sujet en décembre dernier en expliquant que « le développement d’une intelligence artificielle complète peut signifier la fin du capitalisme » avait-il insisté, avant de tenter une comparaison : « Une fois que les humains auront développé une intelligence artificielle, elle va prendre son envol et se reconstruire elle-même à un rythme toujours plus rapide. Les grands groupes, limités par la lente évolution humaine, ne pourront suivre et seront remplacés ».
Si par problème il parle de concurrence... ben c'est l' jeu ma pauv' Lucette. Ne pas vouloir jouer à un jeu parce que les règles ne sont plus à son avantage, je trouve pas ça des plus adultes comme raisonnement. Qui plus est, quand il sort :
Le truc il est là : on peut se sentir concerné, mais pas en danger. Je me sens concerné, même vachement concerné, vu que l'IA c'est une des choses principales qui me fait me lever depuis plus de 10 ans. Loin de moi l'idée de me faire passer pour un cador, mais au moins ça me donne la possibilité de parler en mon nom plutôt que de donner mon interprétation de l'avis d'un autre. Pourquoi je ne me sens pas en danger ? Parce que quand on passe du temps à se renseigner et à réfléchir de manière profonde à un sujet, on finit par en tirer une vision large et structurée, et de là toutes les peurs dû à l'incompréhension du phénomène, toutes ces peurs qui se construisent sur l'incapacité d'appréhender la chose, s'estompent naturellement. Les craintes de ces personnes, qui ont passé bien plus de temps à réfléchir à comment assoir leur supériorité (à part peut-être Hawking, que je détaille plus loin) plutôt qu'à réfléchir à ce genre de problèmes, ne trouve aucune base si ce n'est cette crainte de l'inconnu. Tous les arguments qu'on nous avance, c'est qu'on ne sait pas ce que l'IA pourrait nous faire, et donc partons du principe qu'elle pourrait nous faire le pire. Si c'est un processus d'autodéfense tout à fait normal, je trouve que cela reste néanmoins trop basique pour lui donner une quelconque valeur argumentative : c'est un argument "par défaut".
Comme quoi, l'IA, tant que ça leur permet de vendre, y'a aucun soucis. Mais tout comme on ne souhaite pas vendre des solutions énergétiques qui permettent aux gens de ne plus avoir besoin d'en acheter à l'avenir (cf. ce site pour des exemples, et notamment la section "Why Aren’t Free-energy Generators in the Shops?"), on ne voudrait pas qu'il existe une IA qui permette aux gens de se passer de nos chers grands patrons. Surtout que c'est très probablement le producteur de ces Personal Agent qui aura le contrôle dessus, et non lepigeonpropriétaire de celui-ci. Dès lors, on comprend mieux ce qui peut leur faire peur : ce n'est pas spécialement la disparition de l'humanité, mais la disparition de leurs privilèges et des clients qui leurs permettent de les entretenir.
Jusque là je me suis focalisé sur le côté entreprise, mais si on prend le cas de Stephen Hawking, on parle de scientifique reconnu. Mais comme l'a mentionné rt15 (et après une lecture de plusieurs pages de Wikipédia), je constate l'absence totale de références à l'IA, ou même à l'intelligence en général, dans son parcours, tout du moins jusqu'à son intervention récente. De plus, je note aussi son fort intérêt pour les paris... et notamment les paris perdus, même dans son propre domaine. Je passe sur son intérêt pour la SF, dont l'influence ne serait qu'un argument supplémentaire à un jugement biaisé, ce qui pourrait par ailleurs expliquer pourquoi il perd autant de paris. Je me dis donc que ce n'est probablement qu'un n-ième pari en phase d'être perdu. Et si je me fie aux sources que je trouve sur le sujet :
- la fameuse lettre ouverte (http://futureoflife.org/misc/open_letter) mentionne que le côté social (intégration à la société humaine) doit être autant étudié que la robustesse, ce qui pour moi n'est ni plus ni moins qu'une tautologie, vu que pour être considéré comme robuste, le système doit faire face aux contraintes qui s'exercent sur lui, les contraintes sociales en faisant partie. Au même titre que n'importe quel individu qui intègre une société. Et comme on ne saurait évaluer la qualité d'un individu sans évaluer ce qu'il a apporté de bon à la société, il en va de même pour l'IA. Dit autrement, je ne vois pas comment on pourrait faire des système efficaces sans considérer cette perspective sociale et d'intégration, vu que c'est précisément au travers de ça que l'IA prend tout son sens. Cette lettre ouverte ne m'apparait donc que comme une demande de la communauté scientifique envers les entreprises à considérer l'IA non pas comme leur jouet et source de pouvoir, mais comme un outil sérieux dont la société doit pouvoir évaluer et utiliser par elle-même. Exit le Personal Agent qui décide à votre place.
- Un article criard réinterprétant à sa façon la lettre ouvertte (http://www.huffingtonpost.com/stephe...b_5174265.html) qui n'est ni plus ni moins qu'une apologie à la barbarie appliquée à l'IA : "One can imagine such technology outsmarting financial markets" -> pour quelles raisons si ce n'est des bénéficiaires proprement humains ? "out-inventing human researchers" -> la science visant à l'amélioration de la connaissance humaine, si les machines peuvent le faire mieux que nous je ne vois pas où est le problème. "out-manipulating human leaders" -> encore une fois, pour quels bénéficiaires ? "and developing weapons we cannot even understand" -> dois-je encore me répéter ? Come plusieurs l'ont mentionné avant moi, si les marchés passent de monopoles à distribution équilibrée des ressources, si la recherche fait un boum rendant l'espèce humaine encore plus consciente de ce qui se passe dans cet univers, si les leaders humains, donc par définition imparfaits, sont remplacés par des leaders automatiques capables de fournir automatiquement les raisons qui justifient leurs décisions et les sources de leurs informations, je ne vois franchement pas où est le problème. Raisonnement de bisounours ? Je suis tout à fait d'accord. Mais au même titre que le raisonnement inverse qui consiste à voir tout noir. Si l'un perd toute sa valeur de par son extrême positivisme, je ne vois pas pourquoi l'extrême inverse devrait avoir plus de poids. Sauf qu'en plus, comme Artemus24 le rappelle, on a un bon exemple de cas bisounours grâce au Japon et ses robots qui dansent, servent des plats ou font office de peluche. Au final, ce qui fait le bien ou le mal, ce n'est pas la technologie, c'est la façon de l'utiliser. "Whereas the short-term impact of AI depends on who controls it, the long-term impact depends on whether it can be controlled at all." -> avant il fallait controler des esclaves, ces "choses" qui valent moins qu'un humain, pour éviter qu'ils ne fassent n'importe quoi, et leur montrer le droit chemin. Aujourd'hui on prône l'égalité sans distinction de race, et on ne parle plus de contrôle mais d'influence. La peur que ces gens affichent aujourd'hui est dans la même veine que les gens au pouvoir d'autrefois : la répartition égalitaire des pouvoirs selon le mérite de chacun ne plait pas à ceux qui ont les privilèges.
- http://rue89.nouvelobs.com/2015/02/0...it-tort-257492 met d'ailleurs en lumière certaines de ces critiques et bien d'autres, face à ces jugements pessimistes.
Et enfin pour conclure :
Pas le moins du monde. L'IA, telle que je la conçois et telle que je compte travailler dessus, est un pas en avant vers le partage des connaissances et, par voie de conséquence, de l'amélioration individuelle continue. Est-ce que ça serait dangereux ? Pour les privilèges qui se basent sur la propagande, j'en suis persuadé. Pour le peuple, je suis persuadé du contraire.
Site perso
Recommandations pour débattre sainement
Références récurrentes :
The Cambridge Handbook of Expertise and Expert Performance
L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})
Si ce n'est pas pour demain ce sera pour après demain.
Si on excepte l'obsolescence programmée, ce que l'homme fabrique est destiné à être stable et à durer, à s'autoréguler et bientôt à s'auto réparer et en temps de guerre à s'auto défendre.Une grande partie de notre violence et guidé par nos besoins et croyances. Qu'elle sera les besoins et croyances de l'IA?
En fait nous travaillons depuis toujours à fabriquer des choses dont on voudrait qu'elles nous survivent.
Avec des imprimantes 3d évoluées pourquoi ne pas s'auto répliquer (un exemplaire de secours). Voilà pour le "besoin".Tant que cette intelligence supérieure tourne sur une machine sans bras ni jambes je pense que ça limite le risque
Peut-être ces systèmes arriveront-ils à la conclusion ("la croyance") que certains hommes sont des empêcheurs de fonctionner en rond et d'autre nécessaires (pour un temps) à leur entretien.
A la fin, ces machines nous laisseront peut-être exister en nombre limité au nom de la biodiversité, à moins qu'elles la juge inutile.
Penser qu'on pourra débrancher alors c'est machines, c'est penser que les centrales nucléaires ne sont pas dangereuses.
Mais ce qui est "énorme" c'est d'imaginer que ce sera peut-être la fin de notre connerie pourtant sans limites.
Partager