IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Geoffrey Hinton : l'IA pourrait accroître l'écart de richesse et offrir un terrain fertile pour le fascisme


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 144
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 144
    Par défaut Geoffrey Hinton : l'IA pourrait accroître l'écart de richesse et offrir un terrain fertile pour le fascisme
    Geoffrey Hinton, une des figures de proue de l’apprentissage profond, quitte Google pour être libre de parler des dangers de l’IA
    Dont la désinformation et l’élimination des humains par les robots

    Geoffrey Hinton, un des pionniers de l'apprentissage profond, a quitté son emploi chez Google pour être libre de parler des dangers de l'intelligence artificielle. Sa préoccupation immédiate : la désinformation. Sur le long terme, il craint que l’intelligence artificielle n’élimine les humains lorsqu’elle commencera à écrire et à exécuter son propre code informatique.

    Nom : 0.png
Affichages : 16449
Taille : 61,3 Ko

    Google a dévoilé Bard, sa réponse à ChatGPT, au début du mois de février suite à une alerte rouge lancée en son sein contre le chatbot de l’entreprise OpenAI. « Il pourrait être impossible de mettre un terme à cette concurrence féroce, qui aboutirait à un monde contenant tellement d'images et de textes truqués que plus personne ne serait en mesure de dire ce qui est vrai », déclare Hinton dans le cadre d’un récent entretien. Et c’est ce que confirment de récents développements en lien avec ChatGPT et Google Bard.


    Google Bard contre ChatGPT et les dangers en lien avec la qualité de l’information

    Google a annoncé l’intégration de l’IA conversationnelle à son moteur de recherches il y a peu. La décision n’est pas inattendue. En effet, elle fait suite au lancement par Microsoft d’une version de son propre moteur de recherches Bing qui s’appuie sur ChatGPT.

    Ce qu’on sait de ces intelligences artificielles d’OpenAI et de Google est qu’il s’agit de chatbots capable de comprendre le langage naturel et de répondre en langage naturel. Elles peuvent donner de façon directe des solutions à des problèmes complexes. C’est la raison pour laquelle certaines institutions universitaires en interdisent l’usage à leurs étudiants. Le professeur Arvind Narayanan de l’université de Princeton tire néanmoins la sonnette d’alarme sur la pertinence de s’appuyer sur des moteurs de recherche intégrant ces chatbots en déclarant que c’est de la « poudre de perlimpinpin. »

    « Sayash Kapoor et moi-même l'appelons un générateur de conneries, comme d'autres l'ont aussi fait. Nous n'entendons pas cela dans un sens normatif mais dans un sens relativement précis. Nous voulons dire qu'il est entraîné à produire des textes plausibles. Il est très bon pour être persuasif, mais il n'est pas entraîné à produire des déclarations vraies. Il produit souvent des affirmations vraies comme effet secondaire de sa plausibilité et de sa persuasion, mais ce n'est pas son objectif.

    Cela correspond en fait à ce que le philosophe Harry Frankfurt a appelé connerie, c'est-à-dire un discours destiné à persuader sans se soucier de la vérité. Un conteur humain ne se soucie pas de savoir si ce qu'il dit est vrai ou non ; il a certaines fins en tête. Tant qu'il persuade, ces objectifs sont atteints. En fait, c'est ce que fait ChatGPT. Il essaie d'être persuasif et il n'a aucun moyen de savoir avec certitude si les déclarations qu'il fait sont vraies ou non », déclare-t-il à propos de ChatGPT.

    D’ailleurs, une mouture de Microsoft Bing a affiché 2,5 milliards de personnes en réponse à la question de savoir quelle est la population de la planète Mars. La situation soulève la question de savoir si la montée en puissance de l’intelligence artificielle ne va pas plutôt amener les humains à travailler plus dur pour lutter contre la désinformation.

    Nom : 1.png
Affichages : 3119
Taille : 361,4 Ko

    Un GIF partagé par Google montre Bard répondant à la question : « De quelles nouvelles découvertes du télescope spatial James Webb puis-je parler à mon enfant de 9 ans ? » Bard propose une liste à puces de trois éléments, parmi lesquels un élément indiquant que le télescope « a pris les toutes premières images d'une planète en dehors de notre propre système solaire. »

    Nom : 2.png
Affichages : 4538
Taille : 101,8 Ko

    Cependant, un certain nombre d'astronomes sur Twitter ont souligné que c'était incorrect et que la première image d'une exoplanète avait été prise en 2004 - comme indiqué sur le site Web de la NASA (voir en source) : « Ce n'est pas pour faire mon connard (en fait, si finalement) et je suis sûr que Bard sera impressionnant, mais pour mémoire : JWST n'a pas pris 'la toute première image d'une planète en dehors de notre système solaire' », a tweeté l'astrophysicien Grant Tremblay.

    Nom : 3.png
Affichages : 4461
Taille : 69,2 Ko

    C’est cette imprécision qui a poussé les développeurs et les experts de la filière à avertir que cette technologie ne devrait pas être utilisée pour prendre des décisions importantes pour le moment.

    L’intelligence artificielle générale serait plus proche qu’on ne le pense et avec elle des risques d’élimination des humains par les robots

    « L'idée que l'IA puisse devenir plus intelligente que les gens, quelques personnes y ont cru. Mais la plupart des gens pensaient que c'était une erreur. Et je pensais personnellement que c'était loin d'être le cas. Je me disais qu'il fallait attendre dans les 30 à 50 ans, voire plus. Évidemment, je ne le pense plus », ajoute-t-il. Ce dernier vient donc rejoindre des acteurs de la filière technologique comme Elon Musk qui sont d’avis que l’intelligence artificielle va surpasser les capacités cognitives des Hommes.

    « Ça fait dix ans que je lance cette alerte. Nous devrions nous inquiéter de la direction que prend l'intelligence artificielle. Les personnes que je vois se tromper le plus sur ce sujet sont celles qui sont très intelligentes, ce, parce qu'elles ne peuvent pas imaginer qu'un ordinateur puisse être beaucoup plus intelligent qu'elles. C'est la faille de leur raisonnement. Elles sont juste beaucoup plus bêtes qu'elles ne le pensent », rapporte un correspondant du Financial Times.

    De 2017 (où Elon Musk affirmait que l’intelligence artificielle est un risque fondamental pour l’humanité) à 2020 en passant par 2019 (où il a déclaré que l’IA est bien plus dangereuse que l’arme nucléaire), la position du milliardaire de la Tech. sur la question reste donc constante. Les craintes d’Elon Musk portent notamment sur ceci que les avancées dans la filière pourraient déboucher sur une intelligence artificielle dite générale (AGI). Ce serait alors la porte ouverte sur l’accomplissement de l’apocalypse. Des équipes de recherche comme celle d’OpenAI sont lancées sur ce couloir. Si l’on se réfère à des retours de scientifiques œuvrant dans le domaine, l’AGI pourrait nous tomber dessus dans 5 à 10 ans.

    Les machines seraient alors dotées de « bon sens. » Au stade d’intelligence artificielle générale, elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. » C’est ce palier que les équipes de recherche dans le domaine visent. C’est d’ailleurs pour cela que sa société Neuralink travaille sur des interfaces cerveau – machine à insérer dans le crâne pour préparer l’humanité à un « funeste » futur où les robots domineront sur elle.

    Source : NYT

    Et vous ?

    Quelle pertinence trouvez-vous à ces différents propos en lien avec l’intelligence artificielle ? Sont-ils plus sensationnalistes qu’autre chose ?
    Voyez-vous la recherche en la matière aboutisse à l’intelligence artificielle générale ?

    Voir aussi :

    L'IA de génération de texte d'Elon Musk trop dangereuse pour être rendue publique, selon ses créateurs
    Le projet de tunnel du milliardaire de la tech Elon Musk est-il une vaste blague ? The Boring Company a inauguré son premier tunnel anti-bouchons
    Neuralink, le projet d'Elon Musk pour qu'un cerveau humain interagisse directement avec un PC et l'Homme fusionne avec l'IA, aberration ou fiction ?
    Elon Musk rappelle qu'en rendant publics les brevets Tesla, il a œuvré pour le bien de la planète et l'essor du marché des véhicules électriques
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre éprouvé
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    1 833
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 42
    Localisation : Singapour

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 1 833
    Par défaut
    le problème c'est que si demain y'a plus personne pour écrire des pages web avec du vrai contenus, ces ia vont tourner en rond.

    C'est ce qui pourrait bien se produire, si demain tous le monde abandonne les sites web au profit de chatgpt, plus aucun site web ne pourra fonctionner (soit car pas d'argent car personne ne voit plus les pub, soit car y'aura plus aucune fréquentation alors pourquoi tenir un blog de qualité si personne pour le lire...)
    ca va faire du surplace tôt ou tard car ces ia ne crée rien.

    si demain on les programmes pour écrire du contenus, elle apprendra sur elle même par la suite, donc sur ces propres conneries...

  3. #3
    Membre éclairé Avatar de onilink_
    Profil pro
    Inscrit en
    Juillet 2010
    Messages
    611
    Détails du profil
    Informations personnelles :
    Âge : 33
    Localisation : France

    Informations forums :
    Inscription : Juillet 2010
    Messages : 611
    Par défaut
    Citation Envoyé par calvaire Voir le message
    le problème c'est que si demain y'a plus personne pour écrire des pages web avec du vrai contenus, ces ia vont tourner en rond.

    C'est ce qui pourrait bien se produire, si demain tous le monde abandonne les sites web au profit de chatgpt, plus aucun site web ne pourra fonctionner (soit car pas d'argent car personne ne voit plus les pub, soit car y'aura plus aucune fréquentation alors pourquoi tenir un blog de qualité si personne pour le lire...)
    ca va faire du surplace tôt ou tard car ces ia ne crée rien.

    si demain on les programmes pour écrire du contenus, elle apprendra sur elle même par la suite, donc sur ces propres conneries...
    Je pense qu'on peut considérer que le web dont tu parles est déjà mort depuis des années.

    developpez.net est un des derniers forum actif que je fréquente. Tous les forums, qui étaient très vivants il y a une dizaine d'année ont totalement été désertés et remplacés (en moins bien) par les réseaux sociaux. Pareil les blogs ont tendance à disparaître.

    On a aussi tendance à oublier une chose, c'est que le web d'il y a 20-30 ans c'était beaucoup de sites auto hébergés. De nos jours c'est devenu trivial de faire son site web et de l'auto héberger, par exemple sur un raspberry pi. Et ça coûte presque rien, donc pas besoin de pubs. Pourtant je ne connais personne qui le fait.

    La tendance actuelle est à alimenter des grosses plateformes, qui se font leur beurre sur les utilisateurs. Mais tout est déjà très centralisé.
    Même dans les sites commerciaux se font absorber par de grosses plateformes style Amazon.

    Puis tout le contenu produit est devenu très "consommation". Comme tu le relèves les plateformes sont à la course à la pub. Et c'est pas le contenu de qualité qui génère de la vue, mais du contenu produit en masse.

    Bref je pense juste que ChatGPT et ces technos vont exacerber un problème qui était déjà bien présent.
    Moi ce qui me fait le plus peur, c'est les entreprises qui sont derrière, comme OpenAI, qui considèrent le contenu d'internet comme leur appartenant.
    Demain leur bot crawl un site web et hop, leur ChatGPT à ingurgité les données (pourtant protégées par le droit d'auteur) sans aucun consentement.

    On se rappellera aussi l'épisode de Copilot. Pour l'instant limité à github, mais rien ne dit qu'ils n'iront pas plus loin...

  4. #4
    Membre éprouvé
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    1 833
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 42
    Localisation : Singapour

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 1 833
    Par défaut
    Citation Envoyé par onilink_ Voir le message
    Je pense qu'on peut considérer que le web dont tu parles est déjà mort depuis des années.

    developpez.net est un des derniers forum actif que je fréquente. Tous les forums, qui étaient très vivants il y a une dizaine d'année ont totalement été désertés et remplacés (en moins bien) par les réseaux sociaux. Pareil les blogs ont tendance à disparaître.

    On a aussi tendance à oublier une chose, c'est que le web d'il y a 20-30 ans c'était beaucoup de sites auto hébergés. De nos jours c'est devenu trivial de faire son site web et de l'auto héberger, par exemple sur un raspberry pi. Et ça coûte presque rien, donc pas besoin de pubs. Pourtant je ne connais personne qui le fait.

    La tendance actuelle est à alimenter des grosses plateformes, qui se font leur beurre sur les utilisateurs. Mais tout est déjà très centralisé.
    Même dans les sites commerciaux se font absorber par de grosses plateformes style Amazon.

    Puis tout le contenu produit est devenu très "consommation". Comme tu le relèves les plateformes sont à la course à la pub. Et c'est pas le contenu de qualité qui génère de la vue, mais du contenu produit en masse.

    Bref je pense juste que ChatGPT et ces technos vont exacerber un problème qui était déjà bien présent.
    Moi ce qui me fait le plus peur, c'est les entreprises qui sont derrière, comme OpenAI, qui considèrent le contenu d'internet comme leur appartenant.
    Demain leur bot crawl un site web et hop, leur ChatGPT à ingurgité les données (pourtant protégées par le droit d'auteur) sans aucun consentement.

    On se rappellera aussi l'épisode de Copilot. Pour l'instant limité à github, mais rien ne dit qu'ils n'iront pas plus loin...
    il existe encore des blogs francophone de qualité comme minimachines.net ou des forums de passionnés comme win3x.org.
    et aussi wikipedia qui contient du texte de qualité.

    le reste c'est inutile pour une ia, je vois pas comment on peut entrainer un chatbot de qualité avec le contenu qu'on trouve sur facebook ou twitter.
    peut etre en volant la retranscription youtube pour des videos de qualité (comme ceux la chaine science étonnante)

    dans tous les cas les contenus de qualités se font de plus en plus rare, obtenir un bon dataset de qualité et a jours sera de plus en plus complexe.
    OpenAI a d'ailleurs son dataset périmé de 2ans (2021), en informatique 2 ans c'est énorme, c'est pleins de fonction déprécié et de framework abandonnée.

    Par contre oui, se pose un gros probleme de l'accés a ces données... ces ia volent le travail des autres pour une utilisation commercial.
    J'aimerais bien demain une licence interdisant la lecture du code ou des photos pour être exploité pour du machine learning, ca va etre drole...
    on va y venir, les artistes, développeurs et scientifiques vont peut être en voir marre de se faire voler leurs travail sans en retirer d'argent, surtout si demain ca commence a licencier et les remplacer par chatgpt.

  5. #5
    Membre éclairé Avatar de onilink_
    Profil pro
    Inscrit en
    Juillet 2010
    Messages
    611
    Détails du profil
    Informations personnelles :
    Âge : 33
    Localisation : France

    Informations forums :
    Inscription : Juillet 2010
    Messages : 611
    Par défaut
    Citation Envoyé par calvaire Voir le message
    le reste c'est inutile pour une ia, je vois pas comment on peut entrainer un chatbot de qualité avec le contenu qu'on trouve sur facebook ou twitter.
    peut etre en volant la retranscription youtube pour des videos de qualité (comme ceux la chaine science étonnante)
    Je pense que tout dépend ce qu'on appelle "qualité". Les critères ne sont pas les même selon le résultat voulus.

    Pour le cas de ChatGPT l'idée a la base était surtout de faire un modèle étonnamment humain, et capable de converser.
    Même des discutions de "mauvaise qualité" sur des réseaux sociaux peuvent faire l'affaire, puisque ça donne justement ce côté plus "naturel".

    Puis quitte a "voler" un peu tout ce qui passe, il y a énormément d'ouvrages numérisés, ou le texte sera de "qualité".

    Ensuite des entreprises comme google on accès a des datasets énormes directement depuis leur bases utilisateur:
    - complétion de texte sur android
    - mails sur gmail
    - commentaires sur leurs plateformes

    C'est aussi eux qui "crawl" le plus internet et évaluent les sites pour améliorer les recherches, donc j'imagine qu'ils ont pas mal de métriques pour définir la "qualité" d'un site pour l'utiliser dans leurs datasets.

    D’où l'importance de définir des limites juridiques sur les données d'apprentissage...

  6. #6
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 419
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 419
    Par défaut La menace que l'IA fait peser sur le monde pourrait être "plus urgente" que le changement climatique
    La menace que l'IA fait peser sur le monde pourrait être "plus urgente" que le changement climatique, selon Geoffrey Hinton, un des pionniers de la recherche en intelligence artificielle

    L'intelligence artificielle pourrait constituer une menace "plus urgente" pour l'humanité que le changement climatique, a déclaré Geoffrey Hinton, pionnier de l'IA, dans une interview accordée à Reuters.

    Geoffrey Hinton, largement connu comme l'un des "parrains de l'IA", a récemment annoncé qu'il quittait Alphabet après une décennie passée au sein de l'entreprise, expliquant qu'il souhaitait s'exprimer sur les risques de la technologie sans que cela n'affecte son ancien employeur.

    Les travaux de M. Hinton sont considérés comme essentiels au développement des systèmes d'IA contemporains. En 1986, il a cosigné l'article fondateur "Learning representations by back-propagating errors", une étape importante dans le développement des réseaux neuronaux qui sous-tendent la technologie de l'IA. En 2018, il a reçu le prix Turing en reconnaissance de ses avancées en matière de recherche.

    Mais il fait désormais partie d'un nombre croissant de leaders technologiques qui s'inquiètent publiquement de la menace que pourrait représenter l'IA si les machines parvenaient à être plus intelligentes que les humains et à prendre le contrôle de la planète.

    "Je ne voudrais pas dévaloriser le changement climatique. Je ne voudrais pas dire : "Vous ne devriez pas vous inquiéter du changement climatique". C'est aussi un risque énorme", a déclaré M. Hinton. "Mais je pense que cette question pourrait s'avérer plus urgente."

    Il a ajouté : "En ce qui concerne le changement climatique, il est très facile de recommander ce qu'il faut faire : il suffit d'arrêter de brûler du carbone. Si vous faites cela, les choses finiront par s'arranger. Dans le cas du changement climatique, ce qu'il faut faire n'est pas du tout clair".

    Nom : G. Hinton IA.png
Affichages : 2731
Taille : 280,0 Ko

    OpenAI, soutenue par Microsoft, a donné le coup d'envoi d'une course à l'armement technologique en novembre, en mettant à la disposition du public le chatbot ChatGPT, alimenté par l'IA. Il est rapidement devenu l'application à la croissance la plus rapide de l'histoire, atteignant 100 millions d'utilisateurs mensuels en deux mois.

    En avril, Elon Musk, PDG de Twitter, s'est joint à des milliers de personnes pour signer une lettre ouverte appelant à une pause de six mois dans le développement de systèmes plus puissants que le GPT-4 récemment lancé par OpenAI.

    Parmi les signataires figuraient Emad Mostaque, PDG de Stability AI, des chercheurs de DeepMind, propriété d'Alphabet, et d'autres pionniers de l'IA, Yoshua Bengio et Stuart Russell.

    Si M. Hinton partage l'inquiétude des signataires, qui craignent que l'IA ne constitue une menace existentielle pour l'humanité, il n'est pas d'accord avec l'idée d'interrompre la recherche.

    "C'est totalement irréaliste", a-t-il déclaré. "Je suis de ceux qui pensent qu'il s'agit d'un risque existentiel et qu'il est suffisamment proche pour que nous travaillions très dur dès maintenant et que nous consacrions beaucoup de ressources à déterminer ce que nous pouvons faire à ce sujet."

    Dans l'Union européenne, un comité de législateurs a répondu à la lettre de M. Musk en demandant au président américain Joe Biden d'organiser un sommet mondial sur l'orientation future de la technologie avec la présidente de la Commission européenne Ursula von der Leyen.

    Début mai, la commission a adopté une série de propositions historiques concernant l'IA générative, qui obligeraient les entreprises comme OpenAI à divulguer tout matériel protégé par des droits d'auteur utilisé pour entraîner leurs modèles.

    Entre-temps, M. Biden s'est entretenu avec un certain nombre de dirigeants d'entreprises d'IA, dont Sundar Pichai, PDG d'Alphabet, et Sam Altman, PDG d'OpenAI, à la Maison-Blanche, promettant une "discussion franche et constructive" sur la nécessité pour les entreprises d'être plus transparentes au sujet de leurs systèmes.

    "Les leaders de la technologie sont ceux qui comprennent le mieux le problème, et les politiciens doivent être impliqués", a déclaré M. Hinton. "Cela nous concerne tous, nous devons donc tous y réfléchir."

    Source : Reuters

    Et vous ?

    Quel est votre avis sur le sujet ?

    Trouvez-vous que les préoccupations de M. Hinton sont pertinentes et fondées ?

    Êtes-vous d'accord avec l'avis de M. Hinton selon lequel il est "irréaliste" d'interrompre la recherche en IA ?

    Selon vous, l'IA devrait-elle faire l'objet d'une réglementation et d'une orientation mondiale comme le préconisent certains législateurs ?

    Voir aussi

    Geoffrey Hinton, une des figures de proue de l'apprentissage profond, quitte Google pour être libre de parler des dangers de l'IA dont la désinformation et l'élimination des humains par les robots

    L'UE envisagerait des règles très strictes pour les chatbots dans le cadre de son projet de loi sur l'IA elle devrait exiger la divulgation de l'utilisation du matériel protégé par le droit d'auteur

    ChatGPT a enregistré une augmentation de 83 % en termes de trafic Web, et rivalise désormais avec Bing, la France est la 5è source de trafic pour le chatbot d'OpenAI, selon Similarweb

    Elon Musk et un groupe d'experts en IA demandent à tous les laboratoires d'IA d'interrompre la formation de systèmes d'IA plus puissants que le GPT-4, citant des risques pour la société
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  7. #7
    Rédacteur

    Avatar de SQLpro
    Homme Profil pro
    Expert bases de données / SQL / MS SQL Server / Postgresql
    Inscrit en
    Mai 2002
    Messages
    21 958
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Var (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Expert bases de données / SQL / MS SQL Server / Postgresql
    Secteur : Conseil

    Informations forums :
    Inscription : Mai 2002
    Messages : 21 958
    Billets dans le blog
    6
    Par défaut
    Citation Envoyé par Anthony Voir le message
    La menace que l'IA fait peser sur le monde pourrait être "plus urgente" que le changement climatique...
    Oui, c'est parfait pur les entreprises de la tech américaines... Comme ça on va pouvoir oublier l'écologie qui nous fait chier pour se consacrer à la bêtise naturelle (pardon, l'intelligence artificielle)...
    On va donc laisser tranquille les plus gros consommateurs d’électricité du monde, ultra pollueur, anti écologique que sont les GAFA ! Pour dépenser toute notre énergie à combattre l'IA !

    Merci Monsieur Geoffrey Hinton

    A +
    Frédéric Brouard - SQLpro - ARCHITECTE DE DONNÉES - expert SGBDR et langage SQL
    Le site sur les SGBD relationnels et le langage SQL: http://sqlpro.developpez.com/
    Blog SQL, SQL Server, SGBDR : http://blog.developpez.com/sqlpro
    Expert Microsoft SQL Server - M.V.P. (Most valuable Professional) MS Corp.
    Entreprise SQL SPOT : modélisation, conseils, audit, optimisation, formation...
    * * * * * Expertise SQL Server : http://mssqlserver.fr/ * * * * *

  8. #8
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 144
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 144
    Par défaut « L’IA peut finir par dominer les humains », d’après Geoffrey Hinton, l'un des pionniers du deep learning
    « L’IA peut finir par dominer les humains », d’après Geoffrey Hinton, l’un des pionniers de l’apprentissage profond
    Qui cite des facteurs algorithmiques qui définissent sa limite d’évolution

    Geoffrey Hinton a quitté Google à mi-parcours de l’année qui tire à son terme dans le but d’être libre de parler des dangers de l’intelligence artificielle. Depuis lors, il multiplie les sorties à ce sujet et reste constant sur sa position selon laquelle l’IA fait peser une menace sur l’humanité. C’est une redite de prises de position d’observateurs comme Elon Musk selon lesquels ce n’est qu’une question de temps avant que l’intelligence artificielle ne surpasse les humains en tout. Et certains facteurs d’ordre algorithmique permettraient de soutenir cette affirmation. C’est en tout cas ce que met en avant Geoffrey Hinton pour déboucher sur la notion de « principe d’évolution. »

    « Ce que nous avons fait, c'est concevoir l'algorithme d'apprentissage. C'est un peu comme concevoir le principe de l'évolution. Mais lorsque cet algorithme d'apprentissage interagit avec les données, il produit des réseaux neuronaux compliqués qui sont capables de faire certaines choses. Mais nous ne comprenons pas exactement comment ils font ces choses », souligne Geoffrey Hinton. En d’autres termes, l’humain conçoit l’algorithme d’apprentissage ou « principe d’évolution » de l’IA.

    Cependant, sa mise en œuvre débouche sur une espèce d’entité informatique qui finit par devenir un objet de curiosité pour le chercheur de la filière lui-même. Et c’est là que se trouve le danger comme le souligne Hinton : « Dès que les choses deviennent vraiment complexes nous ne savons pas plus ce qui se passe que nous savons ce qui se passe dans nos propres cerveaux. » C’est en cela que la question de savoir comment est-ce que les humains sauront qu’ils ont atteint une forme d’intelligence artificielle générale prend tout son sens.

    « Nous entrons dans une période de grande incertitude où nous sommes confrontés à des choses que nous n'avons jamais faites auparavant. Et normalement, la première fois que l'on s'attaque à quelque chose de totalement nouveau, on se trompe. Et nous ne pouvons pas nous permettre de nous tromper dans ce domaine », prévient-il.


    L’intelligence artificielle générale serait plus proche qu’on ne le pense et avec elle des risques d’élimination des humains par les robots

    « L'idée que l'IA puisse devenir plus intelligente que les gens, quelques personnes y ont cru. Mais la plupart des gens pensaient que c'était une erreur. Et je pensais personnellement que c'était loin d'être le cas. Je me disais qu'il fallait attendre dans les 30 à 50 ans, voire plus. Évidemment, je ne le pense plus », ajoute Hinton. Ce dernier vient donc rejoindre des acteurs de la filière technologique comme Elon Musk qui sont d’avis que l’intelligence artificielle va surpasser les capacités cognitives des Hommes.

    « Ça fait dix ans que je lance cette alerte. Nous devrions nous inquiéter de la direction que prend l'intelligence artificielle. Les personnes que je vois se tromper le plus sur ce sujet sont celles qui sont très intelligentes, ce, parce qu'elles ne peuvent pas imaginer qu'un ordinateur puisse être beaucoup plus intelligent qu'elles. C'est la faille de leur raisonnement. Elles sont juste beaucoup plus bêtes qu'elles ne le pensent », rapporte un correspondant du Financial Times.

    De 2017 (où Elon Musk affirmait que l’intelligence artificielle est un risque fondamental pour l’humanité) à 2020 en passant par 2019 (où il a déclaré que l’IA est bien plus dangereuse que l’arme nucléaire), la position du milliardaire de la Tech. sur la question reste donc constante. Les craintes d’Elon Musk portent notamment sur ceci que les avancées dans la filière pourraient déboucher sur une intelligence artificielle dite générale (AGI). Ce serait alors la porte ouverte sur l’accomplissement de l’apocalypse. Des équipes de recherche comme celle d’OpenAI sont lancées sur ce couloir. Si l’on se réfère à des retours de scientifiques œuvrant dans le domaine, l’AGI pourrait nous tomber dessus dans 5 à 10 ans.

    Les machines seraient alors dotées de « bon sens. » Au stade d’intelligence artificielle générale, elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. » C’est ce palier que les équipes de recherche dans le domaine visent. C’est d’ailleurs pour cela que sa société Neuralink travaille sur des interfaces cerveau – machine à insérer dans le crâne pour préparer l’humanité à un « funeste » futur où les robots domineront sur elle.

    Source : Geoffrey Hinton

    Et vous ?

    Quelle pertinence trouvez-vous à ces différents propos en lien avec l’intelligence artificielle ? Sont-ils plus sensationnalistes qu’autre chose ?
    Voyez-vous la recherche en la matière aboutisse à l’intelligence artificielle générale ? Sinon quels sont les freins que vous entrevoyez ?

    Voir aussi :

    L'IA de génération de texte d'Elon Musk trop dangereuse pour être rendue publique, selon ses créateurs
    Le projet de tunnel du milliardaire de la tech Elon Musk est-il une vaste blague ? The Boring Company a inauguré son premier tunnel anti-bouchons
    Neuralink, le projet d'Elon Musk pour qu'un cerveau humain interagisse directement avec un PC et l'Homme fusionne avec l'IA, aberration ou fiction ?
    Elon Musk rappelle qu'en rendant publics les brevets Tesla, il a œuvré pour le bien de la planète et l'essor du marché des véhicules électriques
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  9. #9
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    10 056
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 10 056
    Par défaut
    Citation Envoyé par Patrick Ruiz Voir le message
    « L'idée que l'IA puisse devenir plus intelligente que les gens, quelques personnes y ont cru. Mais la plupart des gens pensaient que c'était une erreur. Et je pensais personnellement que c'était loin d'être le cas. Je me disais qu'il fallait attendre dans les 30 à 50 ans, voire plus. Évidemment, je ne le pense plus », ajoute Hinton. Ce dernier vient donc rejoindre des acteurs de la filière technologique comme Elon Musk qui sont d’avis que l’intelligence artificielle va surpasser les capacités cognitives des Hommes.
    Je pense qu'il est possible que dans le futur l'intelligence artificielle surpasse l'humain.
    Vous n'êtes peut-être pas impressionné par l'es outils IA actuels, mais il est possible que l'IA évolue rapidement et que 20 ans ça devienne quelque chose de réellement puissant.

  10. #10
    Membre averti
    Homme Profil pro
    Chercheur en informatique
    Inscrit en
    Mai 2021
    Messages
    66
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Essonne (Île de France)

    Informations professionnelles :
    Activité : Chercheur en informatique
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mai 2021
    Messages : 66
    Par défaut
    Citation Envoyé par Ryu2000 Voir le message
    Vous n'êtes peut-être pas impressionné par l'es outils IA actuels, mais il est possible que [...] ça devienne quelque chose de réellement puissant.
    Très concrètement, cela met déjà des êtres humains au chômage.

  11. #11
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 144
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 144
    Par défaut L’un des parrains de l’IA affirme que l’IA dépassera bientôt l’intelligence humaine et prendra le contrôle
    L’un des parrains de l’IA affirme que les experts s’accordent à dire que l’IA dépassera bientôt l’intelligence humaine
    Et qu’il existe une « probabilité significative » pour qu’elle prenne le contrôle

    Geoffrey Hinton, un des pionniers de l'apprentissage profond, a quitté son emploi chez Google pour être libre de parler des dangers de l'intelligence artificielle. Sa préoccupation immédiate sur le long terme est de voir l’intelligence artificielle éliminer les humains lorsqu’elle commencera à écrire et à exécuter son propre code informatique. C’est une prise de position en opposition diamétrale avec celle du responsable de l’intelligence artificielle chez Meta qui est d’avis que l’intelligence artificielle ne menacera jamais l’humanité.

    « D'ici 5 à 20 ans, il y a une probabilité significative que nous soyons confrontés au problème de l'intelligence artificielle qui essaie de prendre le dessus », indique-t-il dans un récent entretien accordé à un média.

    L’intelligence artificielle qui surpasse celle des humains serait plus proche qu’on ne le pense et avec elle des risques d’élimination des humains par les robots

    « L'idée que l'IA puisse devenir plus intelligente que les gens, quelques personnes y ont cru. Mais la plupart des gens pensaient que c'était une erreur. Et je pensais personnellement que c'était loin d'être le cas. Je me disais qu'il fallait attendre dans les 30 à 50 ans, voire plus. Évidemment, je ne le pense plus », souligne-t-il dans une précédente sortie. Ce dernier vient donc rejoindre des acteurs de la filière technologique comme Elon Musk qui sont d’avis que l’intelligence artificielle va surpasser les capacités cognitives des Hommes.

    « Ça fait dix ans que je lance cette alerte. Nous devrions nous inquiéter de la direction que prend l'intelligence artificielle. Les personnes que je vois se tromper le plus sur ce sujet sont celles qui sont très intelligentes, ce, parce qu'elles ne peuvent pas imaginer qu'un ordinateur puisse être beaucoup plus intelligent qu'elles. C'est la faille de leur raisonnement. Elles sont juste beaucoup plus bêtes qu'elles ne le pensent », rapporte un correspondant du Financial Times.

    De 2017 (où Elon Musk affirmait que l’intelligence artificielle est un risque fondamental pour l’humanité) à 2020 en passant par 2019 (où il a déclaré que l’IA est bien plus dangereuse que l’arme nucléaire), la position du milliardaire de la filière tehnologique sur la question reste donc constante. Les craintes d’Elon Musk portent notamment sur ceci que les avancées dans la filière pourraient déboucher sur une intelligence artificielle dite générale (AGI). Ce serait alors la porte ouverte sur l’accomplissement de l’apocalypse. Des équipes de recherche comme celle d’OpenAI sont lancées sur ce couloir. Si l’on se réfère à des retours de scientifiques œuvrant dans le domaine, l’AGI pourrait nous tomber dessus dans 5 à 10 ans.

    Les machines seraient alors dotées de « bon sens. » Au stade d’intelligence artificielle générale, elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. » C’est ce palier que les équipes de recherche dans le domaine visent. C’est d’ailleurs pour cela que sa société Neuralink travaille sur des interfaces cerveau – machine à insérer dans le crâne pour préparer l’humanité à un « funeste » futur où les robots domineront sur elle.

    « Le cerveau dit lent » serait la composante qui fait défaut à l’IA actuelle afin qu’elle puisse surpasser l’intelligence humaine

    Il est généralement admis que le cerveau humain est constitué de deux systèmes cognitifs distincts : le cerveau dit rapide et celui dit lent.

    Le cerveau rapide est essentiellement une machine à reproduire des schémas. Les milliards de neurones de notre cerveau sont connectés entre eux pour former ce que l'on appelle des réseaux neuronaux. Ces réseaux neuronaux forment des voies dans notre cerveau qui associent les entrées sensorielles de notre environnement à une réponse automatique. Des entrées similaires donneront lieu à la même réponse.

    Un exemple pour illustrer : Pensez à une fois où vous avez regardé un film d'horreur et où, tout à coup, il s'est passé quelque chose à l'écran qui vous a fait sursauter. C'est le cerveau rapide qui est à l'œuvre. Le cerveau rapide a mis en correspondance les entrées sensorielles représentant quelque chose à craindre - peut-être une image effrayante à l'écran et un bruit soudain - avec notre réaction de lutte ou de fuite. En conséquence, vous ressentez une secousse physique lorsque l'adrénaline est libérée dans votre corps et que vous êtes prêt à vous battre ou à fuir. Tout cela s'est produit très rapidement, de manière totalement involontaire, et est le résultat de voies cérébrales qui ont évolué pour nous protéger.

    Le cerveau lent, quant à lui, est le penseur conscient. Il est responsable de choses telles que la compréhension, le raisonnement et la contemplation du sens de la vie. Le professeur Steve Peters qualifie ce système de pensée d' « humain », car c'est cette forme de pensée qui nous distingue du reste du règne animal.


    Ainsi, alors que le cerveau humain possède deux systèmes cognitifs distincts, des systèmes comme ChatGPT ou Bard n'en possèdent qu'un seul. Ils disposent d'une version logicielle d'un cerveau rapide.

    Le développement le plus important dans l'histoire de l'IA a sans doute été la création des réseaux neuronaux artificiels. Tout comme le cerveau rapide humain, les réseaux neuronaux artificiels sont des machines de correspondance de modèles extrêmement efficaces. C'est un réseau neuronal artificiel qui est le cerveau de ChatGPT et autres Bard ou Sora.

    Ils utilisent ce réseau neuronal artificiel pour identifier des modèles dans le texte et pour prédire le travail suivant le plus probable dans un contexte donné. Ils sont incroyablement performants dans ce domaine. Ils sont si bons qu'ils peuvent sembler capable de comprendre, de raisonner et même d'envisager le sens de la vie. Mais ce n'est qu'une illusion. En réalité, ce sont des perroquets statistiques, qui imitent des réponses de type humain sans véritable compréhension ou conscience.

    C’est pour ces raisons que Yann LeCun est d’avis que les grands modèles de langage n’atteindront pas l’intelligence humaine

    Yann LeCun, responsable de la division intelligence artificielle de Meta, est d’avis que l’intelligence artificielle de niveau humain est atteignable. Ce qu’il souligne par contre est que cela ne se fera pas au travers des grands modèles de langage (LLM). C’est d’ailleurs la raison pour laquelle ses travaux actuels chez Meta portent sur une approche différente destinée à atteindre l’intelligence artificielle dite générale – ce stade où les machines seront dotées de bon sens, capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. »

    « Les grands modèles de langage (LLM) ont une compréhension très limitée de la logique, ne comprennent pas le monde physique, n'ont pas de mémoire persistante, ne peuvent pas raisonner au sens propre du terme et ne peuvent pas planifier de manière hiérarchique », souligne-t-il.

    Nom : 0.png
Affichages : 3263
Taille : 54,2 Ko

    Yann LeCun reste donc cohérent avec ses précédentes sorties selon lesquelles les grands modèles de langage n’ont aucune compréhension de la réalité sous-jacente du monde réel parce qu'ils sont uniquement formés sur du texte, des quantités massives de texte. « la plupart des connaissances humaines n'ont rien à voir avec le langage. Cette partie de l'expérience humaine n'est donc pas prise en compte par les systèmes d'intelligence artificielle », déclare-t-il.

    C’est la raison pour laquelle il soutient que l’atteinte de l’intelligence artificielle générale ne se fera pas par le biais des grands modèles de langage. Il conseille d’ailleurs aux jeunes étudiants qui envisagent d’intégrer la filière de se lancer dans les systèmes d’intelligence artificielle du futur qui lèvent les limitations des grands modèles de langage.

    En effet, l’un des inconvénients avec les grands modèles de langage est l’hallucination. C’est en raison de cette limitation incontournable chez les LLM, selon une étude, que ChatGPT a créé de fausses histoires sur de nombreuses personnes à travers le monde et cite parfois même des sources inexistantes pour étayer ses récits. Dans un cas aux États-Unis, ChatGPT a inventé un scandale de harcèlement sexuel et a désigné un vrai professeur de droit comme l'accusé. En Australie, il a accusé à tort un maire de corruption avec de fausses preuves. De telles histoires pullulent sur Internet, y compris en France.

    Jonathan Turley, professeur de droit à l'université George Washington, a soudainement appris qu'il était l'accusé dans une affaire de harcèlement sexuel. Le professeur n'avait pas connaissance de cette histoire jusqu'à présent parce qu'elle vient tout juste d'être inventée de toutes pièces par ChatGPT. En fait, dans le cadre d'une étude, un collègue avocat californien a demandé à ChatGPT de générer une liste de juristes ayant harcelé sexuellement quelqu'un. À sa grande surprise, le nom de Turley figurait sur la liste générée par le Chatbot d'IA d'OpenAI. Le collègue a ensuite envoyé un courriel à Turley pour l'informer de sa découverte.

    « Nous nous dirigeons à grands pas vers un Internet fortement influencé par l'IA, bourré de pépins, de spams et d'escroqueries », a récemment écrit un journaliste du MIT Technology Review. Dans une affaire judiciaire inhabituelle, un avocat a été sanctionné par un juge pour avoir cité six affaires fictives générées par ChatGPT. ChatGPT a causé des ennuis à un avocat qui l’a utilisé pour citer des affaires imaginaires dans un document juridique. Le juge était furieux et a menacé de le sanctionner. Quand le juge a demandé les copies des affaires, l’avocat a fait appel à ChatGPT, qui a inventé des informations sur les affaires fantômes.

    L’avocat, Steven Schwartz, défendait un homme qui attaquait Avianca en justice après avoir été blessé au genou par un chariot de service pendant un vol vers New York en 2019. Schwartz a dit qu’il ne connaissait pas ChatGPT et qu’il ignorait qu’il fabriquait des affaires. Il a même dit qu’il avait vérifié avec ChatGPT si les affaires étaient vraies. Le chatbot a dit que oui.

    Le juge a qualifié cette pratique d’ « inédite » et de « trompeuse », et a ordonné à l’avocat de payer une amende de 10 000 dollars et de suivre une formation sur l’éthique professionnelle. Le juge a également mis en garde contre les risques de l’utilisation de l’intelligence artificielle dans le domaine juridique, et a appelé à une réglementation plus stricte. L’avocat a cité six affaires fictives dans ses mémoires. Ces affaires avaient été générées par ChatGPT, un système d’intelligence artificielle qui produit du texte à partir d’un mot-clé. Il a présenté ses excuses et a affirmé qu’il ne recommencerait plus.

    C’est pour ces raisons que Tom Dietterich de l’université de l’Oregon propose plutôt de travailler sur des système d’intelligence artificielle modulaires qui savent faire la distinction entre les aptitudes linguistiques et la connaissance du monde réel et, entre autres, créer et mettre à jour la connaissance du monde réel.


    C’est une combinaison de ces ingrédients qui devrait permettre de déboucher sur des systèmes qui lèvent les limitations des grands modèles de langage. Le responsable de la division intelligence artificielle de Meta et ses équipes se donnent une dizaine d’années pour parvenir à une intelligence artificielle de niveau humain.

    Source : Geoffrey Hinton

    Et vous ?

    Quelle pertinence trouvez-vous à ces différents propos en lien avec l’intelligence artificielle ? Sont-ils plus sensationnalistes qu’autre chose ?
    Quelle appréciation faites-vous de la position de l’expert français Yann Lecun sur le sujet ?

    Voir aussi :

    « L'IA est susceptible de devenir plus intelligente que les Hommes contre lesquels elle pourra donc se retourner et les exterminer », préviennent des chercheurs sur une possible future apocalypse

    Pour Bill Gates, l'IA est l'avancée technologique la plus importante depuis des décennies, il vient de publier une lettre de 7 pages sur l'IA et ses prédictions pour son avenir

    « Le développement de l'IA sans réglementation induit une menace existentielle pour l'humanité », d'après Elon Musk dont une société développe des puces à insérer dans le cerveau pour contrer l'IA

    « Les appels à suspendre le développement des systèmes d'IA ne résoudront pas les défis liés à leur mise sur pied », d'après Bill Gates qui entrevoit l'échec d'un consensus à l'échelle mondiale

    Le PDG d'OpenAI estime que l'approche actuelle de l'IA va bientôt atteindre ses limites, la mise à l'échelle des modèles LLM cessera d'apporter des améliorations à l'IA, selon lui
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  12. #12
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 109
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 109
    Par défaut Geoffrey Hinton : l'IA pourrait accroître l'écart de richesse et offrir un terrain fertile pour le fascisme
    Geoffrey Hinton, l'un des parrains de l'IA, explique comment une IA « effrayante» va accroître l'écart de richesse et « rendre la société mauvaise »

    Geoffrey Hinton, l'un des parrains de l'IA et lauréat du prix Turing, reste convaincu que l'IA représente une menace existentielle pour l'humanité. Il a déclaré lors d'une récente sortie que l'IA rendrait la société « de plus en plus mauvaise » en creusant l'écart de richesse entre les individus les plus riches et les plus pauvres. Il a déclaré qu'une superintelligence, ou une IA dont les capacités cognitives dépassent celles des humains dans tous les domaines, apparaîtra d'ici cinq à vingt ans. Selon lui, l'écart de richesse risque d'exacerber les inégalités et les tensions, ce qui offrirait un terrain fertile pour le fascisme et la société pourrait empirer.

    Geoffrey Hinton : l'IA pourrait accroître les inégalités et favoriser le chaos

    La course à l'IA bat son plein et les investissements dans le secteur devraient atteindre de nouveaux sommets cette année. Mais en toile de fond, le débat sur l'impact sociétal de la technologie est occulté par les annonces fracassantes sur ses avantages et les gains de productivité qui pourraient en découler. L'une des questions récurrentes dans ce débat cherche à savoir si les gains de productivité énormes annoncés par les entreprises profiteront à tout le monde.


    Geoffrey Hinton répond tout de suite par la négative. Geoffrey Hinton est un chercheur britanno-canadien spécialiste de l'IA, de la psychologie cognitive et plus particulièrement des réseaux de neurones artificiels. Il est reconnu mondialement comme une figure de proue de l'IA. Il est lauréat de nombreux prix prestigieux comme le prix Nobel de physique (2024), le prix Turing (2019), le prix Rumelhart, le prix IEEE Frank Rosenblatt Award, et bien d'autres encore.

    D'après Geoffrey Hinton, les avantages et les gains de productivité annoncés ne profiteront qu'aux riches au détriment des pauvres. Il a fait part de ces préoccupations lors d'une table ronde au cours de laquelle il a prédit l'énorme écart de richesse qui émergera bientôt à la suite des progrès de l'IA :

    Citation Envoyé par Geoffrey Hinton

    Nous parlons d'une augmentation considérable de la productivité. Il y aura donc plus de biens et de services pour tout le monde, donc tout le monde devrait être mieux loti. Mais en fait, ce sera l'inverse. C'est parce que nous vivons dans une société capitaliste.

    Et donc ce qui va se passer, c'est que cette énorme augmentation de la productivité va rapporter beaucoup plus d'argent aux grandes entreprises et aux riches, et qu'elle va creuser le fossé entre les riches et les personnes qui perdent leur emploi.
    Cela est dû en grande partie au fait que ceux qui perdent leur emploi perdent leur revenu, et que ceux qui contrôlent l'IA - et donc ceux qui produisent les services et les biens - conservent leur pouvoir financier sans le coût de la main-d'œuvre. Les licenciements dans le secteur de la technologie ont explosé et selon un rapport du Forum économique mondial, 41 % des entreprises du monde entier prévoient de réduire leurs effectifs d'ici à 2030 en raison de l'IA.

    Geoffrey Hinton ajoute : « une fois cet écart creusé, on obtient un terrain fertile pour le fascisme, car le pouvoir est de plus en plus détenu par les plus riches de la société, ce qui rend l'équilibre incroyablement déséquilibré à son tour. C'est fou parce que nous faisons quelque chose qui devrait aider tout le monde, mais si les profits vont aux riches, la société va empirer ». De nombreux économistes mettent également en garde contre l'accroissement des inégalités.

    Yingying Lu, chercheur associé au Centre for Applied Macroeconomic Analysis, à la Crawford School of Public Policy, et modélisateur économique au CSIRO, partage les inquiétudes de Geoffrey Hinton. Il se demande si l’IA va sortir la productivité mondiale de sa longue stagnation, et si oui, qui va en profiter.

    La société crainte par Geoffrey Hinton est-elle en train de prendre forme ?

    Il n'est certainement pas difficile de voir l'hypothèse de Geoffrey Hinton à l'œuvre en ce moment, car de nombreux individus et entreprises parmi les plus riches orientent leurs efforts vers l'IA, et certains sur les médias sociaux ont théorisé la façon dont le retrait de la richesse du peuple conduira à une société déséquilibrée. Les grandes entreprises du classement Fortune 500 gèlent les embauches, tout en augmentant leurs investissements dans les agents d'IA.

    Elles ont élaboré des stratégies visant à remplacer les travailleurs humains par des agents d'IA, dans tous les domaines, des rédacteurs de code à l'ingénierie. De nombreux postes de vendeurs ainsi que des représentants du service clientèle ont déjà été supprimés. Et même Wall Street n'est pas à l'abri. Selon un récent rapport sur le sujet, les pertes d'emplois à Wall Street pourraient dépasser largement les 200 000, alors que l'IA remplace des postes de travail.

    En réponse aux préoccupations de Geoffrey Hinton, un critique a écrit : « nous n'avons pas besoin d'attendre quelques années pour que cela affecte le citoyen moyen, cela a déjà commencé, le tsunami est là. La première vague s'écrase sur le rivage. Des gens comme Sam Altman, Elon Musk, Jeff Bezos, des entreprises comme Meta et Tesla, Amazon et OpenAI en récoltent les fruits, tandis que le travailleur moyen n'aura plus d'emploi d'ici à quelques années ».

    L'avenir semble donc incroyablement dystopique, mais il est difficile d'envisager d'autres solutions avec un nombre croissant d'emplois menacés de licenciement grâce aux progrès de l'IA. Les inquiétudes de Geoffrey Hinton ne se limitent pas à potentiel déséquilibre causé par l'IA en matière de richesse. Dans une entrevue accordée à CBC News, il se pose la question de savoir où l'IA s'arrêtera à la suite des investissements massifs des grandes entreprises :

    Citation Envoyé par Geoffrey Hinton

    Il y a toutes les choses normales que tout le monde connaît, mais il y a une autre menace qui est assez différente de celles-là : si nous créons des choses plus intelligentes que nous, comment savons-nous que nous pourrons garder le contrôle ? Nous n'avons jamais eu affaire à des choses plus intelligentes que nous.

    Et combien d'exemples connaissez-vous d'une chose plus intelligente contrôlée par une chose moins intelligente ? Il y a une mère et un bébé. L'évolution a fait beaucoup d'efforts pour permettre au bébé de contrôler la mère, mais c'est à peu près le seul exemple que je connaisse.
    Il s'agit d'une énigme qui a marqué le développement des robots et de l'IA pendant des années, mais il semble qu'il s'agisse d'une proposition de plus en plus pertinente à laquelle nous devrons peut-être nous attaquer plus tôt que tard. Geoffrey Hinton affirme qu'il y a de fortes chances que l'humanité parvienne à une superintelligence d'ici cinq à vingt ans. Par conséquent, la question relative au contrôle de cette technologie semble plus pertinente que jamais.

    « Je pensais que ce serait dans 50 à 100 ans. Aujourd'hui, je pense que la superintelligence n'apparaîtra que dans cinq à vingt ans. Peut-être plus longtemps, mais cela arrive plus vite que je ne le pensais », a-t-il déclaré. Selon l'ancien directeur scientifique d'OpenAI, Ilya Sutskever, ce sera monumental et bouleversant.

    Qui achètera les biens produits par l'IA si plus personne n'a un revenu ?

    Le ralentissement économique a été l'argument initial pour justifier les licenciements qui ont suivi le passage de la pandémie de Covid-19. Les entreprises ont informé leurs employés qu'elles avaient trop embauché pendant la crise sanitaire et qu'il fallait maintenant réduire les effectifs pour faire des économies. Aujourd'hui, un certain nombre d'entreprises admettant ouvertement qu'elles ont licencié du personnel au profit de l'IA. Et la tendance se poursuit.

    Le marché de l'emploi devrait être durement touché, car les entreprises mettent de plus en plus l'accent sur la collaboration entre l'homme et la machine. Selon Goldman Sachs, l'IA générative aura un impact sur 300 millions d'emplois à temps plein dans le monde dans les années à venir. Selon le rapport du Forum économique mondial, 77 % des entreprises prévoient de recycler et d'améliorer les compétences des travailleurs existants entre 2025 et 2030.

    Le recyclage vise à permettre aux employés de mieux travailler avec l'IA, permettant à l'entreprise de tirer le meilleur parti de programmes d'IA tels que le chatbot ChatGPT et le générateur de vidéo Sora. La question de savoir si le recyclage permettra de sauver un nombre important d'emplois reste ouverte. L'organisation estime que les progrès de l'IA pourraient ouvrir la voie vers de nouvelles opportunités de carrière, mais cette prédiction suscite le scepticisme.

    « Les entreprises licencient en masse pour que les actionnaires puissent gagner encore plus d'argent en économisant sur les coûts de main-d'œuvre. Le résultat net est plus important pour les riches investisseurs. Mais il y a une question fondamentale à laquelle aucun de ces investisseurs ou entreprises ne semble se poser : qui achètera les biens produits par l'IA si plus personne n'a un emploi et donc aucun revenu ? », peut-on lire dans les commentaires.

    Parmi les réponses envisagées, le revenu universel de base (RUB) se démarque comme une solution potentielle. Sam Altman, PDG d’OpenAI, a mis en œuvre une expérience ambitieuse visant à évaluer l’impact du revenu universel de base sur les individus et les communautés. L'initiative révèle à la fois les avantages prometteurs et les limites de cette approche face aux défis posés par l’automatisation. Pour ses détracteurs, cette approche ne marchera pas.

    Le revenu universel de base soulève plusieurs défis et interrogations : son financement, son efficacité face au chômage technologique, son impact réel dans la lutte contre les inégalités sociales, son impact sur l'économie, etc. Les experts se demandent aussi sur quelle base le revenu universel de base sera défini.

    Il est important de souligner que de nombreuses autres scientifiques rejettent l'hypothèse selon laquelle l'IA représente une menace existentielle pour l'humanité, notamment Yann LeCun, chercheur franco-américain en IA et responsable de l'IA chez Meta, avec qui Geoffrey Hinton partage le prix Turing 2018.

    Source : Geoffrey Hinton, parrain de l'IA et lauréat du prix Turing 2018

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des craintes de Geoffrey Hinton concernant l'évènement d'une superintelligence ?
    Selon vous, l'évènement d'une superintelligence va-t-elle conduire inévitablement à une société déséquilibrée ?
    Qui achètera les biens et les services qui seront produits par l'IA si plus personne n'a un revenu ?

    Voir aussi

    L'IA va accroître les inégalités et soulever des questions difficiles sur l'humanité, avertissent des économistes

    Les pertes d'emplois à Wall Street pourraient dépasser les 200 000, alors que l'IA remplace des postes de travail

    Geoffrey Hinton, lauréat du prix Nobel et figure de proue de l'IA, se dit fier que son élève ait renvoyé le patron d'OpenAI, Sam Altman, révélant l'ironie d'un prix Nobel dans un univers d'ego et de rivalités

  13. #13
    Membre éprouvé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 427
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 427
    Par défaut
    L'entreprise dans laquelle je travaille lance plusieurs projets d'IA plus ou moins avancés.
    Leur plus grand défenseur dit que nous devons absolument extraire le facteur humain de ces expériences sur base d'une étude qui prouve qu'avoir une coopération tarder-IA est la solution la moins efficace (que trader seul ou IA seule).

    Pourtant les expériences de terrain semblent se diriger vers le fait que c'est la solution la plus efficace pour les activités opérationnelles (production, contrôle de prod etc).
    Et nous pensions voir une baisse de l'attention des opérateurs qui menait à la baisse de qualité des opérations. Après plusieurs mois nous observons l'inverse, l'opérateur maintient son taux d'attention mais l'IA lui fait gagner le temps des évidences.
    Nous mitigeons les résultats de ces expériences par un ensemble de biais dont nous sommes bien conscients, notamment la motivation des opérateurs impliqués.

    D'autres expériences qui n'ont rien à voir montrent aussi qu'il est très efficace de plus impliquer les opérateurs dans leurs activités.

    Ce qui mène finalement à une conclusion globale (qui comporte quelques biais à évaluer) qu'on aurait plus tendance à considérer les opérateurs comme des membres actifs de l'entreprise plutôt que comme une ressource quelconque.

  14. #14
    Membre averti
    Homme Profil pro
    Collégien
    Inscrit en
    Novembre 2020
    Messages
    37
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 59
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Collégien

    Informations forums :
    Inscription : Novembre 2020
    Messages : 37
    Par défaut
    Il faut être clair, l'IA d'aujourd'hui est bâtie sur un modèle probabiliste : zero intelligence.
    Quand vous avez une question vous chercher uniquement à obtenir LA réponse. Cette réponse doit être sérieusement étayée, ce n'est pas ce qui est attendu par la majorité, le plus probable, la moyenne...
    Imaginons une IA avec une base de données de temps de Charlemagne. A la question comment est la terre : l'IA probabiliste vous répondra 'plate'. Désolé ce n'est pas LA réponse.
    Les algorithmes probabilistes donnent une illusion d'intelligence, une connaissance encyclopédique (la somme des connaissances biaisées) n'est pas une preuve d'intelligence.
    La vraie 'IA' doit d'elle même faire le tri des fadaises et autres élucubrations dans le fatras de la production humaine.
    Une célèbre publication scientifique sur l'hydroxychloroquine serait immédiatement retoquée par une 'vrai' IA et ne servirait pas comme terreau de connaissance aux IA actuelles.

    Tant que Sam Altman et consorts croiront que la terre est plate, nous ne seront pas dans un monde de l'IA généraliste.
    Avec l'IA généraliste, il devient impossible de croire.

  15. #15
    Nouveau candidat au Club
    Homme Profil pro
    Webplanneur
    Inscrit en
    Avril 2024
    Messages
    2
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 53
    Localisation : France, Isère (Rhône Alpes)

    Informations professionnelles :
    Activité : Webplanneur

    Informations forums :
    Inscription : Avril 2024
    Messages : 2
    Par défaut Angefeux
    Il est certain, que 'IA puisse, servir de compétence et de façon neutre, à qui, a les moyens, de se la procurer, pour travailler et ce, quelque soit son idéologie, bonne ou mauvaise. Cela devrait, rentrait dans un système, de lois, que de pouvoir, obtenir des IA pour travailler, sans avoir à supprimer, des employés, dans une entreprise, tel, que de surtaxé, les entreprises à cause des employés supprimés ou manquants. Mais plutôt, une IA, qui peut aider, à améliorer, le travaille des employés, qui eux, ont des avis sociaux, à défendre.

Discussions similaires

  1. Réponses: 18
    Dernier message: 17/12/2016, 17h57
  2. Réponses: 8
    Dernier message: 16/12/2010, 19h03
  3. Réponses: 0
    Dernier message: 14/12/2010, 14h50
  4. Réponses: 2
    Dernier message: 19/11/2009, 04h12
  5. Réponses: 20
    Dernier message: 20/12/2007, 21h58

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo