IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Geoffrey Hinton affirme que l'IA ne sera rentable que si la main-d’œuvre humaine est remplacée


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 287
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 287
    Par défaut Geoffrey Hinton affirme que l'IA ne sera rentable que si la main-d’œuvre humaine est remplacée
    Geoffrey Hinton, une des figures de proue de l’apprentissage profond, quitte Google pour être libre de parler des dangers de l’IA
    Dont la désinformation et l’élimination des humains par les robots

    Geoffrey Hinton, un des pionniers de l'apprentissage profond, a quitté son emploi chez Google pour être libre de parler des dangers de l'intelligence artificielle. Sa préoccupation immédiate : la désinformation. Sur le long terme, il craint que l’intelligence artificielle n’élimine les humains lorsqu’elle commencera à écrire et à exécuter son propre code informatique.

    Nom : 0.png
Affichages : 17875
Taille : 61,3 Ko

    Google a dévoilé Bard, sa réponse à ChatGPT, au début du mois de février suite à une alerte rouge lancée en son sein contre le chatbot de l’entreprise OpenAI. « Il pourrait être impossible de mettre un terme à cette concurrence féroce, qui aboutirait à un monde contenant tellement d'images et de textes truqués que plus personne ne serait en mesure de dire ce qui est vrai », déclare Hinton dans le cadre d’un récent entretien. Et c’est ce que confirment de récents développements en lien avec ChatGPT et Google Bard.


    Google Bard contre ChatGPT et les dangers en lien avec la qualité de l’information

    Google a annoncé l’intégration de l’IA conversationnelle à son moteur de recherches il y a peu. La décision n’est pas inattendue. En effet, elle fait suite au lancement par Microsoft d’une version de son propre moteur de recherches Bing qui s’appuie sur ChatGPT.

    Ce qu’on sait de ces intelligences artificielles d’OpenAI et de Google est qu’il s’agit de chatbots capable de comprendre le langage naturel et de répondre en langage naturel. Elles peuvent donner de façon directe des solutions à des problèmes complexes. C’est la raison pour laquelle certaines institutions universitaires en interdisent l’usage à leurs étudiants. Le professeur Arvind Narayanan de l’université de Princeton tire néanmoins la sonnette d’alarme sur la pertinence de s’appuyer sur des moteurs de recherche intégrant ces chatbots en déclarant que c’est de la « poudre de perlimpinpin. »

    « Sayash Kapoor et moi-même l'appelons un générateur de conneries, comme d'autres l'ont aussi fait. Nous n'entendons pas cela dans un sens normatif mais dans un sens relativement précis. Nous voulons dire qu'il est entraîné à produire des textes plausibles. Il est très bon pour être persuasif, mais il n'est pas entraîné à produire des déclarations vraies. Il produit souvent des affirmations vraies comme effet secondaire de sa plausibilité et de sa persuasion, mais ce n'est pas son objectif.

    Cela correspond en fait à ce que le philosophe Harry Frankfurt a appelé connerie, c'est-à-dire un discours destiné à persuader sans se soucier de la vérité. Un conteur humain ne se soucie pas de savoir si ce qu'il dit est vrai ou non ; il a certaines fins en tête. Tant qu'il persuade, ces objectifs sont atteints. En fait, c'est ce que fait ChatGPT. Il essaie d'être persuasif et il n'a aucun moyen de savoir avec certitude si les déclarations qu'il fait sont vraies ou non », déclare-t-il à propos de ChatGPT.

    D’ailleurs, une mouture de Microsoft Bing a affiché 2,5 milliards de personnes en réponse à la question de savoir quelle est la population de la planète Mars. La situation soulève la question de savoir si la montée en puissance de l’intelligence artificielle ne va pas plutôt amener les humains à travailler plus dur pour lutter contre la désinformation.

    Nom : 1.png
Affichages : 3752
Taille : 361,4 Ko

    Un GIF partagé par Google montre Bard répondant à la question : « De quelles nouvelles découvertes du télescope spatial James Webb puis-je parler à mon enfant de 9 ans ? » Bard propose une liste à puces de trois éléments, parmi lesquels un élément indiquant que le télescope « a pris les toutes premières images d'une planète en dehors de notre propre système solaire. »

    Nom : 2.png
Affichages : 5180
Taille : 101,8 Ko

    Cependant, un certain nombre d'astronomes sur Twitter ont souligné que c'était incorrect et que la première image d'une exoplanète avait été prise en 2004 - comme indiqué sur le site Web de la NASA (voir en source) : « Ce n'est pas pour faire mon connard (en fait, si finalement) et je suis sûr que Bard sera impressionnant, mais pour mémoire : JWST n'a pas pris 'la toute première image d'une planète en dehors de notre système solaire' », a tweeté l'astrophysicien Grant Tremblay.

    Nom : 3.png
Affichages : 5096
Taille : 69,2 Ko

    C’est cette imprécision qui a poussé les développeurs et les experts de la filière à avertir que cette technologie ne devrait pas être utilisée pour prendre des décisions importantes pour le moment.

    L’intelligence artificielle générale serait plus proche qu’on ne le pense et avec elle des risques d’élimination des humains par les robots

    « L'idée que l'IA puisse devenir plus intelligente que les gens, quelques personnes y ont cru. Mais la plupart des gens pensaient que c'était une erreur. Et je pensais personnellement que c'était loin d'être le cas. Je me disais qu'il fallait attendre dans les 30 à 50 ans, voire plus. Évidemment, je ne le pense plus », ajoute-t-il. Ce dernier vient donc rejoindre des acteurs de la filière technologique comme Elon Musk qui sont d’avis que l’intelligence artificielle va surpasser les capacités cognitives des Hommes.

    « Ça fait dix ans que je lance cette alerte. Nous devrions nous inquiéter de la direction que prend l'intelligence artificielle. Les personnes que je vois se tromper le plus sur ce sujet sont celles qui sont très intelligentes, ce, parce qu'elles ne peuvent pas imaginer qu'un ordinateur puisse être beaucoup plus intelligent qu'elles. C'est la faille de leur raisonnement. Elles sont juste beaucoup plus bêtes qu'elles ne le pensent », rapporte un correspondant du Financial Times.

    De 2017 (où Elon Musk affirmait que l’intelligence artificielle est un risque fondamental pour l’humanité) à 2020 en passant par 2019 (où il a déclaré que l’IA est bien plus dangereuse que l’arme nucléaire), la position du milliardaire de la Tech. sur la question reste donc constante. Les craintes d’Elon Musk portent notamment sur ceci que les avancées dans la filière pourraient déboucher sur une intelligence artificielle dite générale (AGI). Ce serait alors la porte ouverte sur l’accomplissement de l’apocalypse. Des équipes de recherche comme celle d’OpenAI sont lancées sur ce couloir. Si l’on se réfère à des retours de scientifiques œuvrant dans le domaine, l’AGI pourrait nous tomber dessus dans 5 à 10 ans.

    Les machines seraient alors dotées de « bon sens. » Au stade d’intelligence artificielle générale, elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. » C’est ce palier que les équipes de recherche dans le domaine visent. C’est d’ailleurs pour cela que sa société Neuralink travaille sur des interfaces cerveau – machine à insérer dans le crâne pour préparer l’humanité à un « funeste » futur où les robots domineront sur elle.

    Source : NYT

    Et vous ?

    Quelle pertinence trouvez-vous à ces différents propos en lien avec l’intelligence artificielle ? Sont-ils plus sensationnalistes qu’autre chose ?
    Voyez-vous la recherche en la matière aboutisse à l’intelligence artificielle générale ?

    Voir aussi :

    L'IA de génération de texte d'Elon Musk trop dangereuse pour être rendue publique, selon ses créateurs
    Le projet de tunnel du milliardaire de la tech Elon Musk est-il une vaste blague ? The Boring Company a inauguré son premier tunnel anti-bouchons
    Neuralink, le projet d'Elon Musk pour qu'un cerveau humain interagisse directement avec un PC et l'Homme fusionne avec l'IA, aberration ou fiction ?
    Elon Musk rappelle qu'en rendant publics les brevets Tesla, il a œuvré pour le bien de la planète et l'essor du marché des véhicules électriques
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre éprouvé
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    2 195
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : Singapour

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 2 195
    Par défaut
    le problème c'est que si demain y'a plus personne pour écrire des pages web avec du vrai contenus, ces ia vont tourner en rond.

    C'est ce qui pourrait bien se produire, si demain tous le monde abandonne les sites web au profit de chatgpt, plus aucun site web ne pourra fonctionner (soit car pas d'argent car personne ne voit plus les pub, soit car y'aura plus aucune fréquentation alors pourquoi tenir un blog de qualité si personne pour le lire...)
    ca va faire du surplace tôt ou tard car ces ia ne crée rien.

    si demain on les programmes pour écrire du contenus, elle apprendra sur elle même par la suite, donc sur ces propres conneries...

  3. #3
    Membre éclairé Avatar de onilink_
    Profil pro
    Inscrit en
    Juillet 2010
    Messages
    611
    Détails du profil
    Informations personnelles :
    Âge : 34
    Localisation : France

    Informations forums :
    Inscription : Juillet 2010
    Messages : 611
    Par défaut
    Citation Envoyé par calvaire Voir le message
    le problème c'est que si demain y'a plus personne pour écrire des pages web avec du vrai contenus, ces ia vont tourner en rond.

    C'est ce qui pourrait bien se produire, si demain tous le monde abandonne les sites web au profit de chatgpt, plus aucun site web ne pourra fonctionner (soit car pas d'argent car personne ne voit plus les pub, soit car y'aura plus aucune fréquentation alors pourquoi tenir un blog de qualité si personne pour le lire...)
    ca va faire du surplace tôt ou tard car ces ia ne crée rien.

    si demain on les programmes pour écrire du contenus, elle apprendra sur elle même par la suite, donc sur ces propres conneries...
    Je pense qu'on peut considérer que le web dont tu parles est déjà mort depuis des années.

    developpez.net est un des derniers forum actif que je fréquente. Tous les forums, qui étaient très vivants il y a une dizaine d'année ont totalement été désertés et remplacés (en moins bien) par les réseaux sociaux. Pareil les blogs ont tendance à disparaître.

    On a aussi tendance à oublier une chose, c'est que le web d'il y a 20-30 ans c'était beaucoup de sites auto hébergés. De nos jours c'est devenu trivial de faire son site web et de l'auto héberger, par exemple sur un raspberry pi. Et ça coûte presque rien, donc pas besoin de pubs. Pourtant je ne connais personne qui le fait.

    La tendance actuelle est à alimenter des grosses plateformes, qui se font leur beurre sur les utilisateurs. Mais tout est déjà très centralisé.
    Même dans les sites commerciaux se font absorber par de grosses plateformes style Amazon.

    Puis tout le contenu produit est devenu très "consommation". Comme tu le relèves les plateformes sont à la course à la pub. Et c'est pas le contenu de qualité qui génère de la vue, mais du contenu produit en masse.

    Bref je pense juste que ChatGPT et ces technos vont exacerber un problème qui était déjà bien présent.
    Moi ce qui me fait le plus peur, c'est les entreprises qui sont derrière, comme OpenAI, qui considèrent le contenu d'internet comme leur appartenant.
    Demain leur bot crawl un site web et hop, leur ChatGPT à ingurgité les données (pourtant protégées par le droit d'auteur) sans aucun consentement.

    On se rappellera aussi l'épisode de Copilot. Pour l'instant limité à github, mais rien ne dit qu'ils n'iront pas plus loin...

  4. #4
    Membre éprouvé
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    2 195
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : Singapour

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 2 195
    Par défaut
    Citation Envoyé par onilink_ Voir le message
    Je pense qu'on peut considérer que le web dont tu parles est déjà mort depuis des années.

    developpez.net est un des derniers forum actif que je fréquente. Tous les forums, qui étaient très vivants il y a une dizaine d'année ont totalement été désertés et remplacés (en moins bien) par les réseaux sociaux. Pareil les blogs ont tendance à disparaître.

    On a aussi tendance à oublier une chose, c'est que le web d'il y a 20-30 ans c'était beaucoup de sites auto hébergés. De nos jours c'est devenu trivial de faire son site web et de l'auto héberger, par exemple sur un raspberry pi. Et ça coûte presque rien, donc pas besoin de pubs. Pourtant je ne connais personne qui le fait.

    La tendance actuelle est à alimenter des grosses plateformes, qui se font leur beurre sur les utilisateurs. Mais tout est déjà très centralisé.
    Même dans les sites commerciaux se font absorber par de grosses plateformes style Amazon.

    Puis tout le contenu produit est devenu très "consommation". Comme tu le relèves les plateformes sont à la course à la pub. Et c'est pas le contenu de qualité qui génère de la vue, mais du contenu produit en masse.

    Bref je pense juste que ChatGPT et ces technos vont exacerber un problème qui était déjà bien présent.
    Moi ce qui me fait le plus peur, c'est les entreprises qui sont derrière, comme OpenAI, qui considèrent le contenu d'internet comme leur appartenant.
    Demain leur bot crawl un site web et hop, leur ChatGPT à ingurgité les données (pourtant protégées par le droit d'auteur) sans aucun consentement.

    On se rappellera aussi l'épisode de Copilot. Pour l'instant limité à github, mais rien ne dit qu'ils n'iront pas plus loin...
    il existe encore des blogs francophone de qualité comme minimachines.net ou des forums de passionnés comme win3x.org.
    et aussi wikipedia qui contient du texte de qualité.

    le reste c'est inutile pour une ia, je vois pas comment on peut entrainer un chatbot de qualité avec le contenu qu'on trouve sur facebook ou twitter.
    peut etre en volant la retranscription youtube pour des videos de qualité (comme ceux la chaine science étonnante)

    dans tous les cas les contenus de qualités se font de plus en plus rare, obtenir un bon dataset de qualité et a jours sera de plus en plus complexe.
    OpenAI a d'ailleurs son dataset périmé de 2ans (2021), en informatique 2 ans c'est énorme, c'est pleins de fonction déprécié et de framework abandonnée.

    Par contre oui, se pose un gros probleme de l'accés a ces données... ces ia volent le travail des autres pour une utilisation commercial.
    J'aimerais bien demain une licence interdisant la lecture du code ou des photos pour être exploité pour du machine learning, ca va etre drole...
    on va y venir, les artistes, développeurs et scientifiques vont peut être en voir marre de se faire voler leurs travail sans en retirer d'argent, surtout si demain ca commence a licencier et les remplacer par chatgpt.

  5. #5
    Membre éclairé Avatar de onilink_
    Profil pro
    Inscrit en
    Juillet 2010
    Messages
    611
    Détails du profil
    Informations personnelles :
    Âge : 34
    Localisation : France

    Informations forums :
    Inscription : Juillet 2010
    Messages : 611
    Par défaut
    Citation Envoyé par calvaire Voir le message
    le reste c'est inutile pour une ia, je vois pas comment on peut entrainer un chatbot de qualité avec le contenu qu'on trouve sur facebook ou twitter.
    peut etre en volant la retranscription youtube pour des videos de qualité (comme ceux la chaine science étonnante)
    Je pense que tout dépend ce qu'on appelle "qualité". Les critères ne sont pas les même selon le résultat voulus.

    Pour le cas de ChatGPT l'idée a la base était surtout de faire un modèle étonnamment humain, et capable de converser.
    Même des discutions de "mauvaise qualité" sur des réseaux sociaux peuvent faire l'affaire, puisque ça donne justement ce côté plus "naturel".

    Puis quitte a "voler" un peu tout ce qui passe, il y a énormément d'ouvrages numérisés, ou le texte sera de "qualité".

    Ensuite des entreprises comme google on accès a des datasets énormes directement depuis leur bases utilisateur:
    - complétion de texte sur android
    - mails sur gmail
    - commentaires sur leurs plateformes

    C'est aussi eux qui "crawl" le plus internet et évaluent les sites pour améliorer les recherches, donc j'imagine qu'ils ont pas mal de métriques pour définir la "qualité" d'un site pour l'utiliser dans leurs datasets.

    D’où l'importance de définir des limites juridiques sur les données d'apprentissage...

  6. #6
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 907
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 907
    Par défaut La menace que l'IA fait peser sur le monde pourrait être "plus urgente" que le changement climatique
    La menace que l'IA fait peser sur le monde pourrait être "plus urgente" que le changement climatique, selon Geoffrey Hinton, un des pionniers de la recherche en intelligence artificielle

    L'intelligence artificielle pourrait constituer une menace "plus urgente" pour l'humanité que le changement climatique, a déclaré Geoffrey Hinton, pionnier de l'IA, dans une interview accordée à Reuters.

    Geoffrey Hinton, largement connu comme l'un des "parrains de l'IA", a récemment annoncé qu'il quittait Alphabet après une décennie passée au sein de l'entreprise, expliquant qu'il souhaitait s'exprimer sur les risques de la technologie sans que cela n'affecte son ancien employeur.

    Les travaux de M. Hinton sont considérés comme essentiels au développement des systèmes d'IA contemporains. En 1986, il a cosigné l'article fondateur "Learning representations by back-propagating errors", une étape importante dans le développement des réseaux neuronaux qui sous-tendent la technologie de l'IA. En 2018, il a reçu le prix Turing en reconnaissance de ses avancées en matière de recherche.

    Mais il fait désormais partie d'un nombre croissant de leaders technologiques qui s'inquiètent publiquement de la menace que pourrait représenter l'IA si les machines parvenaient à être plus intelligentes que les humains et à prendre le contrôle de la planète.

    "Je ne voudrais pas dévaloriser le changement climatique. Je ne voudrais pas dire : "Vous ne devriez pas vous inquiéter du changement climatique". C'est aussi un risque énorme", a déclaré M. Hinton. "Mais je pense que cette question pourrait s'avérer plus urgente."

    Il a ajouté : "En ce qui concerne le changement climatique, il est très facile de recommander ce qu'il faut faire : il suffit d'arrêter de brûler du carbone. Si vous faites cela, les choses finiront par s'arranger. Dans le cas du changement climatique, ce qu'il faut faire n'est pas du tout clair".

    Nom : G. Hinton IA.png
Affichages : 4032
Taille : 280,0 Ko

    OpenAI, soutenue par Microsoft, a donné le coup d'envoi d'une course à l'armement technologique en novembre, en mettant à la disposition du public le chatbot ChatGPT, alimenté par l'IA. Il est rapidement devenu l'application à la croissance la plus rapide de l'histoire, atteignant 100 millions d'utilisateurs mensuels en deux mois.

    En avril, Elon Musk, PDG de Twitter, s'est joint à des milliers de personnes pour signer une lettre ouverte appelant à une pause de six mois dans le développement de systèmes plus puissants que le GPT-4 récemment lancé par OpenAI.

    Parmi les signataires figuraient Emad Mostaque, PDG de Stability AI, des chercheurs de DeepMind, propriété d'Alphabet, et d'autres pionniers de l'IA, Yoshua Bengio et Stuart Russell.

    Si M. Hinton partage l'inquiétude des signataires, qui craignent que l'IA ne constitue une menace existentielle pour l'humanité, il n'est pas d'accord avec l'idée d'interrompre la recherche.

    "C'est totalement irréaliste", a-t-il déclaré. "Je suis de ceux qui pensent qu'il s'agit d'un risque existentiel et qu'il est suffisamment proche pour que nous travaillions très dur dès maintenant et que nous consacrions beaucoup de ressources à déterminer ce que nous pouvons faire à ce sujet."

    Dans l'Union européenne, un comité de législateurs a répondu à la lettre de M. Musk en demandant au président américain Joe Biden d'organiser un sommet mondial sur l'orientation future de la technologie avec la présidente de la Commission européenne Ursula von der Leyen.

    Début mai, la commission a adopté une série de propositions historiques concernant l'IA générative, qui obligeraient les entreprises comme OpenAI à divulguer tout matériel protégé par des droits d'auteur utilisé pour entraîner leurs modèles.

    Entre-temps, M. Biden s'est entretenu avec un certain nombre de dirigeants d'entreprises d'IA, dont Sundar Pichai, PDG d'Alphabet, et Sam Altman, PDG d'OpenAI, à la Maison-Blanche, promettant une "discussion franche et constructive" sur la nécessité pour les entreprises d'être plus transparentes au sujet de leurs systèmes.

    "Les leaders de la technologie sont ceux qui comprennent le mieux le problème, et les politiciens doivent être impliqués", a déclaré M. Hinton. "Cela nous concerne tous, nous devons donc tous y réfléchir."

    Source : Reuters

    Et vous ?

    Quel est votre avis sur le sujet ?

    Trouvez-vous que les préoccupations de M. Hinton sont pertinentes et fondées ?

    Êtes-vous d'accord avec l'avis de M. Hinton selon lequel il est "irréaliste" d'interrompre la recherche en IA ?

    Selon vous, l'IA devrait-elle faire l'objet d'une réglementation et d'une orientation mondiale comme le préconisent certains législateurs ?

    Voir aussi

    Geoffrey Hinton, une des figures de proue de l'apprentissage profond, quitte Google pour être libre de parler des dangers de l'IA dont la désinformation et l'élimination des humains par les robots

    L'UE envisagerait des règles très strictes pour les chatbots dans le cadre de son projet de loi sur l'IA elle devrait exiger la divulgation de l'utilisation du matériel protégé par le droit d'auteur

    ChatGPT a enregistré une augmentation de 83 % en termes de trafic Web, et rivalise désormais avec Bing, la France est la 5è source de trafic pour le chatbot d'OpenAI, selon Similarweb

    Elon Musk et un groupe d'experts en IA demandent à tous les laboratoires d'IA d'interrompre la formation de systèmes d'IA plus puissants que le GPT-4, citant des risques pour la société
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  7. #7
    Rédacteur

    Avatar de SQLpro
    Homme Profil pro
    Expert bases de données / SQL / MS SQL Server / Postgresql
    Inscrit en
    Mai 2002
    Messages
    22 009
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Var (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Expert bases de données / SQL / MS SQL Server / Postgresql
    Secteur : Conseil

    Informations forums :
    Inscription : Mai 2002
    Messages : 22 009
    Billets dans le blog
    6
    Par défaut
    Citation Envoyé par Anthony Voir le message
    La menace que l'IA fait peser sur le monde pourrait être "plus urgente" que le changement climatique...
    Oui, c'est parfait pur les entreprises de la tech américaines... Comme ça on va pouvoir oublier l'écologie qui nous fait chier pour se consacrer à la bêtise naturelle (pardon, l'intelligence artificielle)...
    On va donc laisser tranquille les plus gros consommateurs d’électricité du monde, ultra pollueur, anti écologique que sont les GAFA ! Pour dépenser toute notre énergie à combattre l'IA !

    Merci Monsieur Geoffrey Hinton

    A +
    Frédéric Brouard - SQLpro - ARCHITECTE DE DONNÉES - expert SGBDR et langage SQL
    Le site sur les SGBD relationnels et le langage SQL: http://sqlpro.developpez.com/
    Blog SQL, SQL Server, SGBDR : http://blog.developpez.com/sqlpro
    Expert Microsoft SQL Server - M.V.P. (Most valuable Professional) MS Corp.
    Entreprise SQL SPOT : modélisation, conseils, audit, optimisation, formation...
    * * * * * Expertise SQL Server : http://mssqlserver.fr/ * * * * *

  8. #8
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 287
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 287
    Par défaut « L’IA peut finir par dominer les humains », d’après Geoffrey Hinton, l'un des pionniers du deep learning
    « L’IA peut finir par dominer les humains », d’après Geoffrey Hinton, l’un des pionniers de l’apprentissage profond
    Qui cite des facteurs algorithmiques qui définissent sa limite d’évolution

    Geoffrey Hinton a quitté Google à mi-parcours de l’année qui tire à son terme dans le but d’être libre de parler des dangers de l’intelligence artificielle. Depuis lors, il multiplie les sorties à ce sujet et reste constant sur sa position selon laquelle l’IA fait peser une menace sur l’humanité. C’est une redite de prises de position d’observateurs comme Elon Musk selon lesquels ce n’est qu’une question de temps avant que l’intelligence artificielle ne surpasse les humains en tout. Et certains facteurs d’ordre algorithmique permettraient de soutenir cette affirmation. C’est en tout cas ce que met en avant Geoffrey Hinton pour déboucher sur la notion de « principe d’évolution. »

    « Ce que nous avons fait, c'est concevoir l'algorithme d'apprentissage. C'est un peu comme concevoir le principe de l'évolution. Mais lorsque cet algorithme d'apprentissage interagit avec les données, il produit des réseaux neuronaux compliqués qui sont capables de faire certaines choses. Mais nous ne comprenons pas exactement comment ils font ces choses », souligne Geoffrey Hinton. En d’autres termes, l’humain conçoit l’algorithme d’apprentissage ou « principe d’évolution » de l’IA.

    Cependant, sa mise en œuvre débouche sur une espèce d’entité informatique qui finit par devenir un objet de curiosité pour le chercheur de la filière lui-même. Et c’est là que se trouve le danger comme le souligne Hinton : « Dès que les choses deviennent vraiment complexes nous ne savons pas plus ce qui se passe que nous savons ce qui se passe dans nos propres cerveaux. » C’est en cela que la question de savoir comment est-ce que les humains sauront qu’ils ont atteint une forme d’intelligence artificielle générale prend tout son sens.

    « Nous entrons dans une période de grande incertitude où nous sommes confrontés à des choses que nous n'avons jamais faites auparavant. Et normalement, la première fois que l'on s'attaque à quelque chose de totalement nouveau, on se trompe. Et nous ne pouvons pas nous permettre de nous tromper dans ce domaine », prévient-il.


    L’intelligence artificielle générale serait plus proche qu’on ne le pense et avec elle des risques d’élimination des humains par les robots

    « L'idée que l'IA puisse devenir plus intelligente que les gens, quelques personnes y ont cru. Mais la plupart des gens pensaient que c'était une erreur. Et je pensais personnellement que c'était loin d'être le cas. Je me disais qu'il fallait attendre dans les 30 à 50 ans, voire plus. Évidemment, je ne le pense plus », ajoute Hinton. Ce dernier vient donc rejoindre des acteurs de la filière technologique comme Elon Musk qui sont d’avis que l’intelligence artificielle va surpasser les capacités cognitives des Hommes.

    « Ça fait dix ans que je lance cette alerte. Nous devrions nous inquiéter de la direction que prend l'intelligence artificielle. Les personnes que je vois se tromper le plus sur ce sujet sont celles qui sont très intelligentes, ce, parce qu'elles ne peuvent pas imaginer qu'un ordinateur puisse être beaucoup plus intelligent qu'elles. C'est la faille de leur raisonnement. Elles sont juste beaucoup plus bêtes qu'elles ne le pensent », rapporte un correspondant du Financial Times.

    De 2017 (où Elon Musk affirmait que l’intelligence artificielle est un risque fondamental pour l’humanité) à 2020 en passant par 2019 (où il a déclaré que l’IA est bien plus dangereuse que l’arme nucléaire), la position du milliardaire de la Tech. sur la question reste donc constante. Les craintes d’Elon Musk portent notamment sur ceci que les avancées dans la filière pourraient déboucher sur une intelligence artificielle dite générale (AGI). Ce serait alors la porte ouverte sur l’accomplissement de l’apocalypse. Des équipes de recherche comme celle d’OpenAI sont lancées sur ce couloir. Si l’on se réfère à des retours de scientifiques œuvrant dans le domaine, l’AGI pourrait nous tomber dessus dans 5 à 10 ans.

    Les machines seraient alors dotées de « bon sens. » Au stade d’intelligence artificielle générale, elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. » C’est ce palier que les équipes de recherche dans le domaine visent. C’est d’ailleurs pour cela que sa société Neuralink travaille sur des interfaces cerveau – machine à insérer dans le crâne pour préparer l’humanité à un « funeste » futur où les robots domineront sur elle.

    Source : Geoffrey Hinton

    Et vous ?

    Quelle pertinence trouvez-vous à ces différents propos en lien avec l’intelligence artificielle ? Sont-ils plus sensationnalistes qu’autre chose ?
    Voyez-vous la recherche en la matière aboutisse à l’intelligence artificielle générale ? Sinon quels sont les freins que vous entrevoyez ?

    Voir aussi :

    L'IA de génération de texte d'Elon Musk trop dangereuse pour être rendue publique, selon ses créateurs
    Le projet de tunnel du milliardaire de la tech Elon Musk est-il une vaste blague ? The Boring Company a inauguré son premier tunnel anti-bouchons
    Neuralink, le projet d'Elon Musk pour qu'un cerveau humain interagisse directement avec un PC et l'Homme fusionne avec l'IA, aberration ou fiction ?
    Elon Musk rappelle qu'en rendant publics les brevets Tesla, il a œuvré pour le bien de la planète et l'essor du marché des véhicules électriques
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  9. #9
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    10 538
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 10 538
    Par défaut
    Citation Envoyé par Patrick Ruiz Voir le message
    « L'idée que l'IA puisse devenir plus intelligente que les gens, quelques personnes y ont cru. Mais la plupart des gens pensaient que c'était une erreur. Et je pensais personnellement que c'était loin d'être le cas. Je me disais qu'il fallait attendre dans les 30 à 50 ans, voire plus. Évidemment, je ne le pense plus », ajoute Hinton. Ce dernier vient donc rejoindre des acteurs de la filière technologique comme Elon Musk qui sont d’avis que l’intelligence artificielle va surpasser les capacités cognitives des Hommes.
    Je pense qu'il est possible que dans le futur l'intelligence artificielle surpasse l'humain.
    Vous n'êtes peut-être pas impressionné par l'es outils IA actuels, mais il est possible que l'IA évolue rapidement et que 20 ans ça devienne quelque chose de réellement puissant.

  10. #10
    Membre confirmé
    Homme Profil pro
    Chercheur en informatique
    Inscrit en
    Mai 2021
    Messages
    111
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Essonne (Île de France)

    Informations professionnelles :
    Activité : Chercheur en informatique
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mai 2021
    Messages : 111
    Par défaut
    Citation Envoyé par Ryu2000 Voir le message
    Vous n'êtes peut-être pas impressionné par l'es outils IA actuels, mais il est possible que [...] ça devienne quelque chose de réellement puissant.
    Très concrètement, cela met déjà des êtres humains au chômage.

  11. #11
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 287
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 287
    Par défaut L’un des parrains de l’IA affirme que l’IA dépassera bientôt l’intelligence humaine et prendra le contrôle
    L’un des parrains de l’IA affirme que les experts s’accordent à dire que l’IA dépassera bientôt l’intelligence humaine
    Et qu’il existe une « probabilité significative » pour qu’elle prenne le contrôle

    Geoffrey Hinton, un des pionniers de l'apprentissage profond, a quitté son emploi chez Google pour être libre de parler des dangers de l'intelligence artificielle. Sa préoccupation immédiate sur le long terme est de voir l’intelligence artificielle éliminer les humains lorsqu’elle commencera à écrire et à exécuter son propre code informatique. C’est une prise de position en opposition diamétrale avec celle du responsable de l’intelligence artificielle chez Meta qui est d’avis que l’intelligence artificielle ne menacera jamais l’humanité.

    « D'ici 5 à 20 ans, il y a une probabilité significative que nous soyons confrontés au problème de l'intelligence artificielle qui essaie de prendre le dessus », indique-t-il dans un récent entretien accordé à un média.

    L’intelligence artificielle qui surpasse celle des humains serait plus proche qu’on ne le pense et avec elle des risques d’élimination des humains par les robots

    « L'idée que l'IA puisse devenir plus intelligente que les gens, quelques personnes y ont cru. Mais la plupart des gens pensaient que c'était une erreur. Et je pensais personnellement que c'était loin d'être le cas. Je me disais qu'il fallait attendre dans les 30 à 50 ans, voire plus. Évidemment, je ne le pense plus », souligne-t-il dans une précédente sortie. Ce dernier vient donc rejoindre des acteurs de la filière technologique comme Elon Musk qui sont d’avis que l’intelligence artificielle va surpasser les capacités cognitives des Hommes.

    « Ça fait dix ans que je lance cette alerte. Nous devrions nous inquiéter de la direction que prend l'intelligence artificielle. Les personnes que je vois se tromper le plus sur ce sujet sont celles qui sont très intelligentes, ce, parce qu'elles ne peuvent pas imaginer qu'un ordinateur puisse être beaucoup plus intelligent qu'elles. C'est la faille de leur raisonnement. Elles sont juste beaucoup plus bêtes qu'elles ne le pensent », rapporte un correspondant du Financial Times.

    De 2017 (où Elon Musk affirmait que l’intelligence artificielle est un risque fondamental pour l’humanité) à 2020 en passant par 2019 (où il a déclaré que l’IA est bien plus dangereuse que l’arme nucléaire), la position du milliardaire de la filière tehnologique sur la question reste donc constante. Les craintes d’Elon Musk portent notamment sur ceci que les avancées dans la filière pourraient déboucher sur une intelligence artificielle dite générale (AGI). Ce serait alors la porte ouverte sur l’accomplissement de l’apocalypse. Des équipes de recherche comme celle d’OpenAI sont lancées sur ce couloir. Si l’on se réfère à des retours de scientifiques œuvrant dans le domaine, l’AGI pourrait nous tomber dessus dans 5 à 10 ans.

    Les machines seraient alors dotées de « bon sens. » Au stade d’intelligence artificielle générale, elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. » C’est ce palier que les équipes de recherche dans le domaine visent. C’est d’ailleurs pour cela que sa société Neuralink travaille sur des interfaces cerveau – machine à insérer dans le crâne pour préparer l’humanité à un « funeste » futur où les robots domineront sur elle.

    « Le cerveau dit lent » serait la composante qui fait défaut à l’IA actuelle afin qu’elle puisse surpasser l’intelligence humaine

    Il est généralement admis que le cerveau humain est constitué de deux systèmes cognitifs distincts : le cerveau dit rapide et celui dit lent.

    Le cerveau rapide est essentiellement une machine à reproduire des schémas. Les milliards de neurones de notre cerveau sont connectés entre eux pour former ce que l'on appelle des réseaux neuronaux. Ces réseaux neuronaux forment des voies dans notre cerveau qui associent les entrées sensorielles de notre environnement à une réponse automatique. Des entrées similaires donneront lieu à la même réponse.

    Un exemple pour illustrer : Pensez à une fois où vous avez regardé un film d'horreur et où, tout à coup, il s'est passé quelque chose à l'écran qui vous a fait sursauter. C'est le cerveau rapide qui est à l'œuvre. Le cerveau rapide a mis en correspondance les entrées sensorielles représentant quelque chose à craindre - peut-être une image effrayante à l'écran et un bruit soudain - avec notre réaction de lutte ou de fuite. En conséquence, vous ressentez une secousse physique lorsque l'adrénaline est libérée dans votre corps et que vous êtes prêt à vous battre ou à fuir. Tout cela s'est produit très rapidement, de manière totalement involontaire, et est le résultat de voies cérébrales qui ont évolué pour nous protéger.

    Le cerveau lent, quant à lui, est le penseur conscient. Il est responsable de choses telles que la compréhension, le raisonnement et la contemplation du sens de la vie. Le professeur Steve Peters qualifie ce système de pensée d' « humain », car c'est cette forme de pensée qui nous distingue du reste du règne animal.


    Ainsi, alors que le cerveau humain possède deux systèmes cognitifs distincts, des systèmes comme ChatGPT ou Bard n'en possèdent qu'un seul. Ils disposent d'une version logicielle d'un cerveau rapide.

    Le développement le plus important dans l'histoire de l'IA a sans doute été la création des réseaux neuronaux artificiels. Tout comme le cerveau rapide humain, les réseaux neuronaux artificiels sont des machines de correspondance de modèles extrêmement efficaces. C'est un réseau neuronal artificiel qui est le cerveau de ChatGPT et autres Bard ou Sora.

    Ils utilisent ce réseau neuronal artificiel pour identifier des modèles dans le texte et pour prédire le travail suivant le plus probable dans un contexte donné. Ils sont incroyablement performants dans ce domaine. Ils sont si bons qu'ils peuvent sembler capable de comprendre, de raisonner et même d'envisager le sens de la vie. Mais ce n'est qu'une illusion. En réalité, ce sont des perroquets statistiques, qui imitent des réponses de type humain sans véritable compréhension ou conscience.

    C’est pour ces raisons que Yann LeCun est d’avis que les grands modèles de langage n’atteindront pas l’intelligence humaine

    Yann LeCun, responsable de la division intelligence artificielle de Meta, est d’avis que l’intelligence artificielle de niveau humain est atteignable. Ce qu’il souligne par contre est que cela ne se fera pas au travers des grands modèles de langage (LLM). C’est d’ailleurs la raison pour laquelle ses travaux actuels chez Meta portent sur une approche différente destinée à atteindre l’intelligence artificielle dite générale – ce stade où les machines seront dotées de bon sens, capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. »

    « Les grands modèles de langage (LLM) ont une compréhension très limitée de la logique, ne comprennent pas le monde physique, n'ont pas de mémoire persistante, ne peuvent pas raisonner au sens propre du terme et ne peuvent pas planifier de manière hiérarchique », souligne-t-il.

    Nom : 0.png
Affichages : 3996
Taille : 54,2 Ko

    Yann LeCun reste donc cohérent avec ses précédentes sorties selon lesquelles les grands modèles de langage n’ont aucune compréhension de la réalité sous-jacente du monde réel parce qu'ils sont uniquement formés sur du texte, des quantités massives de texte. « la plupart des connaissances humaines n'ont rien à voir avec le langage. Cette partie de l'expérience humaine n'est donc pas prise en compte par les systèmes d'intelligence artificielle », déclare-t-il.

    C’est la raison pour laquelle il soutient que l’atteinte de l’intelligence artificielle générale ne se fera pas par le biais des grands modèles de langage. Il conseille d’ailleurs aux jeunes étudiants qui envisagent d’intégrer la filière de se lancer dans les systèmes d’intelligence artificielle du futur qui lèvent les limitations des grands modèles de langage.

    En effet, l’un des inconvénients avec les grands modèles de langage est l’hallucination. C’est en raison de cette limitation incontournable chez les LLM, selon une étude, que ChatGPT a créé de fausses histoires sur de nombreuses personnes à travers le monde et cite parfois même des sources inexistantes pour étayer ses récits. Dans un cas aux États-Unis, ChatGPT a inventé un scandale de harcèlement sexuel et a désigné un vrai professeur de droit comme l'accusé. En Australie, il a accusé à tort un maire de corruption avec de fausses preuves. De telles histoires pullulent sur Internet, y compris en France.

    Jonathan Turley, professeur de droit à l'université George Washington, a soudainement appris qu'il était l'accusé dans une affaire de harcèlement sexuel. Le professeur n'avait pas connaissance de cette histoire jusqu'à présent parce qu'elle vient tout juste d'être inventée de toutes pièces par ChatGPT. En fait, dans le cadre d'une étude, un collègue avocat californien a demandé à ChatGPT de générer une liste de juristes ayant harcelé sexuellement quelqu'un. À sa grande surprise, le nom de Turley figurait sur la liste générée par le Chatbot d'IA d'OpenAI. Le collègue a ensuite envoyé un courriel à Turley pour l'informer de sa découverte.

    « Nous nous dirigeons à grands pas vers un Internet fortement influencé par l'IA, bourré de pépins, de spams et d'escroqueries », a récemment écrit un journaliste du MIT Technology Review. Dans une affaire judiciaire inhabituelle, un avocat a été sanctionné par un juge pour avoir cité six affaires fictives générées par ChatGPT. ChatGPT a causé des ennuis à un avocat qui l’a utilisé pour citer des affaires imaginaires dans un document juridique. Le juge était furieux et a menacé de le sanctionner. Quand le juge a demandé les copies des affaires, l’avocat a fait appel à ChatGPT, qui a inventé des informations sur les affaires fantômes.

    L’avocat, Steven Schwartz, défendait un homme qui attaquait Avianca en justice après avoir été blessé au genou par un chariot de service pendant un vol vers New York en 2019. Schwartz a dit qu’il ne connaissait pas ChatGPT et qu’il ignorait qu’il fabriquait des affaires. Il a même dit qu’il avait vérifié avec ChatGPT si les affaires étaient vraies. Le chatbot a dit que oui.

    Le juge a qualifié cette pratique d’ « inédite » et de « trompeuse », et a ordonné à l’avocat de payer une amende de 10 000 dollars et de suivre une formation sur l’éthique professionnelle. Le juge a également mis en garde contre les risques de l’utilisation de l’intelligence artificielle dans le domaine juridique, et a appelé à une réglementation plus stricte. L’avocat a cité six affaires fictives dans ses mémoires. Ces affaires avaient été générées par ChatGPT, un système d’intelligence artificielle qui produit du texte à partir d’un mot-clé. Il a présenté ses excuses et a affirmé qu’il ne recommencerait plus.

    C’est pour ces raisons que Tom Dietterich de l’université de l’Oregon propose plutôt de travailler sur des système d’intelligence artificielle modulaires qui savent faire la distinction entre les aptitudes linguistiques et la connaissance du monde réel et, entre autres, créer et mettre à jour la connaissance du monde réel.


    C’est une combinaison de ces ingrédients qui devrait permettre de déboucher sur des systèmes qui lèvent les limitations des grands modèles de langage. Le responsable de la division intelligence artificielle de Meta et ses équipes se donnent une dizaine d’années pour parvenir à une intelligence artificielle de niveau humain.

    Source : Geoffrey Hinton

    Et vous ?

    Quelle pertinence trouvez-vous à ces différents propos en lien avec l’intelligence artificielle ? Sont-ils plus sensationnalistes qu’autre chose ?
    Quelle appréciation faites-vous de la position de l’expert français Yann Lecun sur le sujet ?

    Voir aussi :

    « L'IA est susceptible de devenir plus intelligente que les Hommes contre lesquels elle pourra donc se retourner et les exterminer », préviennent des chercheurs sur une possible future apocalypse

    Pour Bill Gates, l'IA est l'avancée technologique la plus importante depuis des décennies, il vient de publier une lettre de 7 pages sur l'IA et ses prédictions pour son avenir

    « Le développement de l'IA sans réglementation induit une menace existentielle pour l'humanité », d'après Elon Musk dont une société développe des puces à insérer dans le cerveau pour contrer l'IA

    « Les appels à suspendre le développement des systèmes d'IA ne résoudront pas les défis liés à leur mise sur pied », d'après Bill Gates qui entrevoit l'échec d'un consensus à l'échelle mondiale

    Le PDG d'OpenAI estime que l'approche actuelle de l'IA va bientôt atteindre ses limites, la mise à l'échelle des modèles LLM cessera d'apporter des améliorations à l'IA, selon lui
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  12. #12
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 605
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 605
    Par défaut Geoffrey Hinton : l'IA pourrait accroître l'écart de richesse et offrir un terrain fertile pour le fascisme
    Geoffrey Hinton, l'un des parrains de l'IA, explique comment une IA « effrayante» va accroître l'écart de richesse et « rendre la société mauvaise »

    Geoffrey Hinton, l'un des parrains de l'IA et lauréat du prix Turing, reste convaincu que l'IA représente une menace existentielle pour l'humanité. Il a déclaré lors d'une récente sortie que l'IA rendrait la société « de plus en plus mauvaise » en creusant l'écart de richesse entre les individus les plus riches et les plus pauvres. Il a déclaré qu'une superintelligence, ou une IA dont les capacités cognitives dépassent celles des humains dans tous les domaines, apparaîtra d'ici cinq à vingt ans. Selon lui, l'écart de richesse risque d'exacerber les inégalités et les tensions, ce qui offrirait un terrain fertile pour le fascisme et la société pourrait empirer.

    Geoffrey Hinton : l'IA pourrait accroître les inégalités et favoriser le chaos

    La course à l'IA bat son plein et les investissements dans le secteur devraient atteindre de nouveaux sommets cette année. Mais en toile de fond, le débat sur l'impact sociétal de la technologie est occulté par les annonces fracassantes sur ses avantages et les gains de productivité qui pourraient en découler. L'une des questions récurrentes dans ce débat cherche à savoir si les gains de productivité énormes annoncés par les entreprises profiteront à tout le monde.


    Geoffrey Hinton répond tout de suite par la négative. Geoffrey Hinton est un chercheur britanno-canadien spécialiste de l'IA, de la psychologie cognitive et plus particulièrement des réseaux de neurones artificiels. Il est reconnu mondialement comme une figure de proue de l'IA. Il est lauréat de nombreux prix prestigieux comme le prix Nobel de physique (2024), le prix Turing (2019), le prix Rumelhart, le prix IEEE Frank Rosenblatt Award, et bien d'autres encore.

    D'après Geoffrey Hinton, les avantages et les gains de productivité annoncés ne profiteront qu'aux riches au détriment des pauvres. Il a fait part de ces préoccupations lors d'une table ronde au cours de laquelle il a prédit l'énorme écart de richesse qui émergera bientôt à la suite des progrès de l'IA :

    Citation Envoyé par Geoffrey Hinton

    Nous parlons d'une augmentation considérable de la productivité. Il y aura donc plus de biens et de services pour tout le monde, donc tout le monde devrait être mieux loti. Mais en fait, ce sera l'inverse. C'est parce que nous vivons dans une société capitaliste.

    Et donc ce qui va se passer, c'est que cette énorme augmentation de la productivité va rapporter beaucoup plus d'argent aux grandes entreprises et aux riches, et qu'elle va creuser le fossé entre les riches et les personnes qui perdent leur emploi.
    Cela est dû en grande partie au fait que ceux qui perdent leur emploi perdent leur revenu, et que ceux qui contrôlent l'IA - et donc ceux qui produisent les services et les biens - conservent leur pouvoir financier sans le coût de la main-d'œuvre. Les licenciements dans le secteur de la technologie ont explosé et selon un rapport du Forum économique mondial, 41 % des entreprises du monde entier prévoient de réduire leurs effectifs d'ici à 2030 en raison de l'IA.

    Geoffrey Hinton ajoute : « une fois cet écart creusé, on obtient un terrain fertile pour le fascisme, car le pouvoir est de plus en plus détenu par les plus riches de la société, ce qui rend l'équilibre incroyablement déséquilibré à son tour. C'est fou parce que nous faisons quelque chose qui devrait aider tout le monde, mais si les profits vont aux riches, la société va empirer ». De nombreux économistes mettent également en garde contre l'accroissement des inégalités.

    Yingying Lu, chercheur associé au Centre for Applied Macroeconomic Analysis, à la Crawford School of Public Policy, et modélisateur économique au CSIRO, partage les inquiétudes de Geoffrey Hinton. Il se demande si l’IA va sortir la productivité mondiale de sa longue stagnation, et si oui, qui va en profiter.

    La société crainte par Geoffrey Hinton est-elle en train de prendre forme ?

    Il n'est certainement pas difficile de voir l'hypothèse de Geoffrey Hinton à l'œuvre en ce moment, car de nombreux individus et entreprises parmi les plus riches orientent leurs efforts vers l'IA, et certains sur les médias sociaux ont théorisé la façon dont le retrait de la richesse du peuple conduira à une société déséquilibrée. Les grandes entreprises du classement Fortune 500 gèlent les embauches, tout en augmentant leurs investissements dans les agents d'IA.

    Elles ont élaboré des stratégies visant à remplacer les travailleurs humains par des agents d'IA, dans tous les domaines, des rédacteurs de code à l'ingénierie. De nombreux postes de vendeurs ainsi que des représentants du service clientèle ont déjà été supprimés. Et même Wall Street n'est pas à l'abri. Selon un récent rapport sur le sujet, les pertes d'emplois à Wall Street pourraient dépasser largement les 200 000, alors que l'IA remplace des postes de travail.

    En réponse aux préoccupations de Geoffrey Hinton, un critique a écrit : « nous n'avons pas besoin d'attendre quelques années pour que cela affecte le citoyen moyen, cela a déjà commencé, le tsunami est là. La première vague s'écrase sur le rivage. Des gens comme Sam Altman, Elon Musk, Jeff Bezos, des entreprises comme Meta et Tesla, Amazon et OpenAI en récoltent les fruits, tandis que le travailleur moyen n'aura plus d'emploi d'ici à quelques années ».

    L'avenir semble donc incroyablement dystopique, mais il est difficile d'envisager d'autres solutions avec un nombre croissant d'emplois menacés de licenciement grâce aux progrès de l'IA. Les inquiétudes de Geoffrey Hinton ne se limitent pas à potentiel déséquilibre causé par l'IA en matière de richesse. Dans une entrevue accordée à CBC News, il se pose la question de savoir où l'IA s'arrêtera à la suite des investissements massifs des grandes entreprises :

    Citation Envoyé par Geoffrey Hinton

    Il y a toutes les choses normales que tout le monde connaît, mais il y a une autre menace qui est assez différente de celles-là : si nous créons des choses plus intelligentes que nous, comment savons-nous que nous pourrons garder le contrôle ? Nous n'avons jamais eu affaire à des choses plus intelligentes que nous.

    Et combien d'exemples connaissez-vous d'une chose plus intelligente contrôlée par une chose moins intelligente ? Il y a une mère et un bébé. L'évolution a fait beaucoup d'efforts pour permettre au bébé de contrôler la mère, mais c'est à peu près le seul exemple que je connaisse.
    Il s'agit d'une énigme qui a marqué le développement des robots et de l'IA pendant des années, mais il semble qu'il s'agisse d'une proposition de plus en plus pertinente à laquelle nous devrons peut-être nous attaquer plus tôt que tard. Geoffrey Hinton affirme qu'il y a de fortes chances que l'humanité parvienne à une superintelligence d'ici cinq à vingt ans. Par conséquent, la question relative au contrôle de cette technologie semble plus pertinente que jamais.

    « Je pensais que ce serait dans 50 à 100 ans. Aujourd'hui, je pense que la superintelligence n'apparaîtra que dans cinq à vingt ans. Peut-être plus longtemps, mais cela arrive plus vite que je ne le pensais », a-t-il déclaré. Selon l'ancien directeur scientifique d'OpenAI, Ilya Sutskever, ce sera monumental et bouleversant.

    Qui achètera les biens produits par l'IA si plus personne n'a un revenu ?

    Le ralentissement économique a été l'argument initial pour justifier les licenciements qui ont suivi le passage de la pandémie de Covid-19. Les entreprises ont informé leurs employés qu'elles avaient trop embauché pendant la crise sanitaire et qu'il fallait maintenant réduire les effectifs pour faire des économies. Aujourd'hui, un certain nombre d'entreprises admettant ouvertement qu'elles ont licencié du personnel au profit de l'IA. Et la tendance se poursuit.

    Le marché de l'emploi devrait être durement touché, car les entreprises mettent de plus en plus l'accent sur la collaboration entre l'homme et la machine. Selon Goldman Sachs, l'IA générative aura un impact sur 300 millions d'emplois à temps plein dans le monde dans les années à venir. Selon le rapport du Forum économique mondial, 77 % des entreprises prévoient de recycler et d'améliorer les compétences des travailleurs existants entre 2025 et 2030.

    Le recyclage vise à permettre aux employés de mieux travailler avec l'IA, permettant à l'entreprise de tirer le meilleur parti de programmes d'IA tels que le chatbot ChatGPT et le générateur de vidéo Sora. La question de savoir si le recyclage permettra de sauver un nombre important d'emplois reste ouverte. L'organisation estime que les progrès de l'IA pourraient ouvrir la voie vers de nouvelles opportunités de carrière, mais cette prédiction suscite le scepticisme.

    « Les entreprises licencient en masse pour que les actionnaires puissent gagner encore plus d'argent en économisant sur les coûts de main-d'œuvre. Le résultat net est plus important pour les riches investisseurs. Mais il y a une question fondamentale à laquelle aucun de ces investisseurs ou entreprises ne semble se poser : qui achètera les biens produits par l'IA si plus personne n'a un emploi et donc aucun revenu ? », peut-on lire dans les commentaires.

    Parmi les réponses envisagées, le revenu universel de base (RUB) se démarque comme une solution potentielle. Sam Altman, PDG d’OpenAI, a mis en œuvre une expérience ambitieuse visant à évaluer l’impact du revenu universel de base sur les individus et les communautés. L'initiative révèle à la fois les avantages prometteurs et les limites de cette approche face aux défis posés par l’automatisation. Pour ses détracteurs, cette approche ne marchera pas.

    Le revenu universel de base soulève plusieurs défis et interrogations : son financement, son efficacité face au chômage technologique, son impact réel dans la lutte contre les inégalités sociales, son impact sur l'économie, etc. Les experts se demandent aussi sur quelle base le revenu universel de base sera défini.

    Il est important de souligner que de nombreuses autres scientifiques rejettent l'hypothèse selon laquelle l'IA représente une menace existentielle pour l'humanité, notamment Yann LeCun, chercheur franco-américain en IA et responsable de l'IA chez Meta, avec qui Geoffrey Hinton partage le prix Turing 2018.

    Source : Geoffrey Hinton, parrain de l'IA et lauréat du prix Turing 2018

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des craintes de Geoffrey Hinton concernant l'évènement d'une superintelligence ?
    Selon vous, l'évènement d'une superintelligence va-t-elle conduire inévitablement à une société déséquilibrée ?
    Qui achètera les biens et les services qui seront produits par l'IA si plus personne n'a un revenu ?

    Voir aussi

    L'IA va accroître les inégalités et soulever des questions difficiles sur l'humanité, avertissent des économistes

    Les pertes d'emplois à Wall Street pourraient dépasser les 200 000, alors que l'IA remplace des postes de travail

    Geoffrey Hinton, lauréat du prix Nobel et figure de proue de l'IA, se dit fier que son élève ait renvoyé le patron d'OpenAI, Sam Altman, révélant l'ironie d'un prix Nobel dans un univers d'ego et de rivalités

  13. #13
    Membre éprouvé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 638
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 638
    Par défaut
    L'entreprise dans laquelle je travaille lance plusieurs projets d'IA plus ou moins avancés.
    Leur plus grand défenseur dit que nous devons absolument extraire le facteur humain de ces expériences sur base d'une étude qui prouve qu'avoir une coopération tarder-IA est la solution la moins efficace (que trader seul ou IA seule).

    Pourtant les expériences de terrain semblent se diriger vers le fait que c'est la solution la plus efficace pour les activités opérationnelles (production, contrôle de prod etc).
    Et nous pensions voir une baisse de l'attention des opérateurs qui menait à la baisse de qualité des opérations. Après plusieurs mois nous observons l'inverse, l'opérateur maintient son taux d'attention mais l'IA lui fait gagner le temps des évidences.
    Nous mitigeons les résultats de ces expériences par un ensemble de biais dont nous sommes bien conscients, notamment la motivation des opérateurs impliqués.

    D'autres expériences qui n'ont rien à voir montrent aussi qu'il est très efficace de plus impliquer les opérateurs dans leurs activités.

    Ce qui mène finalement à une conclusion globale (qui comporte quelques biais à évaluer) qu'on aurait plus tendance à considérer les opérateurs comme des membres actifs de l'entreprise plutôt que comme une ressource quelconque.

  14. #14
    Membre averti
    Homme Profil pro
    Collégien
    Inscrit en
    Novembre 2020
    Messages
    57
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 60
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Collégien

    Informations forums :
    Inscription : Novembre 2020
    Messages : 57
    Par défaut
    Il faut être clair, l'IA d'aujourd'hui est bâtie sur un modèle probabiliste : zero intelligence.
    Quand vous avez une question vous chercher uniquement à obtenir LA réponse. Cette réponse doit être sérieusement étayée, ce n'est pas ce qui est attendu par la majorité, le plus probable, la moyenne...
    Imaginons une IA avec une base de données de temps de Charlemagne. A la question comment est la terre : l'IA probabiliste vous répondra 'plate'. Désolé ce n'est pas LA réponse.
    Les algorithmes probabilistes donnent une illusion d'intelligence, une connaissance encyclopédique (la somme des connaissances biaisées) n'est pas une preuve d'intelligence.
    La vraie 'IA' doit d'elle même faire le tri des fadaises et autres élucubrations dans le fatras de la production humaine.
    Une célèbre publication scientifique sur l'hydroxychloroquine serait immédiatement retoquée par une 'vrai' IA et ne servirait pas comme terreau de connaissance aux IA actuelles.

    Tant que Sam Altman et consorts croiront que la terre est plate, nous ne seront pas dans un monde de l'IA généraliste.
    Avec l'IA généraliste, il devient impossible de croire.

  15. #15
    Nouveau candidat au Club
    Homme Profil pro
    Webplanneur
    Inscrit en
    Avril 2024
    Messages
    3
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 54
    Localisation : France, Isère (Rhône Alpes)

    Informations professionnelles :
    Activité : Webplanneur

    Informations forums :
    Inscription : Avril 2024
    Messages : 3
    Par défaut Angefeux
    Il est certain, que 'IA puisse, servir de compétence et de façon neutre, à qui, a les moyens, de se la procurer, pour travailler et ce, quelque soit son idéologie, bonne ou mauvaise. Cela devrait, rentrait dans un système, de lois, que de pouvoir, obtenir des IA pour travailler, sans avoir à supprimer, des employés, dans une entreprise, tel, que de surtaxé, les entreprises à cause des employés supprimés ou manquants. Mais plutôt, une IA, qui peut aider, à améliorer, le travaille des employés, qui eux, ont des avis sociaux, à défendre.

  16. #16
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 703
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 703
    Par défaut Geoffrey Hinton « heureux d'avoir 77 ans » pour échapper à une éventuelle prise de contrôle de l'IA
    Geoffrey Hinton, « parrain de l'IA », déclare être « heureux d'avoir 77 ans » pour échapper à une éventuelle prise de contrôle de l'IA,
    comparant l'évolution de l'IA à élever un tigre sans cage

    Un scientifique dont les travaux ont contribué à transformer le domaine de l'intelligence artificielle se dit « plutôt content » d'avoir 77 ans, car il ne vivra peut-être pas assez longtemps pour être témoin des conséquences potentiellement dangereuses de cette technologie.

    Geoffrey Hinton, souvent considéré comme le « parrain de l'intelligence artificielle », a déclaré dans une interview que l'intelligence artificielle progresse plus rapidement que ne le prévoyaient les experts et que, lorsqu'elle dépassera l'intelligence humaine, l'humanité ne sera peut-être pas en mesure de l'empêcher de prendre le contrôle de la situation. « Des choses plus intelligentes que vous seront capables de vous manipuler », a déclaré Hinton, qui a reçu le prix Nobel de physique en 2024 pour ses percées dans le domaine de l'apprentissage automatique.


    Geoffrey Hinton est l’un des pionniers fondateurs de l’intelligence artificielle moderne. Professeur émérite à l’université de Toronto et ancien employé de Google, il a co-inventé des algorithmes clés de l’apprentissage profond (notamment l’algorithme de rétropropagation pour les réseaux de neurones) et participé aux débuts du moteur de recherche Google Brain. Pour ces contributions, il a partagé le prix Turing 2018 (avec Yoshua Bengio et Yann LeCun) – l’équivalent du « Nobel de l’informatique » – et plus récemment le prix Nobel de physique 2024 avec le physicien américain John Joseph Hopfield pour « leurs découvertes et interventions fondamentales qui permettent l'apprentissage automatique avec des réseaux de neurones artificiels ». Surnommé « le parrain de l’IA », Hinton incarne le succès de l’apprentissage automatique (deep learning) qui anime aujourd’hui des applications de traduction automatique, de reconnaissance vocale et de robots autonomes.

    Les dernières mises en garde de Hinton

    Geoffrey Hinton a profité d’une interview sur CBS News pour lancer un nouvel avertissement sur l’IA. Il a confié être « assez content d’avoir 77 ans » car il pourrait « ne pas vivre assez longtemps » pour voir les conséquences dangereuses de cette technologie​. En effet, les IA actuelles « progressent plus vite que prévu », a-t-il expliqué, et il prédit que « une fois qu’elles dépasseront l’intelligence humaine, l’humanité pourrait ne plus être capable d’empêcher qu’elles ne prennent le contrôle ». Pour illustrer ce propos, Hinton a comparé l’IA à un « tigreau vraiment mignon » qu’on élève enfant : à moins d’être absolument sûr qu’il ne voudra pas « vous tuer quand il sera adulte », il faut s’inquiéter. Chiffres à l’appui, il estime qu’il existe une « chance de 10% à 20% » qu’un système d’IA devienne un jour plus puissant que l’homme et prenne le contrôle

    Ainsi, Hinton rejoint d’autres figures influentes du secteur (Sundar Pichai chez Google, Elon Musk chez X, Sam Altman chez OpenAI) qui ont exprimé des inquiétudes similaires sur les « risques profonds pour la société et l’humanité ». En 2023, Musk et plus de 1 000 experts ont signé une lettre ouverte demandant un moratoire sur le développement des IA les plus puissantes, estimant que la technologie peut « poser des risques profonds à la société et à l’humanité ». Il faut préciser que, tandis que Musk demandait à OpenAI de mettre un frein au développement de son IA, il travaillait de son côté sur un rival, le fameux xAI qui a donné naissance à Grok.

    Quoiqu'il en soit, voici un extrait de cette lettre ouverte :

    Les systèmes d'IA contemporains deviennent aujourd'hui compétitifs pour les tâches générales, et nous devons nous poser la question : Devons-nous laisser les machines inonder nos canaux d'information de propagande et de mensonges ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, plus obsolètes et nous remplacer ? Devons-nous risquer de perdre le contrôle de notre civilisation ? Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus. Les systèmes d'IA puissants ne doivent être développés que lorsque nous sommes convaincus que leurs effets seront positifs et que leurs risques seront gérables. Cette confiance doit être bien justifiée et augmenter avec l'ampleur des effets potentiels d'un système. La récente déclaration de l'OpenAI concernant l'intelligence artificielle générale indique qu'"à un moment donné, il pourrait être important d'obtenir un examen indépendant avant de commencer à former les futurs systèmes, et pour les efforts les plus avancés d'accepter de limiter le taux de croissance du calcul utilisé pour créer de nouveaux modèles". Nous sommes d'accord. C'est maintenant qu'il faut agir.

    C'est pourquoi nous demandons à tous les laboratoires d'IA d'interrompre immédiatement, pendant au moins six mois, la formation de systèmes d'IA plus puissants que le GPT-4. Cette pause devrait être publique et vérifiable, et inclure tous les acteurs clés. Si une telle pause ne peut être mise en place rapidement, les gouvernements devraient intervenir et instituer un moratoire.

    Les laboratoires d'IA et les experts indépendants devraient profiter de cette pause pour élaborer et mettre en œuvre conjointement un ensemble de protocoles de sécurité communs pour la conception et le développement de l'IA avancée, rigoureusement contrôlés et supervisés par des experts externes indépendants. Ces protocoles devraient garantir que les systèmes qui y adhèrent sont sûrs au-delà de tout doute raisonnable, ce qui ne signifie pas une pause dans le développement de l'IA en général, mais simplement un recul par rapport à la course dangereuse vers des modèles de boîte noire toujours plus grands et imprévisibles, dotés de capacités émergentes.

    Pourquoi s’inquiéter de l’IA ?

    Les arguments avancés par Hinton pour justifier ces craintes renvoient aux dérives théoriques et pratiques de l’IA. D’une part, le simple fait que les machines deviennent plus « intelligentes » que l’homme fait craindre une perte de contrôle : « Les choses plus intelligentes que vous sauront vous manipuler », prédit-il​. D’autre part, les usages déjà observés soulignent des dangers concrets. On y inclut notamment la destruction massive d’emplois par automatisation, la propagation de deepfakes et de désinformation sophistiquée, ou encore une redoutable « course aux armements » entre États développant des systèmes autonomes létaux​.

    Hinton lui-même critique les géants du numérique : il leur reproche de favoriser la rapidité et le profit sur la sécurité, et exige qu’ils consacrent « comme un tiers » de leur capacité de calcul à la recherche en sécurité de l’IA, plutôt qu’une fraction marginale aujourd’hui​. Hinton semble particulièrement déçu par Google, où il a travaillé auparavant, qui a changé de position sur les applications militaires de l'IA.

    Selon Hinton, les entreprises d'IA devraient consacrer beaucoup plus de ressources à la recherche sur la sécurité - « environ un tiers » de leur puissance de calcul, par rapport à la fraction beaucoup plus faible qui leur est actuellement allouée.

    Nom : aI.png
Affichages : 7248
Taille : 456,7 Ko

    Des garde-fous en place et des incertitudes

    Ces mises en garde doivent cependant être mises en perspective. Beaucoup d’experts soulignent que les IA actuelles restent des systèmes « étroits » (narrow AI) sans conscience ni volonté propre. Il n’existe à ce jour aucun signe d’agent « vraiment conscient » réclamant indépendance ou survie. Du coup, selon eux, l’évolution de l’IA peut être contrôlée par des protocoles d’alignement et de sécurité, de même qu’il est toujours possible d’éteindre ou restreindre un système informatique.

    Sur le plan institutionnel, de nombreux cadres éthiques et réglementaires se mettent en place pour encadrer l’IA. L’Union européenne a l’AI Act, un règlement ambitieux qui classe les usages de l’IA en trois niveaux de risque et impose des obligations strictes (transparence, supervision humaine, contrôles techniques) pour les systèmes à haut risque. Au niveau mondial, l’UNESCO a adopté en 2021 la première recommandation internationale sur l’éthique de l’IA, applicable à 193 pays, qui place la protection des droits humains et de la dignité au cœur du développement de l’IA. Des initiatives académiques et civiles participent également à la réflexion : par exemple, la « Déclaration de Montréal » (2018) a défini un ensemble de principes éthiques pour un développement responsable de l’IA « au service du bien-être de tous », avec l’adhésion d’organisations publiques, entreprises et citoyens​

    Enfin, les entreprises elles-mêmes communiquent sur leurs efforts en matière de sûreté. Google DeepMind, OpenAI ou d’autres start-ups de l’IA ont mis en place des équipes dédiées à « l’alignement » et plaident publiquement en faveur d’une régulation adaptée. Sans doute ont-elles intérêt à concilier innovation et sécurité, sachant que de nombreux chercheurs estiment que la confiance du public sera cruciale pour l’acceptabilité à long terme de l’IA.

    Conclusion

    Le débat reste ouvert. D’un côté, Hinton et d’autres experts insistent sur l’extraordinaire rapidité des progrès et les menaces d’une IA hors de contrôle. De l’autre, beaucoup jugent cette vision en partie spéculative et insistent sur la maîtrise humaine, la transparence et la collaboration internationales comme parades. Les pistes de règlementation et de recherche collaborative se multiplient – de la gestion de la « boîte noire » des algorithmes à l’auto-régulation via des principes éthiques – mais il n’existe pas encore de consensus. Ce climat de débat intense montre en tout cas que la communauté mondiale prend au sérieux la question de rendre l’IA à la fois puissante et sûre.

    Sources : vidéo dans le texte, UNESCO

    Et vous ?

    Les craintes de Geoffrey Hinton sont-elles fondées sur des éléments concrets, ou relèvent-elles d'une peur spéculative de la science-fiction ?

    Qui doit être responsable en priorité de la sécurité de l’IA : les entreprises, les gouvernements, ou la communauté scientifique ?

    Peut-on faire confiance aux grandes entreprises du numérique pour s'autoréguler efficacement sur l'IA ?

    Faut-il créer une autorité mondiale de surveillance de l'IA, à l'image de l'Agence internationale de l'énergie atomique pour le nucléaire ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  17. #17
    Communiqués de presse

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Avril 2025
    Messages
    335
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Avril 2025
    Messages : 335
    Par défaut Geoffrey Hinton, « parrain de l'IA » et lauréat du prix Nobel, affirme que l'IA entraînera un chômage massif
    Geoffrey Hinton, « parrain de l'IA » et lauréat du prix Nobel, affirme que cette technologie entraînera un chômage massif et fera grimper les profits : « c'est le système capitaliste ».

    Geoffrey Hinton, le « parrain de l'IA », a déclaré que l'IA rendra les grandes entreprises plus rentables que jamais. Le hic, c'est que le chômage atteindra très certainement des niveaux catastrophiques. « Ce qui va réellement se passer, c'est que les riches vont utiliser l'IA pour remplacer les travailleurs », a déclaré Hinton. « Cela va entraîner un chômage massif et une augmentation considérable des profits. Cela rendra quelques personnes beaucoup plus riches et la plupart des gens plus pauvres. Ce n'est pas la faute de l'IA, c'est celle du système capitaliste. »

    Geoffrey Hinton est un chercheur britanno-canadien spécialiste de l'IA, de la psychologie cognitive et plus particulièrement des réseaux de neurones artificiels. Il est reconnu mondialement comme une figure de proue de l'IA. Il est lauréat de nombreux prix prestigieux comme le prix Nobel de physique (2024), le prix Turing (2019), le prix Rumelhart, le prix IEEE Frank Rosenblatt Award, et bien d'autres encore.

    En janvier, il a déclaré que l'IA représente une menace existentielle pour l'humanité. Il a affirmé que l'IA rendrait la société « de plus en plus mauvaise » en creusant l'écart de richesse entre les individus les plus riches et les plus pauvres. Il a déclaré qu'une superintelligence, ou une IA dont les capacités cognitives dépassent celles des humains dans tous les domaines, apparaîtra d'ici cinq à vingt ans. Selon lui, l'écart de richesse risque d'exacerber les inégalités et les tensions, ce qui offrirait un terrain fertile pour le fascisme et la société pourrait empirer.

    Récemment, le « parrain de l'IA » a déclaré que l'IA rendra les grandes entreprises plus rentables que jamais. Le hic, c'est que le chômage atteindra très certainement des niveaux catastrophiques. « Ce qui va réellement se passer, c'est que les riches vont utiliser l'IA pour remplacer les travailleurs », a déclaré Hinton dans une interview accordée au Financial Times. « Cela va entraîner un chômage massif et une augmentation considérable des profits. Cela rendra quelques personnes beaucoup plus riches et la plupart des gens plus pauvres. Ce n'est pas la faute de l'IA, c'est celle du système capitaliste. »

    Hinton, qui a remporté le prix Nobel l'année dernière, tire la sonnette d'alarme sur la façon dont l'IA pourrait détruire l'économie mondiale si nous la laissons faire. Il estime que des entreprises comme OpenAI, Anthropic et Google — où il a travaillé comme informaticien — développent principalement des modèles d'IA pour rechercher des « profits à court terme ».


    Pour l'instant, les licenciements n'ont pas augmenté, mais de plus en plus d'éléments indiquent que l'IA réduit le nombre d'opportunités pour les débutants, rendant le marché du travail beaucoup plus difficile à pénétrer pour les jeunes diplômés. Une enquête menée par la Banque fédérale de réserve de New York a révélé que les entreprises qui utilisent l'IA sont plus susceptibles de former leurs employés que de les licencier, mais tout ne devrait pas être rose pour la main-d'œuvre à l'avenir. « Les licenciements et les réductions des plans d'embauche liés à l'utilisation de l'IA devraient augmenter, en particulier pour les travailleurs titulaires d'un diplôme universitaire », indique l'enquête.

    En outre, une étude publiée par l’Université de Stanford en août 2025 met en lumière une tendance préoccupante : les jeunes travailleurs de 22 à 25 ans, fraîchement diplômés ou débutants, subissent une baisse de 13 % de l’emploi dans les secteurs exposés à l’automatisation par l’IA. Contrairement aux discours apocalyptiques de suppression massive d’emplois, il ne s’agit pas d’un effondrement global du marché, mais d’un glissement silencieux affectant spécifiquement les premiers échelons professionnels.

    Hinton a déclaré que le secteur de la santé est un secteur unique qui ne sera pas affecté par l'IA, même si cette technologie aidera certainement les médecins et les professionnels de la santé dans leur travail. « Si l'on pouvait rendre les médecins cinq fois plus efficaces, nous pourrions tous bénéficier de cinq fois plus de soins de santé pour le même prix », a déclaré Hinton dans la série YouTube Diary of a CEO en juin. « Il n'y a pratiquement aucune limite à la quantité de soins de santé que les gens peuvent absorber : [les patients] veulent toujours plus de soins de santé si cela ne leur coûte rien. »

    Selon lui, l'IA peut rendre les soins de santé plus efficaces simplement en absorbant d'énormes volumes d'informations et en apprenant à partir de celles-ci plus rapidement qu'un être humain ne pourrait jamais espérer le faire. « Elle sera beaucoup plus performante pour lire des images médicales, par exemple », a-t-il déclaré. « Elle peut examiner des millions de radiographies et en tirer des enseignements. Un médecin en est incapable. »

    Mais en avril dernier, il a fait une prédiction terrifiante selon laquelle l'IA aurait « 10 à 20 % de chances » de prendre le dessus et de devenir plus intelligente que les humains. Dans son interview avec le Financial Times, Hinton a rejeté la solution proposée par Sam Altman, PDG d'OpenAI, au problème de l'emploi, qui consiste à verser un revenu de base universel aux personnes lorsque l'IA commence à supplanter le travail humain. Il a déclaré que cela ne résoudrait pas la question de la « dignité humaine », car beaucoup de gens tirent leur raison d'être de leur travail.

    Pourtant, une étude de Microsoft a révélé que les rôles liés à la création de contenu et au langage seront fortement touchés par l'IA. Les interprètes, les rédacteurs et les rôles liés au service client sont particulièrement menacés. Les emplois manuels et en temps réel, tels que ceux de chirurgien ou de mécanicien, sont moins touchés. L'étude montre également comment l'IA est susceptible d'aider les travailleurs à améliorer leur efficacité et à accomplir des tâches plus complexes. "À l'heure actuelle, aucune profession n'est entièrement exercée par l'IA", souligne l'étude. "Même dans les secteurs à fort impact, le jugement humain, la créativité et la surveillance éthique restent essentiels."

    Hinton a également averti que l'IA pourrait avoir des implications géopolitiques désastreuses, permettant éventuellement à des acteurs non étatiques de fabriquer une arme biologique. Il a déploré la réticence de l'administration Trump à réglementer l'IA de manière plus stricte, alors que la Chine, selon lui, prend cette menace plus au sérieux. « Nous ne savons pas ce qui va se passer, nous n'en avons aucune idée, et ceux qui prétendent savoir ce qui va se passer sont tout simplement ridicules », a déclaré Hinton. « Nous sommes à un moment de l'histoire où quelque chose d'extraordinaire est en train de se produire, et cela peut être extraordinairement positif, ou extraordinairement négatif. Nous pouvons faire des suppositions, mais les choses ne resteront pas telles qu'elles sont. »

    Source : Geoffrey Hinton dans une interview accordée au Financial Times

    Et vous ?

    Pensez-vous que ces déclarations sont crédibles ou pertinentes ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Geoffrey Hinton, « parrain de l'IA », déclare être « heureux d'avoir 77 ans » pour échapper à une éventuelle prise de contrôle de l'IA, comparant l'évolution de la technologie à élever un tigre sans cage

    L'IA pourrait creuser le fossé entre riches et pauvres et faire disparaître les emplois de premier échelon, alors que les entreprises ont commencé à intégrer l'IA dans leurs activités quotidiennes

    Le chômage dans le secteur des technologies de l'information atteint 5,7 % alors que l'IA frappe les emplois dans le secteur technologique. L'IA supprime des emplois à un rythme plus accéléré qu'elle en crée
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  18. #18
    Membre éprouvé
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    2 195
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : Singapour

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 2 195
    Par défaut
    il faudrait que les salariés investissent d'avantages dans les entreprises.
    si tous le monde était actionnaire, tous le monde profiterait du systeme.

    Ca prends du temps (minimum 20ans) pour profiter de l'effet de levier, perso a partir de mon 1er salaire j'arrivais a investir minimum 800€, alors oui je faisais attention a mes dépenses et je vivais pas au dessus de mes moyens (petit appart, vielle bagnole pas cher, smartphone non premium...)

    Je veux bien trouver des excuses aux bas salaires, mais en france j'en voyais énormément aussi remplir a fond le livret A (avec un taux qui a toujours été inférieur a l'inflation, vous perdez de l'argent) et faire des loa/ldd sur des suv et avoir le dernier iphone/samsung galaxy ultra.
    D'autres acheter des maisons bien trop cher (trop long a amortir), et bien trop grande pour leurs besoins (donc taxes foncières et entretiens plus élevés).

    A singapour, beaucoup de mes voisins millionnaires vivent dans des apparts sans prétentions et n'ont pas de voiture par exemple.
    et le midi mange un repas classique (mais bon pour la santé) au mall à 3€.
    ce midi j'ai mangé un Yong tau foo à 4€ par ex.

    enfin les bas salaires.... etre ouvrier au smic c'est bien pour du dépannage mais ca ne devrait pas etre une carriere d'une vie. a un moment donné faut soit se mettre à son compte soit se former et faire autre chose.
    Alors oui c'est facile de donner des conseils, mais en même temps j'ai transpirer en prepa/école d'ingé, j'ai cravacher mon anglais pour partir a l'international, j'ai jamais beaucoup dépensé d'argent, jamais rouler en belle voiture, jamais acheter du matos premium style un iphone ou une rolex, toujours vécu dans des "passoires thermique", toujours vécu l'hiver à 18 degré max, jamais allé au cinéma et je devais faire 1 restaurant max par ans payé avec des chèques vacances ou carte restaurant.... et j'ai tous quitté mon payse. Rien n'a été simple et rien n'es simple, mais je suis un exemple que faire des efforts sa paye.
    perso en france je preferais mettre 50€ dans un etf que d'aller manger au resto, je mangeais bien mieux à la maison et pour moins cher. Le midi je faisais souvent ma gamelle, toujours eu des abonnement téléphonique entre 5 et 10€ l'assurance voiture au tier et je la réparais moi même, j'ai jamais eu d'abonnement de ma vie, jamais été chez le coiffeur...etc.
    La France est un pays qui redistribue tout sauf de l'espoir.

  19. #19
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    10 538
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 10 538
    Par défaut
    Citation Envoyé par Alex Voir le message
    Récemment, le « parrain de l'IA » a déclaré que l'IA rendra les grandes entreprises plus rentables que jamais. Le hic, c'est que le chômage atteindra très certainement des niveaux catastrophiques. « Ce qui va réellement se passer, c'est que les riches vont utiliser l'IA pour remplacer les travailleurs », a déclaré Hinton dans une interview accordée au Financial Times. « Cela va entraîner un chômage massif et une augmentation considérable des profits. Cela rendra quelques personnes beaucoup plus riches et la plupart des gens plus pauvres. Ce n'est pas la faute de l'IA, c'est celle du système capitaliste. »
    Je pense également que c'est un scénario qui peut avoir lieu.
    Par contre je ne sais pas si les profits vont durer longtemps, parce que les chômeurs ne peuvent pas beaucoup consommer.
    Au bout d'un moment ça ne sert à rien de produire des biens et des services si personne n'a les moyens de se les payer.

    Citation Envoyé par calvaire Voir le message
    si tous le monde était actionnaire, tous le monde profiterait du systeme.
    Il y aurait plus de perdants que de gagnants.
    Devenir un parasite d'actionnaire c'est risqué. Ça prend du temps, ça fait stresser.

    Citation Envoyé par calvaire Voir le message
    enfin les bas salaires.... etre ouvrier au smic c'est bien pour du dépannage mais ca ne devrait pas etre une carriere d'une vie. a un moment donné faut soit se mettre à son compte soit se former et faire autre chose.
    Vu qu'ils gagnent peu, ils ne peuvent pas mettre de côté pour se permettre de démissionner et de faire une formation.
    Et de toute façon une formation de quoi ?
    En France il y a des BAC+5 avec les statuts cadre/ingénieur qui gagnent moins de 2500€ net/mois.

    Vu la situation du monde du travail aujourd'hui, c'est risqué de se dire "l'augmentation de salaire est trop faible, je vais démissionner et essayer de trouver mieux ailleurs", c'est un coup à finir au RSA.

  20. #20
    Membre éprouvé
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    2 195
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : Singapour

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 2 195
    Par défaut
    Citation Envoyé par Ryu2000 Voir le message
    Vu qu'ils gagnent peu, ils ne peuvent pas mettre de côté pour se permettre de démissionner et de faire une formation.
    Et de toute façon une formation de quoi ?
    En France il y a des BAC+5 avec les statuts cadre/ingénieur qui gagnent moins de 2500€ net/mois.

    Vu la situation du monde du travail aujourd'hui, c'est risqué de se dire "l'augmentation de salaire est trop faible, je vais démissionner et essayer de trouver mieux ailleurs", c'est un coup à finir au RSA.
    pas vraiment non, tous ceux que je connais qui ont fait des emplois manuels et sont devenue auto entrepreneurs gagne plus que le cadre moyen à la défense.
    garagiste, plombier, électricien, entretiens des espaces vert, kiné, infirmière libérale... on atteint très vite les 4000€ net par mois.


    enfin, pour la formation j'avais plus en tete la formation le soir apres le boulot ou le weekend.
    en informatique je me forme sur les technos qui ont la cote auprès des employeurs le soir/le weekend, j'ai pas attendu une formation bidon france travail.
    mais tu montres la tous le problème: la mentalité paresseuse de beaucoup qui attendent qu'on leurs mache le boulot. Avec internet et chatgpt on peut tous se former, il y'a des écoles et des formations certifiante online et ou l'on peut donc travailler a n'importe quel heure de la journée ou de la nuit. Donc meme l'ouvrier au smic en horaire décalé peut se former.
    La France est un pays qui redistribue tout sauf de l'espoir.

Discussions similaires

  1. Réponses: 18
    Dernier message: 17/12/2016, 17h57
  2. Réponses: 8
    Dernier message: 16/12/2010, 19h03
  3. Réponses: 0
    Dernier message: 14/12/2010, 14h50
  4. Réponses: 2
    Dernier message: 19/11/2009, 04h12
  5. Réponses: 20
    Dernier message: 20/12/2007, 21h58

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo