IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Geoffrey Hinton affirme que l'IA ne sera rentable que si la main-d’œuvre humaine est remplacée


Sujet :

Intelligence artificielle

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 336
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 336
    Par défaut Geoffrey Hinton affirme que l'IA ne sera rentable que si la main-d’œuvre humaine est remplacée
    Geoffrey Hinton, une des figures de proue de l’apprentissage profond, quitte Google pour être libre de parler des dangers de l’IA
    Dont la désinformation et l’élimination des humains par les robots

    Geoffrey Hinton, un des pionniers de l'apprentissage profond, a quitté son emploi chez Google pour être libre de parler des dangers de l'intelligence artificielle. Sa préoccupation immédiate : la désinformation. Sur le long terme, il craint que l’intelligence artificielle n’élimine les humains lorsqu’elle commencera à écrire et à exécuter son propre code informatique.

    Nom : 0.png
Affichages : 18038
Taille : 61,3 Ko

    Google a dévoilé Bard, sa réponse à ChatGPT, au début du mois de février suite à une alerte rouge lancée en son sein contre le chatbot de l’entreprise OpenAI. « Il pourrait être impossible de mettre un terme à cette concurrence féroce, qui aboutirait à un monde contenant tellement d'images et de textes truqués que plus personne ne serait en mesure de dire ce qui est vrai », déclare Hinton dans le cadre d’un récent entretien. Et c’est ce que confirment de récents développements en lien avec ChatGPT et Google Bard.


    Google Bard contre ChatGPT et les dangers en lien avec la qualité de l’information

    Google a annoncé l’intégration de l’IA conversationnelle à son moteur de recherches il y a peu. La décision n’est pas inattendue. En effet, elle fait suite au lancement par Microsoft d’une version de son propre moteur de recherches Bing qui s’appuie sur ChatGPT.

    Ce qu’on sait de ces intelligences artificielles d’OpenAI et de Google est qu’il s’agit de chatbots capable de comprendre le langage naturel et de répondre en langage naturel. Elles peuvent donner de façon directe des solutions à des problèmes complexes. C’est la raison pour laquelle certaines institutions universitaires en interdisent l’usage à leurs étudiants. Le professeur Arvind Narayanan de l’université de Princeton tire néanmoins la sonnette d’alarme sur la pertinence de s’appuyer sur des moteurs de recherche intégrant ces chatbots en déclarant que c’est de la « poudre de perlimpinpin. »

    « Sayash Kapoor et moi-même l'appelons un générateur de conneries, comme d'autres l'ont aussi fait. Nous n'entendons pas cela dans un sens normatif mais dans un sens relativement précis. Nous voulons dire qu'il est entraîné à produire des textes plausibles. Il est très bon pour être persuasif, mais il n'est pas entraîné à produire des déclarations vraies. Il produit souvent des affirmations vraies comme effet secondaire de sa plausibilité et de sa persuasion, mais ce n'est pas son objectif.

    Cela correspond en fait à ce que le philosophe Harry Frankfurt a appelé connerie, c'est-à-dire un discours destiné à persuader sans se soucier de la vérité. Un conteur humain ne se soucie pas de savoir si ce qu'il dit est vrai ou non ; il a certaines fins en tête. Tant qu'il persuade, ces objectifs sont atteints. En fait, c'est ce que fait ChatGPT. Il essaie d'être persuasif et il n'a aucun moyen de savoir avec certitude si les déclarations qu'il fait sont vraies ou non », déclare-t-il à propos de ChatGPT.

    D’ailleurs, une mouture de Microsoft Bing a affiché 2,5 milliards de personnes en réponse à la question de savoir quelle est la population de la planète Mars. La situation soulève la question de savoir si la montée en puissance de l’intelligence artificielle ne va pas plutôt amener les humains à travailler plus dur pour lutter contre la désinformation.

    Nom : 1.png
Affichages : 3802
Taille : 361,4 Ko

    Un GIF partagé par Google montre Bard répondant à la question : « De quelles nouvelles découvertes du télescope spatial James Webb puis-je parler à mon enfant de 9 ans ? » Bard propose une liste à puces de trois éléments, parmi lesquels un élément indiquant que le télescope « a pris les toutes premières images d'une planète en dehors de notre propre système solaire. »

    Nom : 2.png
Affichages : 5234
Taille : 101,8 Ko

    Cependant, un certain nombre d'astronomes sur Twitter ont souligné que c'était incorrect et que la première image d'une exoplanète avait été prise en 2004 - comme indiqué sur le site Web de la NASA (voir en source) : « Ce n'est pas pour faire mon connard (en fait, si finalement) et je suis sûr que Bard sera impressionnant, mais pour mémoire : JWST n'a pas pris 'la toute première image d'une planète en dehors de notre système solaire' », a tweeté l'astrophysicien Grant Tremblay.

    Nom : 3.png
Affichages : 5149
Taille : 69,2 Ko

    C’est cette imprécision qui a poussé les développeurs et les experts de la filière à avertir que cette technologie ne devrait pas être utilisée pour prendre des décisions importantes pour le moment.

    L’intelligence artificielle générale serait plus proche qu’on ne le pense et avec elle des risques d’élimination des humains par les robots

    « L'idée que l'IA puisse devenir plus intelligente que les gens, quelques personnes y ont cru. Mais la plupart des gens pensaient que c'était une erreur. Et je pensais personnellement que c'était loin d'être le cas. Je me disais qu'il fallait attendre dans les 30 à 50 ans, voire plus. Évidemment, je ne le pense plus », ajoute-t-il. Ce dernier vient donc rejoindre des acteurs de la filière technologique comme Elon Musk qui sont d’avis que l’intelligence artificielle va surpasser les capacités cognitives des Hommes.

    « Ça fait dix ans que je lance cette alerte. Nous devrions nous inquiéter de la direction que prend l'intelligence artificielle. Les personnes que je vois se tromper le plus sur ce sujet sont celles qui sont très intelligentes, ce, parce qu'elles ne peuvent pas imaginer qu'un ordinateur puisse être beaucoup plus intelligent qu'elles. C'est la faille de leur raisonnement. Elles sont juste beaucoup plus bêtes qu'elles ne le pensent », rapporte un correspondant du Financial Times.

    De 2017 (où Elon Musk affirmait que l’intelligence artificielle est un risque fondamental pour l’humanité) à 2020 en passant par 2019 (où il a déclaré que l’IA est bien plus dangereuse que l’arme nucléaire), la position du milliardaire de la Tech. sur la question reste donc constante. Les craintes d’Elon Musk portent notamment sur ceci que les avancées dans la filière pourraient déboucher sur une intelligence artificielle dite générale (AGI). Ce serait alors la porte ouverte sur l’accomplissement de l’apocalypse. Des équipes de recherche comme celle d’OpenAI sont lancées sur ce couloir. Si l’on se réfère à des retours de scientifiques œuvrant dans le domaine, l’AGI pourrait nous tomber dessus dans 5 à 10 ans.

    Les machines seraient alors dotées de « bon sens. » Au stade d’intelligence artificielle générale, elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. » C’est ce palier que les équipes de recherche dans le domaine visent. C’est d’ailleurs pour cela que sa société Neuralink travaille sur des interfaces cerveau – machine à insérer dans le crâne pour préparer l’humanité à un « funeste » futur où les robots domineront sur elle.

    Source : NYT

    Et vous ?

    Quelle pertinence trouvez-vous à ces différents propos en lien avec l’intelligence artificielle ? Sont-ils plus sensationnalistes qu’autre chose ?
    Voyez-vous la recherche en la matière aboutisse à l’intelligence artificielle générale ?

    Voir aussi :

    L'IA de génération de texte d'Elon Musk trop dangereuse pour être rendue publique, selon ses créateurs
    Le projet de tunnel du milliardaire de la tech Elon Musk est-il une vaste blague ? The Boring Company a inauguré son premier tunnel anti-bouchons
    Neuralink, le projet d'Elon Musk pour qu'un cerveau humain interagisse directement avec un PC et l'Homme fusionne avec l'IA, aberration ou fiction ?
    Elon Musk rappelle qu'en rendant publics les brevets Tesla, il a œuvré pour le bien de la planète et l'essor du marché des véhicules électriques
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre éprouvé
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    2 264
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : Singapour

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 2 264
    Par défaut
    le problème c'est que si demain y'a plus personne pour écrire des pages web avec du vrai contenus, ces ia vont tourner en rond.

    C'est ce qui pourrait bien se produire, si demain tous le monde abandonne les sites web au profit de chatgpt, plus aucun site web ne pourra fonctionner (soit car pas d'argent car personne ne voit plus les pub, soit car y'aura plus aucune fréquentation alors pourquoi tenir un blog de qualité si personne pour le lire...)
    ca va faire du surplace tôt ou tard car ces ia ne crée rien.

    si demain on les programmes pour écrire du contenus, elle apprendra sur elle même par la suite, donc sur ces propres conneries...

  3. #3
    Membre éclairé Avatar de onilink_
    Profil pro
    Inscrit en
    Juillet 2010
    Messages
    613
    Détails du profil
    Informations personnelles :
    Âge : 34
    Localisation : France

    Informations forums :
    Inscription : Juillet 2010
    Messages : 613
    Par défaut
    Citation Envoyé par calvaire Voir le message
    le problème c'est que si demain y'a plus personne pour écrire des pages web avec du vrai contenus, ces ia vont tourner en rond.

    C'est ce qui pourrait bien se produire, si demain tous le monde abandonne les sites web au profit de chatgpt, plus aucun site web ne pourra fonctionner (soit car pas d'argent car personne ne voit plus les pub, soit car y'aura plus aucune fréquentation alors pourquoi tenir un blog de qualité si personne pour le lire...)
    ca va faire du surplace tôt ou tard car ces ia ne crée rien.

    si demain on les programmes pour écrire du contenus, elle apprendra sur elle même par la suite, donc sur ces propres conneries...
    Je pense qu'on peut considérer que le web dont tu parles est déjà mort depuis des années.

    developpez.net est un des derniers forum actif que je fréquente. Tous les forums, qui étaient très vivants il y a une dizaine d'année ont totalement été désertés et remplacés (en moins bien) par les réseaux sociaux. Pareil les blogs ont tendance à disparaître.

    On a aussi tendance à oublier une chose, c'est que le web d'il y a 20-30 ans c'était beaucoup de sites auto hébergés. De nos jours c'est devenu trivial de faire son site web et de l'auto héberger, par exemple sur un raspberry pi. Et ça coûte presque rien, donc pas besoin de pubs. Pourtant je ne connais personne qui le fait.

    La tendance actuelle est à alimenter des grosses plateformes, qui se font leur beurre sur les utilisateurs. Mais tout est déjà très centralisé.
    Même dans les sites commerciaux se font absorber par de grosses plateformes style Amazon.

    Puis tout le contenu produit est devenu très "consommation". Comme tu le relèves les plateformes sont à la course à la pub. Et c'est pas le contenu de qualité qui génère de la vue, mais du contenu produit en masse.

    Bref je pense juste que ChatGPT et ces technos vont exacerber un problème qui était déjà bien présent.
    Moi ce qui me fait le plus peur, c'est les entreprises qui sont derrière, comme OpenAI, qui considèrent le contenu d'internet comme leur appartenant.
    Demain leur bot crawl un site web et hop, leur ChatGPT à ingurgité les données (pourtant protégées par le droit d'auteur) sans aucun consentement.

    On se rappellera aussi l'épisode de Copilot. Pour l'instant limité à github, mais rien ne dit qu'ils n'iront pas plus loin...

  4. #4
    Membre éprouvé
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    2 264
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : Singapour

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 2 264
    Par défaut
    Citation Envoyé par onilink_ Voir le message
    Je pense qu'on peut considérer que le web dont tu parles est déjà mort depuis des années.

    developpez.net est un des derniers forum actif que je fréquente. Tous les forums, qui étaient très vivants il y a une dizaine d'année ont totalement été désertés et remplacés (en moins bien) par les réseaux sociaux. Pareil les blogs ont tendance à disparaître.

    On a aussi tendance à oublier une chose, c'est que le web d'il y a 20-30 ans c'était beaucoup de sites auto hébergés. De nos jours c'est devenu trivial de faire son site web et de l'auto héberger, par exemple sur un raspberry pi. Et ça coûte presque rien, donc pas besoin de pubs. Pourtant je ne connais personne qui le fait.

    La tendance actuelle est à alimenter des grosses plateformes, qui se font leur beurre sur les utilisateurs. Mais tout est déjà très centralisé.
    Même dans les sites commerciaux se font absorber par de grosses plateformes style Amazon.

    Puis tout le contenu produit est devenu très "consommation". Comme tu le relèves les plateformes sont à la course à la pub. Et c'est pas le contenu de qualité qui génère de la vue, mais du contenu produit en masse.

    Bref je pense juste que ChatGPT et ces technos vont exacerber un problème qui était déjà bien présent.
    Moi ce qui me fait le plus peur, c'est les entreprises qui sont derrière, comme OpenAI, qui considèrent le contenu d'internet comme leur appartenant.
    Demain leur bot crawl un site web et hop, leur ChatGPT à ingurgité les données (pourtant protégées par le droit d'auteur) sans aucun consentement.

    On se rappellera aussi l'épisode de Copilot. Pour l'instant limité à github, mais rien ne dit qu'ils n'iront pas plus loin...
    il existe encore des blogs francophone de qualité comme minimachines.net ou des forums de passionnés comme win3x.org.
    et aussi wikipedia qui contient du texte de qualité.

    le reste c'est inutile pour une ia, je vois pas comment on peut entrainer un chatbot de qualité avec le contenu qu'on trouve sur facebook ou twitter.
    peut etre en volant la retranscription youtube pour des videos de qualité (comme ceux la chaine science étonnante)

    dans tous les cas les contenus de qualités se font de plus en plus rare, obtenir un bon dataset de qualité et a jours sera de plus en plus complexe.
    OpenAI a d'ailleurs son dataset périmé de 2ans (2021), en informatique 2 ans c'est énorme, c'est pleins de fonction déprécié et de framework abandonnée.

    Par contre oui, se pose un gros probleme de l'accés a ces données... ces ia volent le travail des autres pour une utilisation commercial.
    J'aimerais bien demain une licence interdisant la lecture du code ou des photos pour être exploité pour du machine learning, ca va etre drole...
    on va y venir, les artistes, développeurs et scientifiques vont peut être en voir marre de se faire voler leurs travail sans en retirer d'argent, surtout si demain ca commence a licencier et les remplacer par chatgpt.

  5. #5
    Membre éclairé Avatar de onilink_
    Profil pro
    Inscrit en
    Juillet 2010
    Messages
    613
    Détails du profil
    Informations personnelles :
    Âge : 34
    Localisation : France

    Informations forums :
    Inscription : Juillet 2010
    Messages : 613
    Par défaut
    Citation Envoyé par calvaire Voir le message
    le reste c'est inutile pour une ia, je vois pas comment on peut entrainer un chatbot de qualité avec le contenu qu'on trouve sur facebook ou twitter.
    peut etre en volant la retranscription youtube pour des videos de qualité (comme ceux la chaine science étonnante)
    Je pense que tout dépend ce qu'on appelle "qualité". Les critères ne sont pas les même selon le résultat voulus.

    Pour le cas de ChatGPT l'idée a la base était surtout de faire un modèle étonnamment humain, et capable de converser.
    Même des discutions de "mauvaise qualité" sur des réseaux sociaux peuvent faire l'affaire, puisque ça donne justement ce côté plus "naturel".

    Puis quitte a "voler" un peu tout ce qui passe, il y a énormément d'ouvrages numérisés, ou le texte sera de "qualité".

    Ensuite des entreprises comme google on accès a des datasets énormes directement depuis leur bases utilisateur:
    - complétion de texte sur android
    - mails sur gmail
    - commentaires sur leurs plateformes

    C'est aussi eux qui "crawl" le plus internet et évaluent les sites pour améliorer les recherches, donc j'imagine qu'ils ont pas mal de métriques pour définir la "qualité" d'un site pour l'utiliser dans leurs datasets.

    D’où l'importance de définir des limites juridiques sur les données d'apprentissage...

  6. #6
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 959
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 959
    Par défaut La menace que l'IA fait peser sur le monde pourrait être "plus urgente" que le changement climatique
    La menace que l'IA fait peser sur le monde pourrait être "plus urgente" que le changement climatique, selon Geoffrey Hinton, un des pionniers de la recherche en intelligence artificielle

    L'intelligence artificielle pourrait constituer une menace "plus urgente" pour l'humanité que le changement climatique, a déclaré Geoffrey Hinton, pionnier de l'IA, dans une interview accordée à Reuters.

    Geoffrey Hinton, largement connu comme l'un des "parrains de l'IA", a récemment annoncé qu'il quittait Alphabet après une décennie passée au sein de l'entreprise, expliquant qu'il souhaitait s'exprimer sur les risques de la technologie sans que cela n'affecte son ancien employeur.

    Les travaux de M. Hinton sont considérés comme essentiels au développement des systèmes d'IA contemporains. En 1986, il a cosigné l'article fondateur "Learning representations by back-propagating errors", une étape importante dans le développement des réseaux neuronaux qui sous-tendent la technologie de l'IA. En 2018, il a reçu le prix Turing en reconnaissance de ses avancées en matière de recherche.

    Mais il fait désormais partie d'un nombre croissant de leaders technologiques qui s'inquiètent publiquement de la menace que pourrait représenter l'IA si les machines parvenaient à être plus intelligentes que les humains et à prendre le contrôle de la planète.

    "Je ne voudrais pas dévaloriser le changement climatique. Je ne voudrais pas dire : "Vous ne devriez pas vous inquiéter du changement climatique". C'est aussi un risque énorme", a déclaré M. Hinton. "Mais je pense que cette question pourrait s'avérer plus urgente."

    Il a ajouté : "En ce qui concerne le changement climatique, il est très facile de recommander ce qu'il faut faire : il suffit d'arrêter de brûler du carbone. Si vous faites cela, les choses finiront par s'arranger. Dans le cas du changement climatique, ce qu'il faut faire n'est pas du tout clair".

    Nom : G. Hinton IA.png
Affichages : 4174
Taille : 280,0 Ko

    OpenAI, soutenue par Microsoft, a donné le coup d'envoi d'une course à l'armement technologique en novembre, en mettant à la disposition du public le chatbot ChatGPT, alimenté par l'IA. Il est rapidement devenu l'application à la croissance la plus rapide de l'histoire, atteignant 100 millions d'utilisateurs mensuels en deux mois.

    En avril, Elon Musk, PDG de Twitter, s'est joint à des milliers de personnes pour signer une lettre ouverte appelant à une pause de six mois dans le développement de systèmes plus puissants que le GPT-4 récemment lancé par OpenAI.

    Parmi les signataires figuraient Emad Mostaque, PDG de Stability AI, des chercheurs de DeepMind, propriété d'Alphabet, et d'autres pionniers de l'IA, Yoshua Bengio et Stuart Russell.

    Si M. Hinton partage l'inquiétude des signataires, qui craignent que l'IA ne constitue une menace existentielle pour l'humanité, il n'est pas d'accord avec l'idée d'interrompre la recherche.

    "C'est totalement irréaliste", a-t-il déclaré. "Je suis de ceux qui pensent qu'il s'agit d'un risque existentiel et qu'il est suffisamment proche pour que nous travaillions très dur dès maintenant et que nous consacrions beaucoup de ressources à déterminer ce que nous pouvons faire à ce sujet."

    Dans l'Union européenne, un comité de législateurs a répondu à la lettre de M. Musk en demandant au président américain Joe Biden d'organiser un sommet mondial sur l'orientation future de la technologie avec la présidente de la Commission européenne Ursula von der Leyen.

    Début mai, la commission a adopté une série de propositions historiques concernant l'IA générative, qui obligeraient les entreprises comme OpenAI à divulguer tout matériel protégé par des droits d'auteur utilisé pour entraîner leurs modèles.

    Entre-temps, M. Biden s'est entretenu avec un certain nombre de dirigeants d'entreprises d'IA, dont Sundar Pichai, PDG d'Alphabet, et Sam Altman, PDG d'OpenAI, à la Maison-Blanche, promettant une "discussion franche et constructive" sur la nécessité pour les entreprises d'être plus transparentes au sujet de leurs systèmes.

    "Les leaders de la technologie sont ceux qui comprennent le mieux le problème, et les politiciens doivent être impliqués", a déclaré M. Hinton. "Cela nous concerne tous, nous devons donc tous y réfléchir."

    Source : Reuters

    Et vous ?

    Quel est votre avis sur le sujet ?

    Trouvez-vous que les préoccupations de M. Hinton sont pertinentes et fondées ?

    Êtes-vous d'accord avec l'avis de M. Hinton selon lequel il est "irréaliste" d'interrompre la recherche en IA ?

    Selon vous, l'IA devrait-elle faire l'objet d'une réglementation et d'une orientation mondiale comme le préconisent certains législateurs ?

    Voir aussi

    Geoffrey Hinton, une des figures de proue de l'apprentissage profond, quitte Google pour être libre de parler des dangers de l'IA dont la désinformation et l'élimination des humains par les robots

    L'UE envisagerait des règles très strictes pour les chatbots dans le cadre de son projet de loi sur l'IA elle devrait exiger la divulgation de l'utilisation du matériel protégé par le droit d'auteur

    ChatGPT a enregistré une augmentation de 83 % en termes de trafic Web, et rivalise désormais avec Bing, la France est la 5è source de trafic pour le chatbot d'OpenAI, selon Similarweb

    Elon Musk et un groupe d'experts en IA demandent à tous les laboratoires d'IA d'interrompre la formation de systèmes d'IA plus puissants que le GPT-4, citant des risques pour la société
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  7. #7
    Rédacteur

    Avatar de SQLpro
    Homme Profil pro
    Expert bases de données / SQL / MS SQL Server / Postgresql
    Inscrit en
    Mai 2002
    Messages
    22 021
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Var (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Expert bases de données / SQL / MS SQL Server / Postgresql
    Secteur : Conseil

    Informations forums :
    Inscription : Mai 2002
    Messages : 22 021
    Billets dans le blog
    6
    Par défaut
    Citation Envoyé par Anthony Voir le message
    La menace que l'IA fait peser sur le monde pourrait être "plus urgente" que le changement climatique...
    Oui, c'est parfait pur les entreprises de la tech américaines... Comme ça on va pouvoir oublier l'écologie qui nous fait chier pour se consacrer à la bêtise naturelle (pardon, l'intelligence artificielle)...
    On va donc laisser tranquille les plus gros consommateurs d’électricité du monde, ultra pollueur, anti écologique que sont les GAFA ! Pour dépenser toute notre énergie à combattre l'IA !

    Merci Monsieur Geoffrey Hinton

    A +
    Frédéric Brouard - SQLpro - ARCHITECTE DE DONNÉES - expert SGBDR et langage SQL
    Le site sur les SGBD relationnels et le langage SQL: http://sqlpro.developpez.com/
    Blog SQL, SQL Server, SGBDR : http://blog.developpez.com/sqlpro
    Expert Microsoft SQL Server - M.V.P. (Most valuable Professional) MS Corp.
    Entreprise SQL SPOT : modélisation, conseils, audit, optimisation, formation...
    * * * * * Expertise SQL Server : http://mssqlserver.fr/ * * * * *

  8. #8
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 336
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 336
    Par défaut « L’IA peut finir par dominer les humains », d’après Geoffrey Hinton, l'un des pionniers du deep learning
    « L’IA peut finir par dominer les humains », d’après Geoffrey Hinton, l’un des pionniers de l’apprentissage profond
    Qui cite des facteurs algorithmiques qui définissent sa limite d’évolution

    Geoffrey Hinton a quitté Google à mi-parcours de l’année qui tire à son terme dans le but d’être libre de parler des dangers de l’intelligence artificielle. Depuis lors, il multiplie les sorties à ce sujet et reste constant sur sa position selon laquelle l’IA fait peser une menace sur l’humanité. C’est une redite de prises de position d’observateurs comme Elon Musk selon lesquels ce n’est qu’une question de temps avant que l’intelligence artificielle ne surpasse les humains en tout. Et certains facteurs d’ordre algorithmique permettraient de soutenir cette affirmation. C’est en tout cas ce que met en avant Geoffrey Hinton pour déboucher sur la notion de « principe d’évolution. »

    « Ce que nous avons fait, c'est concevoir l'algorithme d'apprentissage. C'est un peu comme concevoir le principe de l'évolution. Mais lorsque cet algorithme d'apprentissage interagit avec les données, il produit des réseaux neuronaux compliqués qui sont capables de faire certaines choses. Mais nous ne comprenons pas exactement comment ils font ces choses », souligne Geoffrey Hinton. En d’autres termes, l’humain conçoit l’algorithme d’apprentissage ou « principe d’évolution » de l’IA.

    Cependant, sa mise en œuvre débouche sur une espèce d’entité informatique qui finit par devenir un objet de curiosité pour le chercheur de la filière lui-même. Et c’est là que se trouve le danger comme le souligne Hinton : « Dès que les choses deviennent vraiment complexes nous ne savons pas plus ce qui se passe que nous savons ce qui se passe dans nos propres cerveaux. » C’est en cela que la question de savoir comment est-ce que les humains sauront qu’ils ont atteint une forme d’intelligence artificielle générale prend tout son sens.

    « Nous entrons dans une période de grande incertitude où nous sommes confrontés à des choses que nous n'avons jamais faites auparavant. Et normalement, la première fois que l'on s'attaque à quelque chose de totalement nouveau, on se trompe. Et nous ne pouvons pas nous permettre de nous tromper dans ce domaine », prévient-il.


    L’intelligence artificielle générale serait plus proche qu’on ne le pense et avec elle des risques d’élimination des humains par les robots

    « L'idée que l'IA puisse devenir plus intelligente que les gens, quelques personnes y ont cru. Mais la plupart des gens pensaient que c'était une erreur. Et je pensais personnellement que c'était loin d'être le cas. Je me disais qu'il fallait attendre dans les 30 à 50 ans, voire plus. Évidemment, je ne le pense plus », ajoute Hinton. Ce dernier vient donc rejoindre des acteurs de la filière technologique comme Elon Musk qui sont d’avis que l’intelligence artificielle va surpasser les capacités cognitives des Hommes.

    « Ça fait dix ans que je lance cette alerte. Nous devrions nous inquiéter de la direction que prend l'intelligence artificielle. Les personnes que je vois se tromper le plus sur ce sujet sont celles qui sont très intelligentes, ce, parce qu'elles ne peuvent pas imaginer qu'un ordinateur puisse être beaucoup plus intelligent qu'elles. C'est la faille de leur raisonnement. Elles sont juste beaucoup plus bêtes qu'elles ne le pensent », rapporte un correspondant du Financial Times.

    De 2017 (où Elon Musk affirmait que l’intelligence artificielle est un risque fondamental pour l’humanité) à 2020 en passant par 2019 (où il a déclaré que l’IA est bien plus dangereuse que l’arme nucléaire), la position du milliardaire de la Tech. sur la question reste donc constante. Les craintes d’Elon Musk portent notamment sur ceci que les avancées dans la filière pourraient déboucher sur une intelligence artificielle dite générale (AGI). Ce serait alors la porte ouverte sur l’accomplissement de l’apocalypse. Des équipes de recherche comme celle d’OpenAI sont lancées sur ce couloir. Si l’on se réfère à des retours de scientifiques œuvrant dans le domaine, l’AGI pourrait nous tomber dessus dans 5 à 10 ans.

    Les machines seraient alors dotées de « bon sens. » Au stade d’intelligence artificielle générale, elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. » C’est ce palier que les équipes de recherche dans le domaine visent. C’est d’ailleurs pour cela que sa société Neuralink travaille sur des interfaces cerveau – machine à insérer dans le crâne pour préparer l’humanité à un « funeste » futur où les robots domineront sur elle.

    Source : Geoffrey Hinton

    Et vous ?

    Quelle pertinence trouvez-vous à ces différents propos en lien avec l’intelligence artificielle ? Sont-ils plus sensationnalistes qu’autre chose ?
    Voyez-vous la recherche en la matière aboutisse à l’intelligence artificielle générale ? Sinon quels sont les freins que vous entrevoyez ?

    Voir aussi :

    L'IA de génération de texte d'Elon Musk trop dangereuse pour être rendue publique, selon ses créateurs
    Le projet de tunnel du milliardaire de la tech Elon Musk est-il une vaste blague ? The Boring Company a inauguré son premier tunnel anti-bouchons
    Neuralink, le projet d'Elon Musk pour qu'un cerveau humain interagisse directement avec un PC et l'Homme fusionne avec l'IA, aberration ou fiction ?
    Elon Musk rappelle qu'en rendant publics les brevets Tesla, il a œuvré pour le bien de la planète et l'essor du marché des véhicules électriques
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  9. #9
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    10 725
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 10 725
    Par défaut
    Citation Envoyé par Patrick Ruiz Voir le message
    « L'idée que l'IA puisse devenir plus intelligente que les gens, quelques personnes y ont cru. Mais la plupart des gens pensaient que c'était une erreur. Et je pensais personnellement que c'était loin d'être le cas. Je me disais qu'il fallait attendre dans les 30 à 50 ans, voire plus. Évidemment, je ne le pense plus », ajoute Hinton. Ce dernier vient donc rejoindre des acteurs de la filière technologique comme Elon Musk qui sont d’avis que l’intelligence artificielle va surpasser les capacités cognitives des Hommes.
    Je pense qu'il est possible que dans le futur l'intelligence artificielle surpasse l'humain.
    Vous n'êtes peut-être pas impressionné par l'es outils IA actuels, mais il est possible que l'IA évolue rapidement et que 20 ans ça devienne quelque chose de réellement puissant.

  10. #10
    Membre confirmé
    Homme Profil pro
    Chercheur en informatique
    Inscrit en
    Mai 2021
    Messages
    114
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Essonne (Île de France)

    Informations professionnelles :
    Activité : Chercheur en informatique
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mai 2021
    Messages : 114
    Par défaut
    Citation Envoyé par Ryu2000 Voir le message
    Vous n'êtes peut-être pas impressionné par l'es outils IA actuels, mais il est possible que [...] ça devienne quelque chose de réellement puissant.
    Très concrètement, cela met déjà des êtres humains au chômage.

  11. #11
    Nouveau candidat au Club
    Homme Profil pro
    Webplanneur
    Inscrit en
    Avril 2024
    Messages
    3
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 54
    Localisation : France, Isère (Rhône Alpes)

    Informations professionnelles :
    Activité : Webplanneur

    Informations forums :
    Inscription : Avril 2024
    Messages : 3
    Par défaut Angefeux
    Il est certain, que 'IA puisse, servir de compétence et de façon neutre, à qui, a les moyens, de se la procurer, pour travailler et ce, quelque soit son idéologie, bonne ou mauvaise. Cela devrait, rentrait dans un système, de lois, que de pouvoir, obtenir des IA pour travailler, sans avoir à supprimer, des employés, dans une entreprise, tel, que de surtaxé, les entreprises à cause des employés supprimés ou manquants. Mais plutôt, une IA, qui peut aider, à améliorer, le travaille des employés, qui eux, ont des avis sociaux, à défendre.

  12. #12
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 758
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 758
    Par défaut Geoffrey Hinton « heureux d'avoir 77 ans » pour échapper à une éventuelle prise de contrôle de l'IA
    Geoffrey Hinton, « parrain de l'IA », déclare être « heureux d'avoir 77 ans » pour échapper à une éventuelle prise de contrôle de l'IA,
    comparant l'évolution de l'IA à élever un tigre sans cage

    Un scientifique dont les travaux ont contribué à transformer le domaine de l'intelligence artificielle se dit « plutôt content » d'avoir 77 ans, car il ne vivra peut-être pas assez longtemps pour être témoin des conséquences potentiellement dangereuses de cette technologie.

    Geoffrey Hinton, souvent considéré comme le « parrain de l'intelligence artificielle », a déclaré dans une interview que l'intelligence artificielle progresse plus rapidement que ne le prévoyaient les experts et que, lorsqu'elle dépassera l'intelligence humaine, l'humanité ne sera peut-être pas en mesure de l'empêcher de prendre le contrôle de la situation. « Des choses plus intelligentes que vous seront capables de vous manipuler », a déclaré Hinton, qui a reçu le prix Nobel de physique en 2024 pour ses percées dans le domaine de l'apprentissage automatique.


    Geoffrey Hinton est l’un des pionniers fondateurs de l’intelligence artificielle moderne. Professeur émérite à l’université de Toronto et ancien employé de Google, il a co-inventé des algorithmes clés de l’apprentissage profond (notamment l’algorithme de rétropropagation pour les réseaux de neurones) et participé aux débuts du moteur de recherche Google Brain. Pour ces contributions, il a partagé le prix Turing 2018 (avec Yoshua Bengio et Yann LeCun) – l’équivalent du « Nobel de l’informatique » – et plus récemment le prix Nobel de physique 2024 avec le physicien américain John Joseph Hopfield pour « leurs découvertes et interventions fondamentales qui permettent l'apprentissage automatique avec des réseaux de neurones artificiels ». Surnommé « le parrain de l’IA », Hinton incarne le succès de l’apprentissage automatique (deep learning) qui anime aujourd’hui des applications de traduction automatique, de reconnaissance vocale et de robots autonomes.

    Les dernières mises en garde de Hinton

    Geoffrey Hinton a profité d’une interview sur CBS News pour lancer un nouvel avertissement sur l’IA. Il a confié être « assez content d’avoir 77 ans » car il pourrait « ne pas vivre assez longtemps » pour voir les conséquences dangereuses de cette technologie​. En effet, les IA actuelles « progressent plus vite que prévu », a-t-il expliqué, et il prédit que « une fois qu’elles dépasseront l’intelligence humaine, l’humanité pourrait ne plus être capable d’empêcher qu’elles ne prennent le contrôle ». Pour illustrer ce propos, Hinton a comparé l’IA à un « tigreau vraiment mignon » qu’on élève enfant : à moins d’être absolument sûr qu’il ne voudra pas « vous tuer quand il sera adulte », il faut s’inquiéter. Chiffres à l’appui, il estime qu’il existe une « chance de 10% à 20% » qu’un système d’IA devienne un jour plus puissant que l’homme et prenne le contrôle

    Ainsi, Hinton rejoint d’autres figures influentes du secteur (Sundar Pichai chez Google, Elon Musk chez X, Sam Altman chez OpenAI) qui ont exprimé des inquiétudes similaires sur les « risques profonds pour la société et l’humanité ». En 2023, Musk et plus de 1 000 experts ont signé une lettre ouverte demandant un moratoire sur le développement des IA les plus puissantes, estimant que la technologie peut « poser des risques profonds à la société et à l’humanité ». Il faut préciser que, tandis que Musk demandait à OpenAI de mettre un frein au développement de son IA, il travaillait de son côté sur un rival, le fameux xAI qui a donné naissance à Grok.

    Quoiqu'il en soit, voici un extrait de cette lettre ouverte :

    Les systèmes d'IA contemporains deviennent aujourd'hui compétitifs pour les tâches générales, et nous devons nous poser la question : Devons-nous laisser les machines inonder nos canaux d'information de propagande et de mensonges ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, plus obsolètes et nous remplacer ? Devons-nous risquer de perdre le contrôle de notre civilisation ? Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus. Les systèmes d'IA puissants ne doivent être développés que lorsque nous sommes convaincus que leurs effets seront positifs et que leurs risques seront gérables. Cette confiance doit être bien justifiée et augmenter avec l'ampleur des effets potentiels d'un système. La récente déclaration de l'OpenAI concernant l'intelligence artificielle générale indique qu'"à un moment donné, il pourrait être important d'obtenir un examen indépendant avant de commencer à former les futurs systèmes, et pour les efforts les plus avancés d'accepter de limiter le taux de croissance du calcul utilisé pour créer de nouveaux modèles". Nous sommes d'accord. C'est maintenant qu'il faut agir.

    C'est pourquoi nous demandons à tous les laboratoires d'IA d'interrompre immédiatement, pendant au moins six mois, la formation de systèmes d'IA plus puissants que le GPT-4. Cette pause devrait être publique et vérifiable, et inclure tous les acteurs clés. Si une telle pause ne peut être mise en place rapidement, les gouvernements devraient intervenir et instituer un moratoire.

    Les laboratoires d'IA et les experts indépendants devraient profiter de cette pause pour élaborer et mettre en œuvre conjointement un ensemble de protocoles de sécurité communs pour la conception et le développement de l'IA avancée, rigoureusement contrôlés et supervisés par des experts externes indépendants. Ces protocoles devraient garantir que les systèmes qui y adhèrent sont sûrs au-delà de tout doute raisonnable, ce qui ne signifie pas une pause dans le développement de l'IA en général, mais simplement un recul par rapport à la course dangereuse vers des modèles de boîte noire toujours plus grands et imprévisibles, dotés de capacités émergentes.

    Pourquoi s’inquiéter de l’IA ?

    Les arguments avancés par Hinton pour justifier ces craintes renvoient aux dérives théoriques et pratiques de l’IA. D’une part, le simple fait que les machines deviennent plus « intelligentes » que l’homme fait craindre une perte de contrôle : « Les choses plus intelligentes que vous sauront vous manipuler », prédit-il​. D’autre part, les usages déjà observés soulignent des dangers concrets. On y inclut notamment la destruction massive d’emplois par automatisation, la propagation de deepfakes et de désinformation sophistiquée, ou encore une redoutable « course aux armements » entre États développant des systèmes autonomes létaux​.

    Hinton lui-même critique les géants du numérique : il leur reproche de favoriser la rapidité et le profit sur la sécurité, et exige qu’ils consacrent « comme un tiers » de leur capacité de calcul à la recherche en sécurité de l’IA, plutôt qu’une fraction marginale aujourd’hui​. Hinton semble particulièrement déçu par Google, où il a travaillé auparavant, qui a changé de position sur les applications militaires de l'IA.

    Selon Hinton, les entreprises d'IA devraient consacrer beaucoup plus de ressources à la recherche sur la sécurité - « environ un tiers » de leur puissance de calcul, par rapport à la fraction beaucoup plus faible qui leur est actuellement allouée.

    Nom : aI.png
Affichages : 7466
Taille : 456,7 Ko

    Des garde-fous en place et des incertitudes

    Ces mises en garde doivent cependant être mises en perspective. Beaucoup d’experts soulignent que les IA actuelles restent des systèmes « étroits » (narrow AI) sans conscience ni volonté propre. Il n’existe à ce jour aucun signe d’agent « vraiment conscient » réclamant indépendance ou survie. Du coup, selon eux, l’évolution de l’IA peut être contrôlée par des protocoles d’alignement et de sécurité, de même qu’il est toujours possible d’éteindre ou restreindre un système informatique.

    Sur le plan institutionnel, de nombreux cadres éthiques et réglementaires se mettent en place pour encadrer l’IA. L’Union européenne a l’AI Act, un règlement ambitieux qui classe les usages de l’IA en trois niveaux de risque et impose des obligations strictes (transparence, supervision humaine, contrôles techniques) pour les systèmes à haut risque. Au niveau mondial, l’UNESCO a adopté en 2021 la première recommandation internationale sur l’éthique de l’IA, applicable à 193 pays, qui place la protection des droits humains et de la dignité au cœur du développement de l’IA. Des initiatives académiques et civiles participent également à la réflexion : par exemple, la « Déclaration de Montréal » (2018) a défini un ensemble de principes éthiques pour un développement responsable de l’IA « au service du bien-être de tous », avec l’adhésion d’organisations publiques, entreprises et citoyens​

    Enfin, les entreprises elles-mêmes communiquent sur leurs efforts en matière de sûreté. Google DeepMind, OpenAI ou d’autres start-ups de l’IA ont mis en place des équipes dédiées à « l’alignement » et plaident publiquement en faveur d’une régulation adaptée. Sans doute ont-elles intérêt à concilier innovation et sécurité, sachant que de nombreux chercheurs estiment que la confiance du public sera cruciale pour l’acceptabilité à long terme de l’IA.

    Conclusion

    Le débat reste ouvert. D’un côté, Hinton et d’autres experts insistent sur l’extraordinaire rapidité des progrès et les menaces d’une IA hors de contrôle. De l’autre, beaucoup jugent cette vision en partie spéculative et insistent sur la maîtrise humaine, la transparence et la collaboration internationales comme parades. Les pistes de règlementation et de recherche collaborative se multiplient – de la gestion de la « boîte noire » des algorithmes à l’auto-régulation via des principes éthiques – mais il n’existe pas encore de consensus. Ce climat de débat intense montre en tout cas que la communauté mondiale prend au sérieux la question de rendre l’IA à la fois puissante et sûre.

    Sources : vidéo dans le texte, UNESCO

    Et vous ?

    Les craintes de Geoffrey Hinton sont-elles fondées sur des éléments concrets, ou relèvent-elles d'une peur spéculative de la science-fiction ?

    Qui doit être responsable en priorité de la sécurité de l’IA : les entreprises, les gouvernements, ou la communauté scientifique ?

    Peut-on faire confiance aux grandes entreprises du numérique pour s'autoréguler efficacement sur l'IA ?

    Faut-il créer une autorité mondiale de surveillance de l'IA, à l'image de l'Agence internationale de l'énergie atomique pour le nucléaire ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  13. #13
    Communiqués de presse

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Avril 2025
    Messages
    400
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Avril 2025
    Messages : 400
    Par défaut Geoffrey Hinton, « parrain de l'IA » et lauréat du prix Nobel, affirme que l'IA entraînera un chômage massif
    Geoffrey Hinton, « parrain de l'IA » et lauréat du prix Nobel, affirme que cette technologie entraînera un chômage massif et fera grimper les profits : « c'est le système capitaliste ».

    Geoffrey Hinton, le « parrain de l'IA », a déclaré que l'IA rendra les grandes entreprises plus rentables que jamais. Le hic, c'est que le chômage atteindra très certainement des niveaux catastrophiques. « Ce qui va réellement se passer, c'est que les riches vont utiliser l'IA pour remplacer les travailleurs », a déclaré Hinton. « Cela va entraîner un chômage massif et une augmentation considérable des profits. Cela rendra quelques personnes beaucoup plus riches et la plupart des gens plus pauvres. Ce n'est pas la faute de l'IA, c'est celle du système capitaliste. »

    Geoffrey Hinton est un chercheur britanno-canadien spécialiste de l'IA, de la psychologie cognitive et plus particulièrement des réseaux de neurones artificiels. Il est reconnu mondialement comme une figure de proue de l'IA. Il est lauréat de nombreux prix prestigieux comme le prix Nobel de physique (2024), le prix Turing (2019), le prix Rumelhart, le prix IEEE Frank Rosenblatt Award, et bien d'autres encore.

    En janvier, il a déclaré que l'IA représente une menace existentielle pour l'humanité. Il a affirmé que l'IA rendrait la société « de plus en plus mauvaise » en creusant l'écart de richesse entre les individus les plus riches et les plus pauvres. Il a déclaré qu'une superintelligence, ou une IA dont les capacités cognitives dépassent celles des humains dans tous les domaines, apparaîtra d'ici cinq à vingt ans. Selon lui, l'écart de richesse risque d'exacerber les inégalités et les tensions, ce qui offrirait un terrain fertile pour le fascisme et la société pourrait empirer.

    Récemment, le « parrain de l'IA » a déclaré que l'IA rendra les grandes entreprises plus rentables que jamais. Le hic, c'est que le chômage atteindra très certainement des niveaux catastrophiques. « Ce qui va réellement se passer, c'est que les riches vont utiliser l'IA pour remplacer les travailleurs », a déclaré Hinton dans une interview accordée au Financial Times. « Cela va entraîner un chômage massif et une augmentation considérable des profits. Cela rendra quelques personnes beaucoup plus riches et la plupart des gens plus pauvres. Ce n'est pas la faute de l'IA, c'est celle du système capitaliste. »

    Hinton, qui a remporté le prix Nobel l'année dernière, tire la sonnette d'alarme sur la façon dont l'IA pourrait détruire l'économie mondiale si nous la laissons faire. Il estime que des entreprises comme OpenAI, Anthropic et Google — où il a travaillé comme informaticien — développent principalement des modèles d'IA pour rechercher des « profits à court terme ».


    Pour l'instant, les licenciements n'ont pas augmenté, mais de plus en plus d'éléments indiquent que l'IA réduit le nombre d'opportunités pour les débutants, rendant le marché du travail beaucoup plus difficile à pénétrer pour les jeunes diplômés. Une enquête menée par la Banque fédérale de réserve de New York a révélé que les entreprises qui utilisent l'IA sont plus susceptibles de former leurs employés que de les licencier, mais tout ne devrait pas être rose pour la main-d'œuvre à l'avenir. « Les licenciements et les réductions des plans d'embauche liés à l'utilisation de l'IA devraient augmenter, en particulier pour les travailleurs titulaires d'un diplôme universitaire », indique l'enquête.

    En outre, une étude publiée par l’Université de Stanford en août 2025 met en lumière une tendance préoccupante : les jeunes travailleurs de 22 à 25 ans, fraîchement diplômés ou débutants, subissent une baisse de 13 % de l’emploi dans les secteurs exposés à l’automatisation par l’IA. Contrairement aux discours apocalyptiques de suppression massive d’emplois, il ne s’agit pas d’un effondrement global du marché, mais d’un glissement silencieux affectant spécifiquement les premiers échelons professionnels.

    Hinton a déclaré que le secteur de la santé est un secteur unique qui ne sera pas affecté par l'IA, même si cette technologie aidera certainement les médecins et les professionnels de la santé dans leur travail. « Si l'on pouvait rendre les médecins cinq fois plus efficaces, nous pourrions tous bénéficier de cinq fois plus de soins de santé pour le même prix », a déclaré Hinton dans la série YouTube Diary of a CEO en juin. « Il n'y a pratiquement aucune limite à la quantité de soins de santé que les gens peuvent absorber : [les patients] veulent toujours plus de soins de santé si cela ne leur coûte rien. »

    Selon lui, l'IA peut rendre les soins de santé plus efficaces simplement en absorbant d'énormes volumes d'informations et en apprenant à partir de celles-ci plus rapidement qu'un être humain ne pourrait jamais espérer le faire. « Elle sera beaucoup plus performante pour lire des images médicales, par exemple », a-t-il déclaré. « Elle peut examiner des millions de radiographies et en tirer des enseignements. Un médecin en est incapable. »

    Mais en avril dernier, il a fait une prédiction terrifiante selon laquelle l'IA aurait « 10 à 20 % de chances » de prendre le dessus et de devenir plus intelligente que les humains. Dans son interview avec le Financial Times, Hinton a rejeté la solution proposée par Sam Altman, PDG d'OpenAI, au problème de l'emploi, qui consiste à verser un revenu de base universel aux personnes lorsque l'IA commence à supplanter le travail humain. Il a déclaré que cela ne résoudrait pas la question de la « dignité humaine », car beaucoup de gens tirent leur raison d'être de leur travail.

    Pourtant, une étude de Microsoft a révélé que les rôles liés à la création de contenu et au langage seront fortement touchés par l'IA. Les interprètes, les rédacteurs et les rôles liés au service client sont particulièrement menacés. Les emplois manuels et en temps réel, tels que ceux de chirurgien ou de mécanicien, sont moins touchés. L'étude montre également comment l'IA est susceptible d'aider les travailleurs à améliorer leur efficacité et à accomplir des tâches plus complexes. "À l'heure actuelle, aucune profession n'est entièrement exercée par l'IA", souligne l'étude. "Même dans les secteurs à fort impact, le jugement humain, la créativité et la surveillance éthique restent essentiels."

    Hinton a également averti que l'IA pourrait avoir des implications géopolitiques désastreuses, permettant éventuellement à des acteurs non étatiques de fabriquer une arme biologique. Il a déploré la réticence de l'administration Trump à réglementer l'IA de manière plus stricte, alors que la Chine, selon lui, prend cette menace plus au sérieux. « Nous ne savons pas ce qui va se passer, nous n'en avons aucune idée, et ceux qui prétendent savoir ce qui va se passer sont tout simplement ridicules », a déclaré Hinton. « Nous sommes à un moment de l'histoire où quelque chose d'extraordinaire est en train de se produire, et cela peut être extraordinairement positif, ou extraordinairement négatif. Nous pouvons faire des suppositions, mais les choses ne resteront pas telles qu'elles sont. »

    Source : Geoffrey Hinton dans une interview accordée au Financial Times

    Et vous ?

    Pensez-vous que ces déclarations sont crédibles ou pertinentes ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Geoffrey Hinton, « parrain de l'IA », déclare être « heureux d'avoir 77 ans » pour échapper à une éventuelle prise de contrôle de l'IA, comparant l'évolution de la technologie à élever un tigre sans cage

    L'IA pourrait creuser le fossé entre riches et pauvres et faire disparaître les emplois de premier échelon, alors que les entreprises ont commencé à intégrer l'IA dans leurs activités quotidiennes

    Le chômage dans le secteur des technologies de l'information atteint 5,7 % alors que l'IA frappe les emplois dans le secteur technologique. L'IA supprime des emplois à un rythme plus accéléré qu'elle en crée
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  14. #14
    Membre éprouvé
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    2 264
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : Singapour

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 2 264
    Par défaut
    il faudrait que les salariés investissent d'avantages dans les entreprises.
    si tous le monde était actionnaire, tous le monde profiterait du systeme.

    Ca prends du temps (minimum 20ans) pour profiter de l'effet de levier, perso a partir de mon 1er salaire j'arrivais a investir minimum 800€, alors oui je faisais attention a mes dépenses et je vivais pas au dessus de mes moyens (petit appart, vielle bagnole pas cher, smartphone non premium...)

    Je veux bien trouver des excuses aux bas salaires, mais en france j'en voyais énormément aussi remplir a fond le livret A (avec un taux qui a toujours été inférieur a l'inflation, vous perdez de l'argent) et faire des loa/ldd sur des suv et avoir le dernier iphone/samsung galaxy ultra.
    D'autres acheter des maisons bien trop cher (trop long a amortir), et bien trop grande pour leurs besoins (donc taxes foncières et entretiens plus élevés).

    A singapour, beaucoup de mes voisins millionnaires vivent dans des apparts sans prétentions et n'ont pas de voiture par exemple.
    et le midi mange un repas classique (mais bon pour la santé) au mall à 3€.
    ce midi j'ai mangé un Yong tau foo à 4€ par ex.

    enfin les bas salaires.... etre ouvrier au smic c'est bien pour du dépannage mais ca ne devrait pas etre une carriere d'une vie. a un moment donné faut soit se mettre à son compte soit se former et faire autre chose.
    Alors oui c'est facile de donner des conseils, mais en même temps j'ai transpirer en prepa/école d'ingé, j'ai cravacher mon anglais pour partir a l'international, j'ai jamais beaucoup dépensé d'argent, jamais rouler en belle voiture, jamais acheter du matos premium style un iphone ou une rolex, toujours vécu dans des "passoires thermique", toujours vécu l'hiver à 18 degré max, jamais allé au cinéma et je devais faire 1 restaurant max par ans payé avec des chèques vacances ou carte restaurant.... et j'ai tous quitté mon payse. Rien n'a été simple et rien n'es simple, mais je suis un exemple que faire des efforts sa paye.
    perso en france je preferais mettre 50€ dans un etf que d'aller manger au resto, je mangeais bien mieux à la maison et pour moins cher. Le midi je faisais souvent ma gamelle, toujours eu des abonnement téléphonique entre 5 et 10€ l'assurance voiture au tier et je la réparais moi même, j'ai jamais eu d'abonnement de ma vie, jamais été chez le coiffeur...etc.

  15. #15
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    10 725
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 10 725
    Par défaut
    Citation Envoyé par Alex Voir le message
    Récemment, le « parrain de l'IA » a déclaré que l'IA rendra les grandes entreprises plus rentables que jamais. Le hic, c'est que le chômage atteindra très certainement des niveaux catastrophiques. « Ce qui va réellement se passer, c'est que les riches vont utiliser l'IA pour remplacer les travailleurs », a déclaré Hinton dans une interview accordée au Financial Times. « Cela va entraîner un chômage massif et une augmentation considérable des profits. Cela rendra quelques personnes beaucoup plus riches et la plupart des gens plus pauvres. Ce n'est pas la faute de l'IA, c'est celle du système capitaliste. »
    Je pense également que c'est un scénario qui peut avoir lieu.
    Par contre je ne sais pas si les profits vont durer longtemps, parce que les chômeurs ne peuvent pas beaucoup consommer.
    Au bout d'un moment ça ne sert à rien de produire des biens et des services si personne n'a les moyens de se les payer.

    Citation Envoyé par calvaire Voir le message
    si tous le monde était actionnaire, tous le monde profiterait du systeme.
    Il y aurait plus de perdants que de gagnants.
    Devenir un parasite d'actionnaire c'est risqué. Ça prend du temps, ça fait stresser.

    Citation Envoyé par calvaire Voir le message
    enfin les bas salaires.... etre ouvrier au smic c'est bien pour du dépannage mais ca ne devrait pas etre une carriere d'une vie. a un moment donné faut soit se mettre à son compte soit se former et faire autre chose.
    Vu qu'ils gagnent peu, ils ne peuvent pas mettre de côté pour se permettre de démissionner et de faire une formation.
    Et de toute façon une formation de quoi ?
    En France il y a des BAC+5 avec les statuts cadre/ingénieur qui gagnent moins de 2500€ net/mois.

    Vu la situation du monde du travail aujourd'hui, c'est risqué de se dire "l'augmentation de salaire est trop faible, je vais démissionner et essayer de trouver mieux ailleurs", c'est un coup à finir au RSA.

  16. #16
    Membre éprouvé
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    2 264
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : Singapour

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 2 264
    Par défaut
    Citation Envoyé par Ryu2000 Voir le message
    Vu qu'ils gagnent peu, ils ne peuvent pas mettre de côté pour se permettre de démissionner et de faire une formation.
    Et de toute façon une formation de quoi ?
    En France il y a des BAC+5 avec les statuts cadre/ingénieur qui gagnent moins de 2500€ net/mois.

    Vu la situation du monde du travail aujourd'hui, c'est risqué de se dire "l'augmentation de salaire est trop faible, je vais démissionner et essayer de trouver mieux ailleurs", c'est un coup à finir au RSA.
    pas vraiment non, tous ceux que je connais qui ont fait des emplois manuels et sont devenue auto entrepreneurs gagne plus que le cadre moyen à la défense.
    garagiste, plombier, électricien, entretiens des espaces vert, kiné, infirmière libérale... on atteint très vite les 4000€ net par mois.


    enfin, pour la formation j'avais plus en tete la formation le soir apres le boulot ou le weekend.
    en informatique je me forme sur les technos qui ont la cote auprès des employeurs le soir/le weekend, j'ai pas attendu une formation bidon france travail.
    mais tu montres la tous le problème: la mentalité paresseuse de beaucoup qui attendent qu'on leurs mache le boulot. Avec internet et chatgpt on peut tous se former, il y'a des écoles et des formations certifiante online et ou l'on peut donc travailler a n'importe quel heure de la journée ou de la nuit. Donc meme l'ouvrier au smic en horaire décalé peut se former.

  17. #17
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    10 725
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 10 725
    Par défaut
    Citation Envoyé par calvaire Voir le message
    pas vraiment non
    Si, si, il y a bien un paquet de BAC+5 qui gagnent moins de 2500€ net/mois.
    Bon après avec un BAC Pro on peut gagner plus qu'avec un BAC+5 et c'est cool

    Rémunération post-Bac + 5 : Quel est le salaire moyen ?
    En 2024, le salaire médian des jeunes diplômés Bac + 5 s’élève à environ 1 900 euros nets par mois. Cela représente une rémunération brute de presque 37 000 euros annuels. Cependant, il est essentiel de noter que cette moyenne peut varier en fonction de plusieurs facteurs, notamment le secteur d’activité et la réputation de l’établissement d’enseignement fréquenté. Par exemple, un diplômé d’une école de commerce de renom peut espérer un salaire beaucoup plus élevé.
    Citation Envoyé par calvaire Voir le message
    tous ceux que je connais qui ont fait des emplois manuels et sont devenue auto entrepreneurs gagne plus que le cadre moyen à la défense.
    Ouais il y a moyen qu'un électricien créer son entreprise et s'en sorte très bien.
    Surtout qu'au bout d'un moment il peut embaucher des gens et ne plus rien foutre.

    Mais ce n'est pas facile d'entreprendre en France, notamment à cause de l'administratif, des règles, des taxes, des impôts, etc.
    Alerte sur le suicide des artisans et commerçants
    Fait alarmant : « Pour ceux qui ont déjà fait une tentative de suicide parmi ceux qui l’avaient envisagé (soit 20 % de l’échantillon), on observe que les artisans-commerçants sont 42 % à avoir connu l’expérience d’une tentative de suicide avec hospitalisation (contre 27 % en moyenne, et 26 % en 2016). » C’est le taux le plus élevé de l’enquête qui balaie l’ensemble de la population française.
    « On est des super-sentinelles » : ils se mobilisent pour éviter les suicides de chefs d’entreprise
    Lancée près de Belfort après le suicide d’un patron, l’association « Casques bleus » vient au secours des chefs d’entreprise au bout du rouleau. Un soutien psychologique qui complète l’aide apportée sur les difficultés financières.
    Citation Envoyé par calvaire Voir le message
    Avec internet et chatgpt on peut tous se former
    Ça fonctionne si tu créer ta boite, par contre pour trouver du boulot ça va être compliqué, parce qu'en France il y une culture des diplômes.
    Bien souvent une entreprise préfère embaucher quelqu'un de diplômé que quelqu'un de compétent.

    Ou parfois il y a quelqu'un qui bosse mieux mais qui est moins bien payé que d'autres qui ont plus de diplômes.

    =======
    Bref à cause de l'IA des gens vont se retrouver au chômage.
    Quand il y a du chômage les entreprises peuvent proposer des salaires faibles (à cause de le peur de se retrouver au chômage les travailleurs vont l'accepter).
    Même sans l'IA le chômage augmenterait, mais ça ne va pas aider.

  18. #18
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 654
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 654
    Par défaut Geoffrey Hinton affirme que l'IA ne sera rentable que si la main-d’œuvre humaine est remplacée
    Geoffrey Hinton, parrain de l'IA, affirme que les géants de la technologie ne peuvent tirer profit de leurs investissements astronomiques que si la main-d'œuvre humaine est remplacée

    Geoffrey Hinton, l'un des parrains de l'IA, alerte depuis quelques années sur les dangers de la technologie qu’il a contribué à mettre au point. Après avoir quitté son emploi chez Google en 2023, il a averti que l'IA peut finir par dominer les humains et entraîner un chômage massif à l'avenir. Dans une récente interview, il a déclaré que le moyen évident pour les entreprises de tirer profit de leurs investissements dans l'IA, outre la facturation de frais d'utilisation des chatbots, consiste à « remplacer les employés par quelque chose de moins coûteux ». Selon des rapports publiés ces derniers mois, les entreprises remplacent autant d'emplois que possible par l'IA.

    Geoffrey Hinton est un chercheur britanno-canadien spécialiste de l'IA, de la psychologie cognitive et plus particulièrement des réseaux de neurones artificiels. Il est reconnu mondialement comme l'une des figures de proue de l'apprentissage profond. Il est aussi lauréat de nombreux prix prestigieux comme le prix Nobel de physique (2024), le prix Turing (2019), le prix Rumelhart, le prix IEEE Frank Rosenblatt Award, et bien d'autres encore.

    Il utilise aujourd'hui sa notoriété pour alerter sur les dangers de l'IA. Selon lui, l'IA représente une menace existentielle pour l'humanité. Il a affirmé que l'IA rendrait la société « de plus en plus mauvaise » en creusant l'écart de richesse entre les plus riches et les plus pauvres. Au début de l'année, il a déclaré qu'une superintelligence, ou une IA dont les capacités cognitives dépassent celles des humains dans tous les domaines, apparaîtra d'ici 5 à 20 ans.

    Dans une interview accordée à l'émission Wall Street Week de Bloomberg TV le 31 octobre, Geoffrey Hinton a déclaré que le moyen évident de tirer profit des investissements dans l'IA, outre la facturation de frais d'utilisation des chatbots, consistait à remplacer les travailleurs par quelque chose de moins coûteux.


    Il a déclaré que si certains économistes soulignent que les technologies disruptives précédentes ont créé autant qu'elles ont détruit des emplois, il n'est pas certain que l'IA fasse de même. « Je pense que les grandes entreprises parient sur le fait que l'IA entraînera un remplacement massif des emplois, car c'est là que se trouve l'argent », a-t-il averti. Cette déclaration fait échos à son avertissement selon lequel l'IA entraînera un chômage massif à l'avenir.

    Geoffrey Hinton avait expliqué : « ce qui va réellement se passer, c'est que les riches vont utiliser l'IA pour remplacer les travailleurs. Cela va entraîner un chômage massif et une augmentation considérable des profits. Cela rendra quelques personnes beaucoup plus riches et la plupart des gens plus pauvres. Ce n'est pas la faute de l'IA, c'est celle du système capitaliste ». Selon lui, les Big Tech développent l'IA pour rechercher des « profits à court terme ».

    L'IA réduit drastiquement les opportunités sur le marché du travail

    Selon les données de Bloomberg, quatre géants de l'IA (Microsoft, Meta, Alphabet et Amazon) devraient porter leurs dépenses d'investissement de 360 milliards de dollars cette année à 420 milliards de dollars au cours du prochain exercice fiscal. Par ailleurs, OpenAI a annoncé à lui seule un total de 1 000 milliards de dollars d'accords d'infrastructure ces dernières semaines avec des entreprises de l'écosystème de l'IA telles que Nvidia, Broadcom et Oracle.

    Lorsqu'on lui a demandé si de tels investissements pouvaient être rentables sans détruire des emplois, Geoffrey Hinton a répondu : « je pense que non. Je pense que pour gagner de l'argent, il faudra remplacer la main-d'œuvre humaine ». De plus en plus d'éléments indiquent que l'IA réduit les opportunités, en particulier au niveau débutant, et une analyse des offres d'emploi depuis le lancement de ChatGPT montre qu'elles ont chuté d'environ 30 %.

    Selon un rapport de Goldman Sachs en 2023, les systèmes d'IA générative comme ChatGPT pourraient avoir un impact sur 300 millions d'emplois à temps plein dans le monde. Selon la banque d'investissement, les systèmes autonomes capables de créer un contenu indiscernable de la production humaine pourraient déclencher un boom de la productivité qui finirait par augmenter le produit intérieur brut mondial annuel de 7% sur une période de 10 ans.

    Le marché de l’emploi pour les développeurs en France est en nette contraction. Le nombre d’offres d’emploi pour développeur publiées sur Indeed en France a fortement baissé en deux ans. L’indice montre que les annonces ont dégringolé de plus de 80 % entre janvier 2023 et juillet 2025. La situation en France reflète la tendance globale du marché de l'emploi dans l'industrie, confrontée à des vagues de licenciements massifs depuis 2022.

    Les entreprises remplacent massivement leurs travailleurs par l'IA

    Le PDG d'Amazon, Andy Jassy, a déclaré que les effectifs de l'entreprise diminueront dans les années à venir, à mesure qu'elle adopterait davantage d'outils et d'agents d'IA générative. « Il est difficile de savoir exactement où cela mènera à terme, mais au cours des prochaines années, nous prévoyons que cela réduira l'effectif total de notre entreprise, car nous gagnerons en efficacité en utilisant largement l'IA dans toute l'entreprise », a déclaré Andy Jassy.

    Fin octobre 2025, Amazon a annoncé 14 000 licenciements, principalement parmi les cadres intermédiaires. Chez Salesforce, cette réalité prend forme, car l'IA remplace déjà les travailleurs. Le PDG Marc Benioff a admis que l'IA a permis de réorganiser le service client et réduire ses effectifs de 9 000 à 5 000 personnes. Marc Benioff a qualifié les huit derniers mois de plus passionnants de sa carrière, même si l'entreprise a supprimé des milliers d'emplois.

    Marc Benioff, qui a cofondé Salesforce en 1999, a déclaré que les agents IA, qui décomposent les tâches complexes en étapes plus petites et peuvent accomplir des missions de manière indépendante, ont remodelé les opérations de l'entreprise. « Si nous avions eu cette conversation il y a un an et que vous aviez appelé Salesforce, vous auriez été en contact avec 9 000 personnes à travers le monde sur notre service cloud », a-t-il déclaré.

    Les dernières réductions d'effectifs chez Microsoft ont touché particulièrement les studios de jeux vidéo de l'entreprise. Des studios entiers ont été fermés, d'autres ont été vidés de la plupart de leurs employés, des jeux ont été annulés et un nombre important de développeurs ont été licenciés ou ont décidé de partir volontairement. Un développeur rapporte : « ils font tout leur possible pour remplacer autant d'emplois que possible par des agents d'IA ».

    Microsoft effectue un virage vers l'IA. Le PDG Satya Nadella a annoncé ce printemps que 30 % du code de l'entreprise est désormais écrit par l'IA, et le mois dernier, l'utilisation d'outils tels que GitHub Copilot est devenue obligatoire. Microsoft a même l'intention de noter cet usage. L'IA touche désormais à tout, de l'ingénierie à la documentation et, de plus en plus, aux décisions en matière de personnel. Il en résulte un type de perturbation plus discret.

    Les travailleurs du secteur de la tech perdent le pouvoir face à l'IA

    L'essor de l'IA générative permet aux entreprises d'automatiser des tâches et de rationaliser les opérations. Amazon prévoit de réduire son effectif au cours des prochaines années en raison de « l'efficacité accrue » permise par l'IA. Des entreprises comme Shopify et Duolingo ont indiqué que les futures embauches dépendraient de la possibilité d'automatiser les tâches, bien que certaines entreprises font marche arrière dans leur stratégie en matière d'IA.

    En avril 2025, la plateforme d'apprentissage de langue Duolingo a annoncé qu'elle va remplacer ses travailleurs contractuels par l'IA. Le PDG a informé que le recrutement ne se fera que si une équipe ne peut pas automatiser une plus grande partie de son travail. Mais il a adouci son message après le tollé suscité par sa note de service sur les réseaux sociaux, précisant que son entreprise continue à recruter au même rythme qu'auparavant.

    De nombreuses entreprises s'orientent vers l'utilisation des agents d'IA, c'est-à-dire des robots autonomes capables de prendre des décisions et d'accomplir des tâches à la place des humains, comme payer une facture ou réacheminer des stocks si une catastrophe naturelle perturbe un itinéraire de transport routier. Ainsi, Walmart déploierait de tels agents d'IA afin de réduire jusqu'à 18 semaines le délai de production de ses vêtements en interne.

    Le secteur est frappé par ce que les experts appellent la « Grande Hésitation ». Ce phénomène succède à la « Grande Démission » et se caractérise par une prudence accrue des entreprises en matière d'embauche, exacerbée par l'incertitude économique et l'essor de l'IA. Les entreprises prolongent leurs processus d'embauche, font appel à des travailleurs contractuels ou attendent les candidats qui remplissent toutes les conditions, et même plus.

    Conclusion

    Certains experts insistent sur la rapidité des progrès et les menaces d’une IA hors de contrôle. En revanche, beaucoup jugent cette vision en partie spéculative et insistent sur la maîtrise humaine, la transparence et la collaboration internationales comme parades. Les pistes de règlementation et de recherche collaborative émergent – de la gestion de la « boîte noire » des algorithmes à l’autorégulation — mais il n’existe pas encore de consensus.

    Malgré les inconvénients potentiels pour les travailleurs, Geoffrey Hinton voit également des avantages à l'IA. Lorsqu'on lui a demandé s'il remonterait le temps pour empêcher le développement de l'IA, il a répondu qu'il ne savait pas. « Ce n'est pas comme les armes nucléaires, qui ne servent qu'à faire le mal. C'est une décision difficile à prendre, car l'IA peut apporter énormément dans les domaines de la santé et de l'éducation », a-t-il expliqué.

    Selon Geoffrey Hinton, l'IA fera beaucoup de bien, et en fait, si l'on pense à l'augmentation de la productivité dans de très nombreux secteurs, cela devrait être une bonne chose. « Le problème ne vient finalement pas de l'IA elle-même, mais « de la façon dont nous organisons la société », a-t-il ajouté.

    Source : Geoffrey Hinton, parrain de l'IA et lauréat du prix Turing 2019

    Et vous ?

    Quel est votre avis sur le sujet ?

    Voir aussi

    Geoffrey Hinton, une des figures de proue de l'apprentissage profond, quitte Google pour être libre de parler des dangers de l'IA dont la désinformation et l'élimination des humains par les robots

    « L'IA peut finir par dominer les humains », d'après Geoffrey Hinton, l'un des pionniers de l'apprentissage profond, qui cite des facteurs algorithmiques qui définissent sa limite d'évolution

    Geoffrey Hinton, « parrain de l'IA » et lauréat du prix Nobel, affirme que cette technologie entraînera un chômage massif et fera grimper les profits : « c'est le système capitaliste »

Discussions similaires

  1. Réponses: 18
    Dernier message: 17/12/2016, 17h57
  2. Réponses: 8
    Dernier message: 16/12/2010, 19h03
  3. Réponses: 0
    Dernier message: 14/12/2010, 14h50
  4. Réponses: 2
    Dernier message: 19/11/2009, 04h12
  5. Réponses: 20
    Dernier message: 20/12/2007, 21h58

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo