IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Le fondateur de Google Brain affirme que les Big Tech mentent sur les dangers de l'IA


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 267
    Points
    66 267
    Par défaut Le fondateur de Google Brain affirme que les Big Tech mentent sur les dangers de l'IA
    Le responsable de l'IA chez Meta affirme que l'intelligence artificielle n'est pas encore aussi intelligente qu'un chien
    et rejette l'idée selon laquelle les robots allaient s'emparer du monde

    Yann LeCun, responsable de l'IA chez Meta, a déclaré dans une récente interview que les systèmes d'IA actuels tels que ChatGPT et Bard n'ont pas une intelligence de niveau humain et sont à peine plus intelligents qu'un chien. Le chercheur français en IA affirme que les systèmes d'IA actuels sont très limités, mais n'ont également aucune compréhension de la réalité sous-jacente du monde réel. En d'autres termes, LeCun affirme que les systèmes d'IA sont incapables d'apprendre des tâches élémentaires telles que le déchargement d'un lave-vaisselle. En outre, l'économiste français Jacques Attali affirme que la dangerosité ou la bonté de l'IA dépendra de l'usage qui sera fait de la technologie.

    Lors de la conférence VivaTech de mercredi, Yann LeCun, responsable scientifique au sein de la division dédiée à l'IA chez Meta, a eu l'occasion de revenir sur le débat brulant sur les dangers potentiels de l'IA. Lors de l'interview, LeCun n'a pas adopté une position alarmiste de la vision future de l'IA. Contrairement à d'autres PDG et acteurs influents du domaine de l'IA qui pensent que l'IA représente un danger existentiel pour l'humanité, LeCun pense que l'IA n'est pas du tout intelligente, ce qui en fait une technologie totalement inoffensive. Le chercheur a affirmé que le niveau d'intelligence de l'IA se situe probablement en dessous de celui d'un chien.

    En effet, interrogé sur les limites actuelles de l'IA, LeCun s'est concentré sur l'IA générative formée sur de grands modèles de langage (LLM), affirmant qu'elle n'est pas très intelligente, parce qu'elle est uniquement guidée par le langage. « Ces systèmes sont encore très limités, ils n'ont aucune compréhension de la réalité sous-jacente du monde réel parce qu'ils sont uniquement formés sur du texte, des quantités massives de texte. Cependant, la plupart des connaissances humaines n'ont rien à voir avec le langage. Cette partie de l'expérience humaine n'est donc pas prise en compte par les systèmes d'intelligence artificielle », a déclaré le chercheur.


    Selon lui, un système d'IA pouvait désormais réussir l'examen du Barreau des États-Unis, mais l'IA ne pouvait pas charger un lave-vaisselle, ce qu'un enfant de 10 ans pourrait "apprendre en 10 minutes". « Cela montre qu'il nous manque quelque chose de vraiment important afin d'atteindre non seulement une intelligence de niveau humain, mais même une intelligence de chien. En fait, les experts en IA n'ont aucune idée de la manière de reproduire cette capacité avec des machines aujourd'hui. Tant que nous n'y parviendrons pas, ces systèmes d'IA n'auront pas une intelligence de niveau humaine ni une intelligence canine ou féline », a conclu LeCun.

    Ces remarques contrastent avec celles de Demis Hassabis, PDG de DeepMind, qui a déclaré que l'IA pourrait atteindre des "capacités cognitives de niveau humain" au cours de la prochaine décennie. L'annonce de Hassabis est intervenue quelques jours seulement après que Geoffrey Hinton, surnommé le parrain de l'IA, a quitté son emploi chez Google pour exprimer ses inquiétudes et ses regrets concernant le développement de la technologie, alors que la plupart des travailleurs craignent pour leur emploi et que d'autres s'inquiètent pour leur sécurité. Geoffrey Hinton est lauréat du Prix Turing de 2018. Il le partage avec Yoshua Bengio et Yann LeCun.

    « Je me console avec l'excuse habituelle : si je ne l'avais pas fait, quelqu'un d'autre l'aurait fait », affirme Hinton. Mais il n'est pas le seul. Sam Altman, PDG d'OpenAI, et Elon Musk, PDG de Tesla, se sont exprimés sur les dangers potentiels que représente l'IA. L'investisseur américain de renom Warren Buffett a pour sa part comparé l'IA à l'invention de la bombe atomique. « Lorsque quelque chose peut faire toutes sortes de choses, je suis un peu inquiet. Je sais que nous ne pourrons pas l'inventer et, vous savez, nous avons inventé, pour de très bonnes raisons, la bombe atomique pendant la Seconde Guerre mondiale », a déclaré Buffett le mois passé.

    Le débat divise les chercheurs et les experts en IA. Comme LeCun, beaucoup sont ceux qui croient que l'IA actuelle est loin d'être intelligente. À mesure que les gens bricolent avec les systèmes d'IA comme ChatGPT, certains se rendent compte qu'ils ne sont pas tout à fait à la hauteur de ce qu'on attend d'eux. Par exemple, Charlie Brooker, le créateur de la série dystopique Black Mirror (qui invite à réfléchir sur l'impact actuel de la technologie sur nos vies, en poussant celle-ci à son extrême), a déclaré au début du mois avoir utilisé ChatGPT pour écrire un scénario test pour ce drame alléchant. Mais selon lui, le résultat manque cruellement d'originalité.

    « Parce que tout ce qu'il a fait, c'est chercher tous les synopsis des épisodes de "Black Mirror", et les rassembler en quelque sorte. Si l'on creuse un peu plus, on se dit qu'il n'y a pas vraiment de pensée originale ici », a déclaré Brooker ce mois-ci. Avant lui, Rodney Brooks, chercheur en robotique et expert en IA, a déclaré dans une interview le mois dernier que les grands modèles de langage comme GPT-4 et Bard sont beaucoup plus "stupides" qu'on le pense et qu'ils sont encore loin de pouvoir rivaliser avec l'intelligence humaine dans n'importe quelle tâche. Mais son point de vue a tout de même fait l'objet de fortes controverses dans l'autre camp.

    Lors de la conférence VivaTech de mercredi, Jacques Attali, un théoricien économique et social français qui écrit sur la technologie, a déclaré que la question de savoir si l'IA est bonne ou mauvaise dépendra de l'usage qui en sera fait. « Si vous utilisez l'IA pour développer davantage de combustibles fossiles, ce sera terrible. Si vous utilisez l'IA pour développer des armes plus terribles, ce sera terrible. Par contre, l'IA peut être extraordinaire si elle est utilisée dans le domaine de la santé, la culture, et l'éducation », a déclaré Attali. Attali et LeCun ajoutent toutefois que la technologie pourrait représenter un danger pour l'humanité dans un avenir proche.

    « Il est bien connu que l'humanité soit confrontée à de nombreux dangers au cours des trois ou quatre prochaines décennies. Je crains que les robots se retournent contre nous », a déclaré Attali. LeCun a déclaré qu'à l'avenir, il pourrait y avoir des machines plus intelligentes que les humains, ce qui ne devrait pas être considéré comme un danger. « Nous ne devrions pas considérer cela comme une menace, mais comme quelque chose de très bénéfique. Chacun d'entre nous disposera d'un assistant IA qui sera comme un employé plus intelligent que lui pour l'aider dans sa vie quotidienne », a déclaré LeCun lors de la conférence à Paris.

    Le chercheur de Meta a ajouté que ces systèmes d'IA doivent être créés pour être contrôlables et fondamentalement soumis aux humains. Il a également rejeté l'idée que les robots allaient s'emparer du monde. « Une crainte popularisée par les fictions scientifiques est que si les robots sont plus intelligents que nous, ils voudront s'emparer du monde. Il n'y a pas de corrélation entre le fait d'être intelligent et le fait de vouloir s'emparer du monde », a déclaré LeCun. En outre, en examinant les dangers et les opportunités de l'IA, Attali a conclu qu'il fallait mettre en place des garde-fous pour le développement de la technologie.

    Mais il n'est pas certain de savoir qui s'en chargera. « Qui va mettre des frontières ? », a-t-il demandé. La réglementation de l'IA a été un sujet brulant lors de cette édition de VivaTech. L'UE vient d'adopter sa propre législation en matière d'IA, tandis que les principaux ministres français ont déclaré cette semaine que le pays souhaitait une réglementation mondiale de cette technologie. La version finale de la législation de l'UE sur l'IA (EU AI Act) est attendue pour la fin de l'année.

    Et vous ?

    Quel est votre avis sur le débat sur les dangers potentiels de l'IA ?
    Que pensez-vous des déclarations de Yann LeCun au VivaTech 2023 ?
    Pensez-vous que Yann LeCun minimise les risques liés à l'IA ?
    Que pensez-vous du niveau d'intelligence de l'IA ?

    Voir aussi

    « Je suis un peu inquiet » : Warren Buffett compare l'IA à l'invention de la bombe atomique, il affirme que "l'IA changera tout dans le monde, sauf la façon dont les hommes pensent et se comportent"

    I-JEPA : le premier modèle d'IA basé sur la vision de Yann LeCun, le scientifique en chef de Meta spécialisé dans l'IA, pour une IA plus proche de l'humain

    Le responsable de l'IA de Meta publie un document sur la création d'une intelligence artificielle "autonome", et suggère que les approches actuelles ne mèneront jamais à une véritable intelligence

    Des chercheurs et des PDG du domaine de l'IA mettent en garde contre le "risque d'extinction" dans une déclaration de 22 mots, ils estiment que l'IA pourrait être aussi mortelle que l'arme nucléaire
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Membre expert
    Profil pro
    programmeur du dimanche
    Inscrit en
    Novembre 2003
    Messages
    812
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : programmeur du dimanche
    Secteur : Santé

    Informations forums :
    Inscription : Novembre 2003
    Messages : 812
    Points : 3 474
    Points
    3 474
    Par défaut
    merci pour ce point de vue différent, parce que la futurologie présomptueuse de type IA = bombe A = fin du monde/terminator = remplacement de tous humains par des machines, c'est lassant à la fin.

    Il ne faut pas oublier que les USA ne considèrent qu'un pays dans le monde, la Chine (seul supposément à même de menacer leur hégémonie). (Les autres pays entrant dans une ou plusieurs des catégories suivantes : pompe à pétrole ; vassaux ; sous-vassaux assez couillons pour héberger nos armes atomiques comme ça si ça pète c'est pas chez nous ; pays faibles à qui on tord le bras si besoin)

    Or les Américains ont peur de se faire doubler par les Chinois dans la course à l'IA. Ainsi, tous leurs groupes d'influence (think tank), diffusent des prémonitions alarmistes sur l'IA, histoire de capter plus de subventions dans la course de l'IA. D'où tous ces articles de journaux.

    PS : il décrit les limites pratiques (et économiques) de l'amélioration des IA LLM dans la vidéo c'est intéressant.

  3. #3
    Membre extrêmement actif
    Avatar de Madmac
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Juin 2004
    Messages
    1 687
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Alimentation

    Informations forums :
    Inscription : Juin 2004
    Messages : 1 687
    Points : 1 382
    Points
    1 382
    Billets dans le blog
    7
    Par défaut
    Un loup a probablement le même niveau d’intelligence qu'un chien. Ce que l’empêchera de vous tuez, s'il est affamer et que vous n'avez pas d'arme pour vous défendre. Un compacteur à déchet n'a aucune intelligence et a le pouvoir de vous tuez. Le problème est l'absence de conscience et d'éthique.

  4. #4
    Inactif  
    Homme Profil pro
    Webmaster
    Inscrit en
    Juin 2023
    Messages
    27
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 54
    Localisation : France, Gard (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Webmaster

    Informations forums :
    Inscription : Juin 2023
    Messages : 27
    Points : 0
    Points
    0
    Par défaut Tout dépend du point de vu
    Actuellement, et ce depuis plusieurs décénies, nous pourions penser que l'intelligence se mesure grace à l'évolution de la valeur travail.
    Plus on travail, moins ca coute, plus ça profite, plus on est content.

    Mais l'on constate que les prix augmentent, le chomage augmente, les entreprise ferment.

    Le plus intelligent est un économiste ou un banquier ou un comerçan ou un maçon.

    Dans ce cas il faudrait demandé à l'un d'entre eux si un chat est intelligent ou un chien l'est plus qu'un chat.

    Mais est-ce là le sujet.

    L'intelligence artificielle elle évalu les possibilité de confiner l'uranium usagé pendant 10 000 ans pour qu'au moins on en parle pas trop parce que ça produit de l'électricité et c'est avec l'électricité que l'on calcule la durée de polution de l'uraniom.

    (Je suis pas expert en philo) mais quand même.

    Edit : autre chose, j'ai été torturé 8 fois par le corp médical gratuitement sans raison sans cause, juste une application de procédure (dite scientifique, mais expérimentale ou maléfique) dans un chu et personne ne me fera avaler la moindre intelligence dans notre pays qu'est la France.

  5. #5
    Inactif  
    Homme Profil pro
    Webmaster
    Inscrit en
    Juin 2023
    Messages
    27
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 54
    Localisation : France, Gard (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Webmaster

    Informations forums :
    Inscription : Juin 2023
    Messages : 27
    Points : 0
    Points
    0
    Par défaut Euro et marcher européen
    A mon avis, je suis pas au courant, mais j'était en train de me demander si un gars aurait pas dit en 2000 "dépéchez vous de gagner votre argent ..."

    Parce qu'un euro ne vaut même plus un franc. Déjà c'est 100 frs un franc, aujourd'hui 1 euro c'est 3 tomates si tu as 500 euro si non tu meurt !

    L'intelligence nous aura mené à ce lconstat, si tu as 500 euro alors tu as 3 tomate pour 1 euro si non tu meurt.

    Edit : référence 1990 : alors qu'il fallait déjà 20 000 francs par mois pour vivre en sécurité en France en 1990

  6. #6
    Membre extrêmement actif
    Avatar de Madmac
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Juin 2004
    Messages
    1 687
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Alimentation

    Informations forums :
    Inscription : Juin 2004
    Messages : 1 687
    Points : 1 382
    Points
    1 382
    Billets dans le blog
    7
    Par défaut
    Citation Envoyé par Manuel De Girardi Voir le message
    Le plus intelligent est un économiste ou un banquier ou un comerçan ou un maçon.
    France.
    En tous les cas ce n'est sûrement pas les idiots qui nous emmerdent avec le réchauffement climatique.

    Montréal: 13.24 - 18 Juin; 17 degré centigrade

    La prochaine fois que vous rencontrez un de ces illuminés qui se croit des experts du sujet demandez-lui de vous expliquez les causes du Cycles de Milankovitch

  7. #7
    Membre actif
    Homme Profil pro
    Développement logiciel
    Inscrit en
    Mai 2005
    Messages
    74
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 47
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Développement logiciel
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mai 2005
    Messages : 74
    Points : 244
    Points
    244
    Par défaut
    Discussion hors-sujet
    Citation Envoyé par Madmac Voir le message
    demandez-lui de vous expliquez les causes du Cycles de Milankovitch[/URL]
    Peut-être que "lui" aura lu l'article Wikipédia jusqu'au bout:

    "Les cycles de Milanković sont parfois invoqués par les climatosceptiques pour prétendre que le réchauffement climatique n'est pas d'origine humaine. Cet argument ne résiste pas à l'analyse, notamment en raison de la rapidité du changement climatique actuel, beaucoup trop grande en comparaison de l'échelle de temps des cycles. De plus, si le réchauffement était dû aux cycles de Milanković, la stratosphère devrait aussi se réchauffer, ce qui est contredit par les relevés de sa température."

  8. #8
    Membre extrêmement actif
    Avatar de Madmac
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Juin 2004
    Messages
    1 687
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Alimentation

    Informations forums :
    Inscription : Juin 2004
    Messages : 1 687
    Points : 1 382
    Points
    1 382
    Billets dans le blog
    7
    Par défaut
    Citation Envoyé par egann538 Voir le message
    Discussion hors-sujet


    Peut-être que "lui" aura lu l'article Wikipédia jusqu'au bout:

    "Les cycles de Milanković sont parfois invoqués par les climatosceptiques pour prétendre que le réchauffement climatique n'est pas d'origine humaine. Cet argument ne résiste pas à l'analyse, notamment en raison de la rapidité du changement climatique actuel, beaucoup trop grande en comparaison de l'échelle de temps des cycles. De plus, si le réchauffement était dû aux cycles de Milanković, la stratosphère devrait aussi se réchauffer, ce qui est contredit par les relevés de sa température."
    Et comment tu explique les périodes glacières sans ce cycle? Et à l'exception de la période qui a précédé leur disparition, les dinosaures n'ont jamais vu de calottes polaires. Jamais! La lutte contre le carbone va avoir autant d'impact que de pisser à l'extérieur pendant un ouragan. Le réchauffement est inévitable. C'est une arnaque pour imposer des contrôles plus serrés et pour vous taxez encore plus. Nous vivons dans la fin d'une ère glacière, le future sera plein de bikinis.

    Citation Envoyé par egann538 Voir le message
    De plus, si le réchauffement était dû aux cycles de Milanković, la stratosphère devrait aussi se réchauffer, ce qui est contredit par les relevés de sa température."
    Deux raisons pour expliquer ce comportement: Densité des gazs plus réduites et proximité avec l'espace (qui est glacé). Et en passant, le soleil n'est vraiment dans le centre de notre système solaire. Sa position varie selon la position nos 3 planètes géantes.

    Le Contrôle est le véritable enjeu,

    Le professeur Schwab a appelé le gouvernement indien, y compris celui du Karnataka, à combler ce fossé numérique.


    Bengaluru: Le professeur Klaus Schwab, fondateur du Forum économique mondial, a déclaré vendredi que l'Inde deviendrait une superpuissance financière si elle utilisait l'intelligence artificielle pour numériser son vaste secteur agricole.

    Dans son allocution virtuelle lors de la session plénière du Bengaluru Tech Summit-2021, le professeur Schwab a déclaré que l'Inde avait la capacité technologique et les prouesses pour propulser le secteur agricole dans le monde numérique.

    Il a déclaré que le monde assistait à la quatrième révolution industrielle et que l'accessibilité des services Internet et sa vitesse y joueraient un rôle majeur.

    Mais, le professeur Schwab a regretté qu'en Inde, au moins 50 % des citoyens n'aient pas accès à Internet. Il a appelé le gouvernement indien, y compris celui du Karnataka, à combler ce fossé numérique.

    Il a déclaré que le Forum économique mondial travaillait avec les entreprises de télécommunications pour rapprocher les technologies et leurs entreprises. Il a déclaré que 35 millions de nouveaux emplois devraient être créés d'ici 2025 à la suite de cette révolution industrielle dans le monde entier et que l'Inde ne devrait pas laisser passer cette opportunité.

    Le professeur a souligné la nécessité d'une autre révolution verte dans le monde avec zéro émission de carbone et également la nécessité de veiller à ce que de nouvelles découvertes soient faites rapidement dans cette direction.

    Dans son allocution plénière, le président de Microsoft India, Anant Maheshwari, a déclaré qu'à la suite de la pandémie de COVID-19 qui a frappé l'économie, l'Inde doit vraiment agir ensemble en formant des jeunes avec des compétences sur le pied de guerre pour les préparer à l'emploi.

    Il a déclaré que la pandémie a nécessité une culture de travail hybride dans les bureaux et qu'il est nécessaire de travailler pour en faire une norme acceptable.
    https://www.deccanchronicle.com/nati...-in-india.html

    Qui contrôle l'information, contrôle le monde.

  9. #9
    Membre actif
    Homme Profil pro
    Développement logiciel
    Inscrit en
    Mai 2005
    Messages
    74
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 47
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Développement logiciel
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mai 2005
    Messages : 74
    Points : 244
    Points
    244
    Par défaut
    Ok je vais prendre 5min pour essayer d'expliquer, même si quelque chose me dit que tu n'es pas du genre à changer d'avis.
    Et je devine aussi que tu dois avoir beaucoup d'imagination, pour penser que des milliers de scientifiques à travers le monde se sont mis d'accord pour truquer leurs analyses et leurs modèles numériques du climat.

    Citation Envoyé par Madmac Voir le message
    Et comment tu explique les périodes glacières sans ce cycle?
    On peut rajouter par exemple le déplacement des continents, l'activité volcanique... mais ce n'est pas le sujet. On dit juste que la rapidité du réchauffement actuel provoquera des bouleversements au niveau mondial difficilement supportables, et qu'elle est principalement imputable aux activités humaines.

    Citation Envoyé par Madmac Voir le message
    à l'exception de la période qui a précédé leur disparition, les dinosaures n'ont jamais vu de calottes polaires.
    Oui... et donc? Ils faisaient ce qu'ils voulaient les dinosaures. Ce qui est sûr, c'est que ici et maintenant, au rythme ou on va, le mode de vie d'une bonne partie de la population va changer. Et pour la plupart pas dans le bon sens, en quelques générations seulement. Avant la fin du siècle, certaines parties de l'Inde et de la Chine seront devenues trop humides et chaudes pour que l'être humain puisse y vivre. D'autres pays n'auront plus d'eau. Tu pourras mettre un bikini si tu veux mais ta piscine sera à sec, tout comme ton verre.

    La lutte contre le carbone va avoir autant d'impact que de pisser à l'extérieur pendant un ouragan. Le réchauffement est inévitable.
    Tu as raison, surtout ne change rien.

    Deux raisons pour expliquer ce comportement: Densité des gaz plus réduites et proximité avec l'espace (qui est glacé).
    Ok, définitivement tu n'as pas fait d'études dans ce domaine. Déjà, l'espace n'a pas de température, donc n'est pas glacé, parce que (scoop!) il est vide. Ensuite, ça dit juste que pour que les cycles soient en cause, alors la stratosphère se réchaufferait avant la troposphère. Ce qui n'est pas constaté, donc, ça ne vient pas des cycles en question.

    Enfin pour éviter d'écrire un pavé que je ne suis même pas sûr que tu lirais, je ne peux que te recommander cette belle planche de Xkcd, parce que parfois on comprend mieux avec un schéma (en anglais).

    Bonne chance.

  10. #10
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    652
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 652
    Points : 11 861
    Points
    11 861
    Par défaut Yann LeCun affirme que l'IA ne menacera pas l'humanité et met en garde contre une réglementation prématurée
    Le responsable de l'IA chez Meta affirme que l'IA ne menacera jamais l'humanité et met en garde contre une réglementation prématurée
    qui pourrait empêcher la concurrence dans le secteur

    Yann LeCun, responsable de l'IA chez Meta, est l'un des rares éminents chercheurs en IA qui n'épousent pas le discours dominant qui présente l'IA comme une menace existentielle pour l'humanité. Lors d'une récente interview, il a réitéré ses propos selon lesquels "l'IA n'est pas intelligente et est encore plus bête que les chats", ajoutant qu'il est complètement absurde de penser que l'IA pourrait éradiquer l'espèce humaine. Il affirme qu'une réglementation prématurée de l'IA s'avérera un frein pour la recherche et l'innovation dans le domaine, renforcera la domination des grandes entreprises technologiques (OpenAI, Google, etc.) et ne laissera aucune place à la concurrence.

    Yann LeCun est un éminent chercheur français en IA et lauréat du prix Turing 2018. Les recherches qu'il a menées dans les années 1980 et 1990 ont contribué à jeter les bases de bon nombre des innovations les plus importantes de la dernière décennie dans le domaine de l'IA. Entre autres exemples, LeCun a mis au point les réseaux de neurones convolutifs qui ont été essentiels pour rendre l'apprentissage profond plus efficace. LeCun est professeur à l'université de New York où il a créé le "Center for Data Sciences" et travaillerait également sur les voitures autonomes, et scientifique en chef du laboratoire d'IA de Meta, la société mère de Facebook.

    Contrairement à beaucoup de ses pairs, LeCun n'adopte pas une vision alarmiste du futur de l'IA. Malgré le nom, LeCun pense que l'IA n'est pas du tout intelligente, ce qui en fait une technologie totalement inoffensive. Le chercheur a affirmé que le niveau d'intelligence de l'IA se situe probablement en dessous de celui d'un chat. Lors d'une interview accordée au Financial Times cette semaine, LeCun a déclaré que les inquiétudes selon lesquelles l'IA est une menace existentielle pour l'humanité sont prématurées. Selon lui, il ne sert à rien d'être aussi alarmiste et d'appeler à une réglementation, ce qui risquerait d'avoir de graves conséquences sur l'avenir de l'IA.


    LeCun met en effet en garde contre un jeu de dupe et estime qu'une réglementation prématurée de l'IA ne servira qu'à renforcer la domination des grandes entreprises technologiques et à étouffer la concurrence. « Réglementer la recherche et le développement dans le domaine de l'IA est incroyablement contre-productif. Ils veulent en effet s'emparer de la réglementation sous le couvert de la sécurité de l'IA. Les demandes de contrôle de l'IA découlent du sentiment de supériorité de certaines des principales entreprises technologiques, qui affirment qu'elles sont les seules à pouvoir développer l'IA en toute sécurité », a déclaré le responsable de l'IA chez Meta.

    Il a ajouté : « je pense que c'est incroyablement arrogant. Et je pense exactement le contraire ». Les commentaires de LeCun laissent entendre qu'ils (Elon Musk, PDG de xAI, Sam Altman, PDG d'OpenAI, Demis Hassabis, PDG de Google DeepMind, etc.) n'appellent pas à une réglementation de l'IA pour le bien de tous, mais seulement pour asseoir leur hégémonie sur la filière de l'IA. LeCun contredit également Geoffrey Hinton, l'un des parrains de l'IA avec qui il partage le prix Turing 2018. Hinton a quitté son poste chez Google afin d'être libre de militer pour la réglementation de l'IA, mais selon LeCun, les craintes actuelles sont absurdes et sans réel fondement.

    « Réglementer les modèles d'IA de pointe aujourd'hui reviendrait à réglementer l'industrie des avions à réaction en 1925, alors que ces avions n'avaient même pas été inventés. Le débat sur les risques existentiels est très prématuré tant que nous n'aurons pas conçu un système capable de rivaliser avec un chat en matière de capacités d'apprentissage, ce qui n'est pas le cas pour le moment », a déclaré LeCun. Ainsi, le Français réfute l'idée de Hinton selon laquelle l'atténuation du risque d'extinction lié à l'IA devrait devenir une priorité mondiale au même titre que d'autres risques à l'échelle de la société tels que les pandémies graves et les guerres nucléaires.

    LeCun a qualifié d'absurde l'idée selon laquelle l'IA pourrait tuer l'humanité, que ce soit à dessein ou par défaut. Il a déclaré que "les gens avaient été conditionnés par la science-fiction et le scénario de Terminator à croire que les machines intelligentes prendraient le contrôle si elles devenaient plus intelligentes que les humains". Lors de l'interview, il a expliqué : « l'intelligence n'a rien à voir avec le désir de dominer. Ce n'est même pas vrai pour les humains. S'il était vrai que les humains les plus intelligents voulaient dominer les autres, Albert Einstein et d'autres scientifiques de renoms auraient tous été à la fois riches et puissants, ce qui n'est pas le cas ».

    LeCun réfute également l'idée selon laquelle les modèles d'IA open source représentent un danger pour la société. Selon les entreprises d'IA, les modèles d'IA sont trop puissants pour être mis à la disposition du public, car les conséquences pourraient être trop graves s'ils étaient utilisés à mauvais escient. Effectivement, des acteurs ont utilisé des modèles d'IA disponibles publiquement pour perfectionner leurs outils de piratages et leurs stratégies d'escroquerie. Certains acteurs malveillants utilisent également les technologies d'IA de clonage de la voix pour escroquer des personnes vulnérables par téléphone ou pour simplement harceler les gens.

    Cependant, LeCun estime que l'IA ne saurait être une technologie dont le développement est réservé à une poignée d'entreprises privées privilégiées. Suivant la voix du chef de sa division consacrée au développement de l'IA, Meta a rompu les rangs avec d'autres grandes entreprises technologiques, telles que Google et OpenAI, en défendant les modèles d'IA open source plus accessibles. Meta a publié en open source son dernier grand modèle de langage, Llama 2, afin de permettre aux chercheurs de la communauté de participer au développement de la technologie. Par contre, GPT-4, le dernier grand modèle de langage d'OpenAI est une véritable boîte noire.

    Les données et le code utilisés pour construire GPT-4 ne sont pas accessibles à des tiers. Mais selon LeCun, des arguments similaires sur la nécessité de contrôler une technologie en évolution rapide ont été avancés au début de l'Internet, mais ce dernier n'a prospéré que parce qu'il est resté une plateforme ouverte et décentralisée. « La même chose se produira avec l'IA », a-t-il déclaré. LeCun a fait valoir que les modèles open source stimulaient la concurrence et permettaient à une plus grande diversité de personnes de construire et d'utiliser des systèmes d'IA. Il est l'un des rares cadres d'une grande entreprise technologique privée à défendre cette idée.

    Parmi les lauréats du prix Turing 2018 - à savoir Yann LeCun, Geoffrey Hinton et Yoshua Bengio -, LeCun reste le seul qui ne se montre pas alarmiste sur le futur et les risques liés à l'IA. Hinton et Bengio ont exprimé leurs inquiétudes quant aux dangers posés par les modèles d'IA de la prochaine génération. Tous deux ont appelé à un ralentissement du développement des modèles d'IA de pointe et ont mis en garde contre les risques existentiels liés à l'IA. LeCun ne partage pas l'avis de ses pairs et affirme que de son côté que la génération actuelle de modèles d'IA était loin d'être aussi performante que certains chercheurs tente de le faire croire.

    « Ils ne comprennent tout simplement pas comment le monde fonctionne. Ils ne sont pas capables de planifier. Ils ne sont pas capables d'un véritable raisonnement. Nous ne disposons pas de voitures entièrement autonomes, capables de s'entraîner à la conduite en une vingtaine d'heures de pratique, ce qu'un jeune de 17 ans peut faire », a-t-il déclaré. Le chercheur de Meta a déclaré qu'OpenAI et Google DeepMind avaient été "constamment trop optimistes" quant à la complexité du problème et que plusieurs "percées conceptuelles" étaient encore nécessaires avant que les systèmes d'IA ne s'approchent de l'intelligence humaine.

    Et même dans ce cas, LeCun affirme qu'il serait possible de contrôler les modèles d'IA en encodant un "caractère moral" dans ces systèmes, de la même manière que les gens édictent des lois pour régir le comportement humain. Par ailleurs, LeCun a reconnu que les machines seraient un jour plus intelligentes que les humains dans la plupart des domaines, mais il a également ajouté que cela stimulerait une deuxième renaissance de l'apprentissage.

    « Des systèmes d'IA puissants aideraient l'humanité à relever de grands défis, tels que la lutte contre le changement climatique et la guérison des maladies. Il ne fait aucun doute que nous serons assistés par des machines plus intelligentes que nous. La question est de savoir si c'est effrayant ou excitant. Je pense que c'est passionnant parce que ces machines feront ce que nous leur demandons. Elles seront sous notre contrôle », a déclaré le chercheur français.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des déclarations du chercheur français en IA Yann LeCun ?
    Pensez-vous également que les inquiétudes actuelles concernant l'IA sont prématurées et absurdes ?
    Les grandes entreprises cherchent-elles à monopoliser le marché de l'IA en appelant à une réglementation ?
    LeCun a-t-il raison d'affirmer que les modèles d'IA open source sont indispensables à l'innovation dans le domaine de l'IA ?
    Selon vous, pourquoi les lauréats du prix Turing 2018 affichent des points de vue divergents sur le futur de l'IA ?

    Voir aussi

    « L'open source aura un impact plus important sur l'avenir des modèles de langage que le grand public ne le pense », selon un ingénieur logiciel qui affirme que l'IA open source est plus sûre

    Meta s'associe à Microsoft et lance en open-source LLaMA 2 pour faire concurrence à ChatGPT d'OpenAI, l'entreprise pourrait vouloir diluer l'avantage concurrentiel de ses rivaux

    Le responsable de l'IA chez Meta affirme que l'intelligence artificielle n'est pas encore aussi intelligente qu'un chien et rejette l'idée selon laquelle les robots allaient s'emparer du monde

  11. #11
    Membre émérite Avatar de onilink_
    Profil pro
    Inscrit en
    Juillet 2010
    Messages
    597
    Détails du profil
    Informations personnelles :
    Âge : 32
    Localisation : France

    Informations forums :
    Inscription : Juillet 2010
    Messages : 597
    Points : 2 443
    Points
    2 443
    Par défaut
    Tout aussi crédible que si le PDG de Total nous disait que le réchauffement climatique n'existe pas.

    J'ai beaucoup de respect pour le travail de LeCun mais il y a des sujets ou il va forcement être biaisé.
    Sans parler du fait qu'il lui arrive de dire des bourdes, et que pour un sujet aussi important il vaut mieux suivre le principe de précaution plutôt que de se lancer à corps perdu sur des intuitions.

    Évidemment qu'une quelconque réglementation doit être proportionnelle et ne pas avantager seulement les mastodontes du secteur....

    Et dire que ça pourrait empêcher la concurrence quand on travaille chez Meta, ça me fait un peu rire ... jaune.
    Circuits intégrés mis à nu: https://twitter.com/TICS_Game

  12. #12
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    652
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 652
    Points : 11 861
    Points
    11 861
    Par défaut Le responsable de l'IA chez Meta soutient les modèles d'IA open source et s'oppose à la réglementation
    Le responsable de l'IA chez Meta affirme que les modèles d'IA open source sont le seul moyen d'empêcher que le secteur soit contrôlé par un petit groupe d'entreprises
    et s'oppose à la réglementation

    Quel est le véritable risque de l'IA à l'avenir : la réglementation ou l'ouverture ? La communauté de l'IA est divisée sur la question. Pour Yann LeCun, chercheur français en IA et responsable de l'IA chez Meta, l'ouverture est le seul moyen de faire en sorte que les plateformes d'IA reflètent l'intégralité des connaissances et de la culture humaines. Le chercheur français en IA a met en garde contre une réglementation prématurée de l'IA qui, selon lui, pourrait conduire à ce qu'un petit groupe d'entreprises contrôlent l'industrie de l'IA. Il affirme qu'il s'agit du scénario le plus dangereux que l'on puisse imaginer. Il est controversées et les modèles open source de Meta ne le sont pas vraiment.

    Dans un long message publié dimanche sur X (anciennement Twitter), Yann LeCun - prix Turing 2018 et reconnu comme l'un des inventeurs de l'apprentissage profond - s'en est pris aux leaders de la recherche sur l'IA qui militent pour une réglementation de l'IA, répandent des théories dystopiques sur l'avenir de l'IA et s'opposent aux modèles d'IA open source. Son message visait particulièrement les pionniers de l'IA Geoff Hinton et Yoshua Bengio, avec qui LeCun a partagé le prix Turing 2018, ainsi que Sam Altman et Stuart Russell. Ces derniers ont exprimé publiquement et à plusieurs reprises leurs inquiétudes quant aux effets négatifs potentiels de l'IA.

    Selon LeCun, la majorité de la communauté universitaire soutient la recherche et le développement ouverts en matière d'IA, à l'exception notable des pionniers de l'IA que sont Hinton, Bengio et Russell. Il affirme que leur "alarmisme" fournit des munitions aux groupes de défense des entreprises. Il accuse Sam Altman, PDG d'OpenAI, Demis Hassabis, PDG de Google Deepmind, et Ilya Sutskever, directeur scientifique d'OpenAI, de tenter de réglementer le secteur de l'IA en leur faveur sous prétexte de sécurité. « Le véritable désastre de l'IA serait que quelques entreprises prennent le contrôle de l'IA », affirme LeCun. Voici l'intégralité de son message sur X :

    Citation Envoyé par Yann LeCun
    Altman, Hassabis et Amodei sont ceux qui exercent actuellement un lobbying massif auprès des entreprises. Ce sont eux qui tentent de s'emparer de l'industrie de l'IA par la voie réglementaire. Vous, Geoff et Yoshua, donnez des munitions à ceux qui font pression pour interdire la R&D ouverte en matière d'IA.

    Si vos campagnes de peur réussissent, elles aboutiront *inévitablement* à ce que vous et moi considérons comme une catastrophe : un petit nombre d'entreprises contrôleront l'IA.

    La grande majorité de nos collègues universitaires sont massivement en faveur d'une R&D ouverte en matière d'IA. Très peu d'entre eux croient aux scénarios apocalyptiques que vous avez mis en avant. Vous, Yoshua, Geoff et Stuart, êtes les exceptions singulières, mais vocales.

    Comme beaucoup, je suis très favorable aux plateformes d'IA ouvertes parce que je crois en une combinaison de forces : la créativité des gens, la démocratie, les forces du marché et la réglementation des produits. Je sais également qu'il est possible de produire des systèmes d'IA sûrs et sous notre contrôle. J'ai fait des propositions concrètes en ce sens. Tout cela poussera les gens à faire ce qu'il faut.

    Vous écrivez comme si l'IA se produisait simplement, comme s'il s'agissait d'un phénomène naturel échappant à notre contrôle. Mais ce n'est pas le cas. Elle progresse grâce à des individus que vous et moi connaissons. Nous, et eux, avons la possibilité de construire les bonnes choses. Demander une réglementation de la R&D (par opposition au déploiement des produits) suppose implicitement que ces personnes et l'organisation pour laquelle elles travaillent sont incompétentes, imprudentes, autodestructrices ou diaboliques. Ce n'est pas le cas.

    J'ai avancé de nombreux arguments pour démontrer que les scénarios catastrophes qui vous effraient tant sont absurdes. Je ne vais pas les répéter ici. Mais le point principal est que si des systèmes d'IA puissants sont guidés par des objectifs (qui incluent des garde-fous), ils seront sûrs et contrôlables parce que *nous* avons fixé ces garde-fous et ces objectifs. (Les LLM autorégressifs actuels ne sont pas guidés par des objectifs, alors n'extrapolons pas à partir de leurs faiblesses actuelles.)

    En ce qui concerne l'open source, votre campagne aura l'effet exactement inverse de celui que vous recherchez. Dans un avenir où les systèmes d'IA sont sur le point de constituer le dépôt de toutes les connaissances et cultures humaines, nous avons *nécessité* que les plateformes soient open source et librement disponibles afin que tout le monde puisse y contribuer. L'ouverture est le seul moyen de faire en sorte que les plateformes d'IA reflètent l'intégralité du savoir et de la culture humaine.
    Pour cela, il faut que les contributions à ces plateformes soient financées par la foule, un peu à la manière de Wikipédia. Cela ne fonctionnera pas si les plateformes ne sont pas ouvertes.

    L'alternative, qui se produira *inévitablement* si l'IA open source est réglementée, est qu'un petit nombre d'entreprises de la côte ouest des États-Unis et de la Chine contrôleront la plateforme d'IA et, par conséquent, l'ensemble de l'alimentation numérique de la population. Qu'est-ce que cela signifie pour la démocratie ? Qu'est-ce que cela signifie pour la diversité culturelle ?
    LeCun affirme qu'une IA sûre et ouverte est possible, et souhaitable. Le chercheur préconise de combiner la créativité humaine, la démocratie, les forces du marché et la réglementation des produits pour stimuler le développement des systèmes d'IA. Il étudie une nouvelle architecture d'IA qui peut être contrôlée en toute sécurité par des garde-fous et des objectifs centrés sur les valeurs humaines. Il affirme également que toute l'agitation autour des dangers des modèles d'IA actuels, en particulier les grands modèles de langage (LLM), est exagérée. Toutefois, malgré son soutien au développement de modèles d'IA open source, il est vivement critiqué sur ce point.

    LeCun défend les modèles d'IA open source, mais les critiques affirment que les modèles d'IA publiés par Meta ne sont pas open source comme l'entreprise tente de le faire croire. En effet, en juillet, Meta a publié son grand modèle de langage Llama 2 de manière relativement ouverte et gratuite, ce qui contraste fortement avec ses principaux concurrents. Mais dans le monde des logiciels libres, certains considèrent toujours l'ouverture de l'entreprise avec un astérisque. Bien que la licence de Meta rende le modèle d'IA Llama 2 gratuit pour beaucoup, il s'agit toujours d'une licence limitée ne répondant pas à toutes les exigences de l'Open Source Initiative (OSI).

    Comme l'explique la définition de l'OSI, l'open source est plus qu'un simple partage de code ou de recherche. Pour qu'un projet soit véritablement open source, il faut offrir une redistribution gratuite, un accès au code source, autoriser les modifications et ne pas être lié à un produit spécifique. Les limites fixées par Meta incluent l'obligation de payer une licence pour tout développeur ayant plus de 700 millions d'utilisateurs quotidiens et l'interdiction pour d'autres modèles de s'entraîner sur Llama 2. Selon les critiques, l'affirmation de Meta selon laquelle Llama 2 est open source "est trompeuse". Meta défend les limites de la licence de Llama 2 et donne ses raisons.

    Joelle Pineau, vice-présidente de Meta chargée de la recherche en IA et responsable du centre FAIR (Fundamental AI Research) de la société, est consciente des limites de l'ouverture de Meta. Mais elle affirme qu'il s'agit d'un équilibre nécessaire entre les avantages du partage d'informations et les coûts potentiels pour les activités de Meta. L'une des plus grandes initiatives open source de Meta est PyTorch, un langage de codage d'apprentissage automatique utilisé pour développer des modèles d'IA génératifs. L'entreprise a mis PyTorch à la disposition de la communauté open source en 2016, et des développeurs externes l'ont beaucoup amélioré depuis.

    Pineau espère susciter le même engouement autour des modèles d'IA de Meta. Toutefois, le groupe de recherche de Meta sur l'IA semble avoir l'intention de modifier les licences open source. Pineau affirme que Meta participe à des groupes industriels tels que le Partnership on AI et MLCommons afin de contribuer à l'élaboration de critères de référence pour les modèles d'IA de base et de lignes directrices pour le déploiement de modèles d'IA sûrs. Selon Pineau, Meta travaille avec des groupes industriels, car il estime qu'aucune entreprise ne peut à elle seule mener la conversation sur l'IA sûre et responsable au sein de la communauté open source.


    Dans un article publié en août, des chercheurs de l'université Carnegie Mellon et de l'AI Now Institute, ainsi que Meredith Whittaker, présidente de la Fondation Signal, se sont penchés sur le problème des modèles d'IA actuels dits "ouverts". Les auteurs soutiennent que nombre de ces modèles ne sont pas vraiment ouverts et que le terme est utilisé de manière confuse et variée, plus en rapport avec les aspirations et le marketing qu'en tant que descripteurs techniques. Dans le cas de Llama 2, l'article qualifie de "contestées, superficielles et à la limite de la malhonnêteté" les affirmations de Meta selon lesquelles le modèle de langage est open source.

    « Plus important encore, ces modèles permettent à Meta et à ceux qui dirigent le développement du framework de normaliser la construction de l'IA de manière à ce qu'elle soit compatible avec leurs propres plateformes d'entreprise (en veillant à ce que leur framework conduise les développeurs à créer des systèmes d'IA qui, à la manière d'un Lego, s'emboîtent dans les systèmes de leur propre entreprise) », peut-on lire dans l'article. Les auteurs de l'article poursuivent en disant également que cela permet à ces entreprises de créer des rampes d'accès pour des offres de calcul rentables et de façonner le travail des chercheurs et des développeurs.

    L'approche de Meta en matière d'ouverture est une nouveauté dans le monde des grandes entreprises d'IA. En décembre 2015, OpenAI a été lancé comme une startup de recherche en IA axée sur la communauté open source, mais les cofondateurs ont abandonné le statut d'organisation à but non lucratif en 2019. OpenAI a alors reçu un financement d'un milliard de dollars de la part de Microsoft. OpenAI estime que c'était une erreur de partager ses recherches et invoque des problèmes de sécurité et de concurrence. Si Google partage parfois ses travaux de recherche, il est également resté très discret sur le développement de certains de ses modèles d'IA.

    Les acteurs de l'open source sont généralement de petits développeurs, comme Stability AI et EleutherAI, qui ont rencontré un certain succès dans l'espace commercial. Les développeurs de logiciels libres publient régulièrement de nouveaux modèles d'IA sur les dépôts de code de Hugging Face et GitHub. Falcon 180B, un modèle d'IA open source de l'Institut d'innovation technologique basé à Dubaï, a également gagné en popularité et rivalise avec Llama 2 et GPT-4. Il convient toutefois de noter que la plupart des entreprises d'IA fermées ne partagent pas les détails de la collecte des données pour créer les ensembles de données d'entraînement de leurs modèles d'IA.

    Les acteurs de l'industrie ont commencé à examiner les limites potentielles de certaines licences open source pour les modèles d'IA dans l'espace commercial. Stefano Maffulli, directeur général de l'OSI, explique que le groupe comprend que les licences actuelles approuvées par l'OSI peuvent ne pas répondre à certains besoins des modèles d'IA. Il a ajouté que l'OSI examine comment travailler avec les développeurs d'IA pour fournir un accès transparent, sans permission, mais sûr aux modèles d'IA.

    « Nous devons absolument repenser les licences de manière à tenir compte des limites réelles des droits d'auteur et des autorisations dans les modèles d'IA, tout en conservant les principes de la communauté des logiciels libres », explique Maffulli. L'OSI serait également en train d'élaborer une définition de l'open source dans le domaine de l'IA.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de la prise de position de Yann LeCun en faveur de l'IA open source ?
    Que pensez-vous des limites imposées par Meta concernant l'utilisation de modèles d'IA Llama 2 ?
    Que pensez-vous des critiques visant Meta sur le fait qu'il ait déclaré Llama comme étant open source ?
    Meta l'a-t-il fait dans un but de marketing ? Est-ce une tentative détournée de contrôler le secteur de l'IA ?
    Que pensez-vous de la mise en place de nouvelles licences open source pour répondre aux besoins des modèles d'IA ?
    L'open source est-il l'avenir de l'IA ? Que pensez-vous de la position d'OpenAI concernant les modèles d'IA open source ?

    Voir aussi

    Ilya Sutskever, directeur scientifique d'OpenAI, sur l'avenir de l'IA : « ce sera monumental, bouleversant. Il y aura un avant et un après », il prédit l'arrivée d'une "superintelligence numérique"

    « L'open source aura un impact plus important sur l'avenir des modèles de langage que le grand public ne le pense », selon un ingénieur logiciel qui affirme que l'IA open source est plus sûre

    Google investit 300 M$ dans la start-up d'IA Anthropic, fondée par d'anciens chercheurs d'OpenAI, la société a construit son propre chatbot généraliste, un rival de ChatGPT nommé Claude

  13. #13
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 903
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 903
    Points : 37 220
    Points
    37 220
    Par défaut Le fondateur de Google Brain affirme que les Big Tech mentent sur les dangers de l'IA
    Le fondateur de Google Brain affirme que les Big Tech mentent sur les dangers de l'IA,
    l’idée que l’IA pourrait conduire à l’extinction de l’humanité serait un mensonge pour mettre fin à la concurrence

    Les opinions divergent quant aux effets de l’IA. D’un côté, certains la considèrent comme un simple outil, tandis que d’autres estiment qu’il ne s’agit que d’une question de temps avant que l’IA ne devienne une menace pour l’humanité. Selon Andrew Ng, professeur à l’université de Stanford et l’un des plus grands experts mondiaux de l’IA, les grandes entreprises technologiques mentent sur les dangers de l’IA. Il affirme que l’idée que l’IA pourrait conduire à l’extinction de l’humanité est un mensonge promulgué par ces entreprises pour déclencher une réglementation lourde qui mettrait fin à la concurrence sur le marché de l’IA. Andrew Ng a également déclaré que la proposition d’exiger des licences pour l’IA serait très préjudiciable à la communauté open source et écraserait l’innovation.

    En mai, le PDG et cofondateur d’OpenAI, Altman, a cosigné une lettre affirmant que « l’atténuation du risque d’extinction dû à l’IA devrait être une priorité mondiale ». En mars, plus de 1 100 chefs d’entreprise, dont Elon Musk et Steve Wozniak, cofondateur d’Apple, ont appelé à un moratoire de six mois sur l’entraînement des IA pour les armes autonomes.

    Nom : Andrew Ng.jpg
Affichages : 1199
Taille : 38,7 Ko

    Bill Gates, Elon Musk et d’autres experts mettent en garde contre les dangers de l’IA

    En Mars, Bill Gates a publié une lettre de 7 pages dans laquelle il soulignait que l’IA est utile sans toutefois manquer d’indiquer qu’elle est susceptible d’attaquer les humains dans le futur. Sa sortie visait répondre aux craintes sur une possible apocalypse résultant de la création de l’intelligence artificielle.

    « Certaines préoccupations en matière d’intelligence artificielle ne sont pas simplement techniques. Par exemple, il y a la menace posée par les humains armés d'IA. Comme la plupart des inventions, l'intelligence artificielle peut être utilisée à des fins bénéfiques ou maléfiques. Les gouvernements doivent travailler avec le secteur privé sur les moyens de limiter les risques. Il y a aussi la possibilité que les IA deviennent incontrôlables. Une machine pourrait-elle décider que les humains constituent une menace, conclure que ses intérêts sont différents des nôtres ou simplement cesser de se préoccuper de nous ? C'est possible, mais ce problème n'est pas plus urgent aujourd'hui qu'il ne l'était avant les développements de l'IA de ces derniers mois », avait-il déclaré.

    L’idée de Bill Gates rejoint celle de Michael Osborne et Michael Cohen de l’université d’Oxford : « « L’intelligence artificielle est susceptible de devenir plus intelligente que les Hommes contre lesquels elle pourra donc se retourner et les exterminer. »

    Dans une interview accordée à ABC News, Sam Altman, PDG d'OpenAI, a déclaré qu’il se sentait effrayé par sa propre invention. Il a mentionné quelques domaines clés dans lesquels l'IA pourrait s'avérer problématique. Tout d'abord, Altman craint que des régimes autoritaires ne finissent par créer leur propre IA et ne s'empressent de l'utiliser pour diffuser de la désinformation et des fausses nouvelles à leurs propres fins néfastes.

    Vladimir Poutine a fait des commentaires effrayants sur l'IA. Selon lui, celui qui contrôlera l'IA finira par contrôler le monde, ce qui fait froid dans le dos car c'est le genre de chose qui pourrait potentiellement déclencher une nouvelle course à l'armement avec l'IA au centre de tout cela. En mai, Altman, a cosigné une lettre affirmant que « l'atténuation du risque d'extinction dû à l'IA devrait être une priorité mondiale ».

    Elon Musk, le fondateur de Tesla et SpaceX, a exprimé des inquiétudes quant aux dangers de l’IA. Selon lui, l’IA est plus dangereuse que les ogives nucléaires et nécessite une réglementation pour superviser son développement. Bien qu’il ne soit pas généralement partisan de la réglementation et de la surveillance, il a averti que le public court un grave danger dans cette situation. Pour Elon Musk l'IA est bien plus dangereuse que l'arme nucléaire.

    L’IA, un danger pour l’humanité selon le réalisateur de Terminator

    Le réalisateur canadien James Cameron a déclaré en juillet qu'il partage l'avis des experts en IA qui affirment que les progrès de cette technologie représentent un risque sérieux pour l'humanité. Lors d'une interview, il a affirmé avoir essayé de mettre en garde l'humanité contre les dangers potentiels de l'IA à travers son film de science-fiction Terminator en 1984, mais n'a pas été écouté. Aujourd'hui, près de 40 ans après, Cameron se dit toujours terrifié par l'IA. Auparavant, le cinéaste avait affirmé que l'IA a pris le pouvoir et qu'il est désormais trop tard. Il a déclaré que l'IA doit être réglementée et développée uniquement dans le but de servir l'intérêt de tout le monde.

    « Je vous ai mis en garde en 1984, et vous n'avez pas écouté », a déclaré Cameron, en faisant référence à son film Terminator. Il a indiqué qu'il était important d'évaluer les acteurs qui développent la technologie et de déterminer s'ils le font pour le profit - "enseigner l'avidité" - ou pour la défense, ce qu'il a appelé "enseigner la paranoïa". « Je pense que la militarisation de l'IA est le plus grand danger. Je pense que nous allons nous lancer dans l'équivalent d'une course à l'armement nucléaire avec l'IA, et si nous ne la construisons pas, les autres la construiront à coup sûr, ce qui entraînera une escalade », a-t-il déclaré.

    « On pourrait imaginer une IA sur un théâtre de combat, l'ensemble étant mené par les ordinateurs à une vitesse à laquelle les humains ne peuvent plus intervenir, et vous n'avez aucune capacité de désescalade », a-t-il ajouté. En mars, plus de 1 100 chefs d'entreprise, dont Elon Musk et Steve Wozniak, cofondateur d'Apple, ont appelé à un moratoire de six mois sur l'entraînement de modèles d'IA puissants.

    De nombreuses personnes redoutent que la course à l’armement ne débouche sur l’apparition de Skynet, une intelligence artificielle maléfique. C’est pourquoi, ces dernières années, une campagne a été menée pour s’opposer à l’utilisation des technologies avancées pour renforcer les capacités militaires, notamment la création d’armes létales autonomes ou semi-autonomes, l’installation d’armes sur les robots et les drones, etc. Ces pratiques se développent dans le secteur civil et dans le secteur militaire (aux États-Unis, en Chine, en Israël, en Russie, etc.) et posent de graves problèmes éthiques.

    L’IA n’est pas une menace pour l’humanité, affirme Yann LeCun, le responsable de l’IA chez Meta

    Yann LeCun, responsable de l'IA chez Meta, est l'un des rares éminents chercheurs en IA qui n'épousent pas le discours dominant qui présente l'IA comme une menace existentielle pour l'humanité. Lors d'une récente interview, il a réitéré ses propos selon lesquels « l'IA n'est pas intelligente et est encore plus bête que les chats », ajoutant qu'il est complètement absurde de penser que l'IA pourrait éradiquer l'espèce humaine. Il affirme qu'une réglementation prématurée de l'IA s'avérera un frein pour la recherche et l'innovation dans le domaine, renforcera la domination des grandes entreprises technologiques (OpenAI, Google, etc.) et ne laissera aucune place à la concurrence.

    Contrairement à beaucoup de ses pairs, LeCun n'adopte pas une vision alarmiste du futur de l'IA. Malgré le nom, LeCun pense que l'IA n'est pas du tout intelligente, ce qui en fait une technologie totalement inoffensive. Le chercheur a affirmé que le niveau d'intelligence de l'IA se situe probablement en dessous de celui d'un chat. Lors d'une interview accordée au Financial Times cette semaine, LeCun a déclaré que les inquiétudes selon lesquelles l'IA est une menace existentielle pour l'humanité sont prématurées. Selon lui, il ne sert à rien d'être aussi alarmiste et d'appeler à une réglementation, ce qui risquerait d'avoir de graves conséquences sur l'avenir de l'IA.

    LeCun met en effet en garde contre un jeu de dupe et estime qu'une réglementation prématurée de l'IA ne servira qu'à renforcer la domination des grandes entreprises technologiques et à étouffer la concurrence. « Réglementer la recherche et le développement dans le domaine de l'IA est incroyablement contre-productif. Ils veulent en effet s'emparer de la réglementation sous le couvert de la sécurité de l'IA. Les demandes de contrôle de l'IA découlent du sentiment de supériorité de certaines des principales entreprises technologiques, qui affirment qu'elles sont les seules à pouvoir développer l'IA en toute sécurité », a déclaré le responsable de l'IA chez Meta.

    Il a ajouté : « je pense que c'est incroyablement arrogant. Et je pense exactement le contraire ». Les commentaires de LeCun laissent entendre qu'ils (Elon Musk, PDG de xAI, Sam Altman, PDG d'OpenAI, Demis Hassabis, PDG de Google DeepMind, etc.) n'appellent pas à une réglementation de l'IA pour le bien de tous, mais seulement pour asseoir leur hégémonie sur la filière de l'IA. LeCun contredit également Geoffrey Hinton, l'un des parrains de l'IA avec qui il partage le prix Turing 2018. Hinton a quitté son poste chez Google afin d'être libre de militer pour la réglementation de l'IA, mais selon LeCun, les craintes actuelles sont absurdes et sans réel fondement.

    Le Massachusetts, premier État à légiférer sur les armes à feu sur les robots

    Un projet de loi visant à empêcher les robots de porter des armes à feu a été présenté par des législateurs du Massachusetts la semaine dernière. Le texte interdirait aux fabricants, aux vendeurs et aux utilisateurs de doter des robots ou des drones d’armes à feu. Le Massachusetts serait ainsi le premier État à légiférer sur cette question. Toutefois, le projet de loi fait l’objet de vives critiques, car il accorde des exemptions aux forces armées et aux forces de l’ordre, ce qui le rendrait inefficace selon certains observateurs. Le projet de loi est néanmoins soutenu par des entreprises de robotique locales comme Boston Dynamics.

    Récemment, des élus du Massachusetts ont décidé de s’attaquer à ce phénomène. La députée Lindsay Sabadosa et le sénateur Michael Moore du Massachusetts ont soumis la semaine dernière un projet de loi qui interdirait aux robots ou aux drones de porter des armes à feu. Il s’agirait de la première loi de ce genre aux États-Unis. Le projet de loi interdirait aussi d’utiliser des robots armés pour intimider ou harceler des personnes, ou pour les contraindre physiquement.

    Le Groupe des sept pays industrialisés (G7) adoptera un code de conduite pour les entreprises qui développent des systèmes avancés d'intelligence artificielle, selon un document du G7, alors que les gouvernements cherchent à atténuer les risques et la mauvaise utilisation potentielle de la technologie.

    Le code de conduite volontaire constituera une référence pour la manière dont les grands pays régissent l'IA, dans un contexte de préoccupations en matière de protection de la vie privée et de risques pour la sécurité. Les dirigeants du Groupe des sept économies, composé du Canada, de la France, de l'Allemagne, de l'Italie, du Japon, de la Grande-Bretagne et des États-Unis, ainsi que de l'Union européenne, ont lancé le processus en mai lors d'un forum ministériel baptisé « processus d'Hiroshima sur l'IA ».

    Le code en 11 points « vise à promouvoir une IA sûre, sécurisée et digne de confiance dans le monde entier et fournira des orientations volontaires pour les actions des organisations qui développent les systèmes d'IA les plus avancés, y compris les modèles de base les plus avancés et les systèmes d'IA génératifs », selon le document du G7. Il « vise à aider à saisir les avantages et à faire face aux risques et aux défis posés par ces technologies ».

    L’IA n’est pas une menace pour l’humanité, affirme Yann LeCun, le responsable de l’IA chez Meta

    Une étude suggère que l'effet placebo pourrait influencer notre perception de l'IA. Cet effet est résistant aux descriptions négatives de l'IA et pourrait impacter sur l'expérience utilisateur. Les créateurs de la technologie peuvent utiliser la psychologie humaine pour améliorer les expériences des utilisateurs ou les manipuler. Les résultats finaux ne dépendent pas seulement de l'intelligence artificielle (IA) et de la qualité de l’IA, mais aussi de la manière dont l’humain réagit à l’IA. Deux études ont examiné dans quelle mesure les attentes d’une personne à l’égard de l’IA influençaient la probabilité qu’elle lui fasse confiance et qu’elle suive ses conseils.

    Par définition, un placebo est un procédé thérapeutique n'ayant pas d'efficacité propre ou spécifique mais agissant sur le patient par des mécanismes psychologiques et physiologiques. L'effet placebo de l'IA dans l'interaction homme-machine (IHM), inspiré par la recherche médicale, montre qu'un système d'IA peut apporter des avantages réels et subjectifs, accompagnés de changements dans le comportement et la physiologie.

    L’une des deux études a révélé qu’un fort effet placebo contribue à façonner l’opinion que les gens ont d’un outil d’IA particulier. Les participants qui s’apprêtaient à interagir avec un chatbot sur la santé mentale se sont vu dire que le robot était bienveillant, manipulateur ou qu’il n’était ni l’un ni l’autre et qu’il n’avait aucun motif ; après avoir utilisé le chatbot, qui est basé sur le modèle d’IA générative GPT-3 de l’OpenAI, la plupart des personnes ayant été amenées à croire que l’IA était bienveillante ont déclaré qu’elle l’était.


    Le professeur Ng n’a pas voulu donner son avis sur le projet de loi du gouvernement travailliste visant à réguler l’IA en fonction des risques, mais il a admis que l’IA avait besoin d’une réglementation. « Je ne suis pas favorable à une absence de réglementation, mais face à la tendance réglementaire de nombreux pays, je préférerais qu’il n’y ait pas de réglementation plutôt qu’une mauvaise réglementation », a-t-il affirmé. « Mais une réglementation judicieuse serait bien plus souhaitable qu’une absence de réglementation », a-t-il ajouté. « Il faut être clair, l’IA a fait des dégâts.

    En 2010, un algorithme de trading automatique a provoqué un krach boursier. La réglementation a un rôle à jouer. Mais ce n’est pas parce que la réglementation peut être utile que nous devons accepter une mauvaise réglementation. » Selon lui, parmi les « bonnes » réglementations, il y a la nécessité que les entreprises technologiques soient transparentes, ce qui aurait permis d’éviter le désastre des médias sociaux causé par les géants du numérique au début du siècle, et qui permettra d’éviter les désastres de l’IA causés par les géants du numérique à l’avenir.

    Source : YouTube video

    Et vous ?

    Partagez-vous l'avis d'Andrew Ng, qui estime que les Big Tech mentent sur les dangers de l'IA ?

    Selon Andrew Ng, l’idée que l’IA pourrait conduire à l’extinction de l’humanité serait un mensonge pour mettre fin à la concurrence, quel est votre avis ?

    Êtes-vous pour ou contre le développement de l'IA ? Quels sont selon vous, les avantages ou les inconvenients ?

    Voir aussi :

    James Cameron, le réalisateur de Terminator, commente l'essor de l'IA : « je vous avais prévenus en 1984 et vous n'avez pas écouté », il estime que l'IA représente un risque sérieux pour l'humanité

    Bill Gates prévient que l'intelligence artificielle est susceptible d'attaquer les humains et ravive les craintes sur une possible future apocalypse résultant de la création de l'IA

    Le PDG d'OpenAI, Sam Altman, se dit effrayé par sa propre invention, l'IA pourrait être utilisée pour diffuser largement de fausses informations, ou encore lancer une nouvelle course à l'armement
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  14. #14
    Membre à l'essai
    Homme Profil pro
    Technicien réseaux et télécoms
    Inscrit en
    Avril 2023
    Messages
    4
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Indre et Loire (Centre)

    Informations professionnelles :
    Activité : Technicien réseaux et télécoms

    Informations forums :
    Inscription : Avril 2023
    Messages : 4
    Points : 20
    Points
    20
    Par défaut
    Ce n'est pas tant l'IA mais l'utilisation qui en sera faites !
    Ce n'est pas les exemples qui manques par le passé !

    Souvent l'humain est tordu, encore une fois l'histoire est là pour nous le rappeler !

Discussions similaires

  1. Réponses: 2
    Dernier message: 09/03/2022, 22h26
  2. Réponses: 1
    Dernier message: 29/09/2020, 09h17
  3. Réponses: 122
    Dernier message: 29/08/2020, 10h54
  4. Bill Gates pense que l'intelligence artificielle pourraient sauver le monde des maladies
    Par Bill Fassinou dans le forum Intelligence artificielle
    Réponses: 8
    Dernier message: 22/02/2020, 11h37
  5. Réponses: 9
    Dernier message: 08/07/2011, 11h09

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo