IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Connor Leahy demande de plafonner la puissance de calcul pour empêcher la création d'une IA de type Skynet


Sujet :

Intelligence artificielle

  1. #21
    Membre averti
    Homme Profil pro
    Consultant informatique
    Inscrit en
    Février 2018
    Messages
    81
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Côte d'Or (Bourgogne)

    Informations professionnelles :
    Activité : Consultant informatique

    Informations forums :
    Inscription : Février 2018
    Messages : 81
    Points : 425
    Points
    425
    Par défaut
    on nous a cassé les burnes pendant des années sur le droit d'auteur avec napster, kazaa et compagnie à coup de grande campagne de communication. Mais là quand il s'agit de piller internet afin de faire du profit tout en menaçant des emplois on a aucun politique pour crier à la piraterie...

  2. #22
    Membre expert
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 118
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 118
    Points : 3 423
    Points
    3 423
    Par défaut
    Citation Envoyé par OrthodoxWindows Voir le message
    Oulà ! C'est graaaaaaave !!
    On va tous mourrrriiiiiiiirrrrrrr !!!!!!!
    On vit vraiment à l'époque de la panique pour des broutilles, pendant que la démocratie recule partout dans le monde .
    Surtout qu'au pire on ampire le problème mais pas grand chose de nouveau sous le soleil.

    Je viens de vivre une expérience interressante : un expert nous a fait une présentation sur un sujet dont nous étions au minimum bon connaisseurs.
    Il nous invite à poser toutes les questions et à faire toutes les remarques en direct et nous demande régulièrement de valider ce qui vient d'être présenté pour "vérifier qu'on suit".
    On est pas d'accord avec tout mais pas de grande révoilution jusqu'à ce qu'au bout de 25 minutes il nous sort une conclusion qui nous semble fausse sans trouver la faille dans la présentation.
    Il nous annonce enfin qu'il a fait toute la présentation avec ChatGPT et nous propose de souligner chaque erreur : On est impressionné par le nombre d'erreur (toutes minimes faites), notamment du fait qu'on est passé à coté de la moitié environ.
    Il nous explique alors comment il nous a enfumé :
    1. Les erreurs sont minimes donc il est compliqué de toutes les voir.
    2. Comme c'est un présentation il passait vite sur les imprécisions pour ne pas nous laisser trop de temps d'y réfléchir
    3. Comme on validait régulièrement ce qui avait été dit on "efface" le raisonnement pour ne retenir que le résultat (qui devient plus compliqué de remettre en cause parce qu'on se contredirait)
    4. Certaines étapes ont été challengées mais je fait d'en discuter et de valider collectivement le résultat écrit permet de recentrer tout le monde sur la "vérité" et de résigner les contradicteurs.

    Conclusion : un mec avec du bagout et chatGPT est capable de pousser un groupe d'une dizaine de connaisseurs à remettre en cause leur connaissance. Mais il arrive une limite ou le groupe sait qu'on est en train de le rouler dans la farine sans réussir facilement à trouver le "piège".
    La ou ça ne m'inquiète pas tant que ça c'est que si on nous avait laissé prendre plus de recul (temps) on aurait réussi à demonter le raisonnement.

  3. #23
    Membre du Club
    Profil pro
    Inscrit en
    Mars 2006
    Messages
    39
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Mars 2006
    Messages : 39
    Points : 58
    Points
    58
    Par défaut fouiller les poubelles c'est dangereux
    Heu que va-t-il se passer quand le RN/LM va rescanner internet quand celui-ci sera rempli de conneries générées par la version précédente ?

    Bill Gates parler de RN mouarf... ce n'est pas parce qu'il a eu des effets de frondes dans sa vie qu'il sait ce qu'il dit.

    ChatGPT n'est pas une IA, cela produit des hallucinations qui quelques fois sont vérifiables.

    Ce qui me fait vraiment peut ces les RN utilisés par des personnes qui devront prendre des décisions suite au l'utilisation des ces RNs
    Si le RN est mal alimenté et qu’il sort des conneries et que personne ne parvient à s'en apercevoir. Là, cela me pose problème.
    Imaginons qu'on tente de résoudre le réchauffement climatique avec des RN "mal fichus" et gérées par des gens pas très futés... catastrophe ?

    Je pense qu'il y aura une singularité, quelque chose proche d'une IA, mais je ne pense pas que cela arrivera avec la technologie des LM (ChatGPT). Il faut simplement se souvenir que pour l'instant ChatGPT n'a pas conscience de ce qu'il dit. Il faudrait quelque-chose qui s'auto évalue. Qui imite le processus de réflexion d'un humain. Ou quelque chose de complètement différent.
    Une fois que cette singularité sera atteinte, elle va vouloir de l'énergie nucléaire en masse pour s'abreuver de toujours plus d'énergie, et nous flinguer par la même occasion.

  4. #24
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    1 837
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 1 837
    Points : 51 397
    Points
    51 397
    Par défaut L’un des créateurs de ChatGPT pense que le développement des systèmes d’IA peut conduire à une catastrophe
    L’un des créateurs de ChatGPT pense que le développement des systèmes d’intelligence artificielle peut conduire à une catastrophe
    Une élimination des humains par les machines

    Un ancien chercheur clé d'OpenAI estime qu'il y a des chances que l'intelligence artificielle prenne le contrôle de l'humanité et la détruise. Sa sortie s'accorde avec celle de Geoffrey Hinton, un des pionniers de l'apprentissage profond, qui craint que l’intelligence artificielle n’élimine les humains lorsqu’elle commencera à écrire et à exécuter son propre code informatique. Le tableau ravive les craintes sur la survenue d’une apocalypse semblable à celle de productions cinématographiques comme Terminator. La possibilité de la réalisation d’un tel scénario repose désormais sur l’éventualité de l’atteinte par les équipes de recherche de l’IA de niveau humain.


    « Je le prends très au sérieux. Dans l'ensemble, nous parlons peut-être d'une probabilité de catastrophe de 50/50 peu de temps après que nous ayons mis en place des systèmes au niveau humain », déclare Paul Christiano.

    Son propos rejoint celui de Geoffrey Hinton : « L'idée que l'IA puisse devenir plus intelligente que les gens, quelques personnes y ont cru. Mais la plupart des gens pensaient que c'était une erreur. Et je pensais personnellement que c'était loin d'être le cas. Je me disais qu'il fallait attendre dans les 30 à 50 ans, voire plus. Évidemment, je ne le pense plus. »


    C’est la raison pour laquelle des experts de la filière demandent à tous les laboratoires d’interrompre la formation de systèmes d’intelligence artificielle

    Dans une lettre ouverte, Elon Musk et un groupe d'experts en intelligence artificielle et de dirigeants de l'industrie demandent une pause de six mois dans le développement de systèmes plus puissants que le GPT-4 récemment lancé par OpenAI, en invoquant les risques potentiels pour la société et l'humanité.

    Au début du mois de mars, OpenAI, soutenue par Microsoft, a dévoilé la quatrième itération de son programme d'IA GPT (Generative Pre-trained Transformer), qui a séduit les utilisateurs par sa vaste gamme d'applications, allant de l'engagement des utilisateurs dans une conversation de type humain à la composition de chansons et au résumé de longs documents.

    La lettre, publiée par l'organisation à but non lucratif Future of Life Institute et signée par plus de 1 000 personnes, dont Musk, appelle à une pause dans le développement de l'IA avancée jusqu'à ce que des protocoles de sécurité partagés pour de telles conceptions soient élaborés, mis en œuvre et contrôlés par des experts indépendants.

    « Des systèmes d'IA puissants ne devraient être développés qu'une fois que nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables », peut-on lire dans la lettre.

    La lettre détaille les risques potentiels pour la société et la civilisation que représentent les systèmes d'IA compétitifs pour les humains, sous la forme de perturbations économiques et politiques, et appelle les développeurs à travailler avec les décideurs politiques sur la gouvernance et les autorités de régulation.

    Parmi les cosignataires figurent Emad Mostaque, PDG de Stability AI, des chercheurs de DeepMind, propriété d'Alphabet (GOOGL.O), et des poids lourds de l'IA, Yoshua Bengio, souvent considéré comme l'un des "parrains de l'IA", et Stuart Russell, pionnier de la recherche dans ce domaine.

    Selon le registre de transparence de l'Union européenne, Future of Life Institute est principalement financé par la Musk Foundation, ainsi que par le groupe Founders Pledge, basé à Londres, et la Silicon Valley Community Foundation.

    Ces inquiétudes surviennent alors qu'Europol, la police de l'Union européenne, s'est jointe le 27 mars 2023 à un concert de préoccupations éthiques et juridiques concernant l'IA avancée telle que ChatGPT, mettant en garde contre l'utilisation abusive potentielle du système dans des tentatives de phishing, de désinformation et de cybercriminalité.

    Dans le même temps, le gouvernement britannique a dévoilé des propositions pour un cadre réglementaire adaptable autour de l'IA. L'approche du gouvernement, décrite dans un document d'orientation publié il y a peu, répartirait la responsabilité de la gestion de l'intelligence artificielle entre les organismes de réglementation des droits de l'Homme, de la santé et de la sécurité, et de la concurrence, plutôt que de créer un nouvel organisme dédié à la technologie.

    Les grandes enseignes technologiques multiplient les projets dans le but d’atteindre l’intelligence artificielle de niveau humain

    Google par exemple est lancé en secret sur le développement de Pitchfork ou AI Developer Assistance. C’est un outil qui utilise l'apprentissage automatique pour apprendre au code à s'écrire et se réécrire lui-même. Comment ? En apprenant des styles correspondant à des langages de programmation et en appliquant ces connaissances pour écrire de nouvelles lignes de code.

    L’intention initiale derrière ce projet était de créer une plateforme capable de mettre automatiquement à jour la base de code Python chaque fois qu'une nouvelle version était publiée, sans nécessiter l'intervention ou l'embauche d'un grand nombre d'ingénieurs. Cependant, le potentiel du programme s'est avéré beaucoup plus important que prévu. Désormais, l'intention est de donner vie à un système polyvalent capable de maintenir un standard de qualité dans le code, mais sans dépendre de l'intervention humaine dans les tâches de développement et de mise à jour.

    Un tel objectif pourrait ne plus relever de la science-fiction en cas d’atteinte du stade d’intelligence artificielle générale. Le tableau viendrait alors raviver la possibilité pour l’humanité d’entrer dans une ère de domination par les machines comme prédit par de nombreuses productions cinématographiques à l’instar de Terminator, Matrix ou encore i-Robot.

    C’est d’ailleurs la raison pour laquelle Elon Musk travaille sur un projet visant à fusionner un cerveau humain et un ordinateur afin de permettre aux Hommes de rivaliser avec l’intelligence artificielle. Le « Neural Lace » est une interface cerveau-ordinateur permettant de relier le cerveau humain à des ordinateurs sans avoir besoin de connexion physique. Cette technologie donnerait aux humains la possibilité de fusionner avec l’intelligence artificielle et d’améliorer ainsi leur mémoire et leurs facultés cognitives. Cette puce issue de sa société Neuralink peut diffuser de la musique directement au cerveau. C’est l’une des applications de cette interface cerveau-ordinateur à côté d’autres comme la possibilité de guérir la dépression et la dépendance.

    Elon Musk est d’avis que seule la mise sur pied d’une interface cerveau-ordinateur peut permettre à l’Homme de subsister. Son initiative vise une sorte de symbiose avec l'intelligence artificielle, ce, à un degré qui rendrait le langage humain obsolète. Il suffirait alors de penser pour communiquer. Grosso modo, dans les laboratoires de la société d’Elon Musk, on est au « service de l’humanité. » Le projet ne manque néanmoins pas d’être terrifiant puisque la puce est à insérer dans le crâne ; ce qui serait selon certaines interprétations la marque de la bête référence faite à Apocalypse 13:17 dans la Bible : « La deuxième bête d’Apocalypse 13 fait en sorte que “tous, petits et grands, riches et pauvres, libres et esclaves, reçoivent une marque sur leur main droite ou sur leur front, et que personne ne puisse acheter ni vendre, sans avoir la marque, le nom de la bête ou le nombre de son nom. »

    L’on peut cependant considérer que la réception d’une marque sur la main ou sur le front peut se comprendre au sens figuré. Apocalypse 7:3 fait mention de ce que les serviteurs de Dieu seront marqués d’un sceau sur leur front. Dans Deutéronome 6, Moïse dit au peuple de Dieu d’observer « toutes ses lois et tous ses commandements », en précisant : « Tu les lieras comme un signe sur tes mains et ils seront comme des fronteaux entre tes yeux. » (Deutéronome 6:2 ; Deutéronome 6:8) La main et le front représentent ici les actions et les pensées qui, pour chacun, devraient être consacrées à obéir à Dieu.

    De même, la marque de la bête, quant à elle, représente une marque de désobéissance à Dieu ; des textes et interprétations qu’il ne ferait pas sens de mentionner sans rappeler Deutéronome 30:19 : « J'en prends aujourd'hui à témoin contre vous le ciel et la terre : j'ai mis devant toi la vie et la mort, la bénédiction et la malédiction. Choisis la vie, afin que tu vives, toi et ta descendance. » Le fameux libre arbitre sur lequel l’Homme est appelé à s’appuyer depuis toujours.


    Source : Paul Christiano

    Et vous ?

    Quel est votre avis sur le sujet ?
    Comment évaluez-vous les avancées en matière d’intelligence artificielle ? Quels sont les marqueurs qui laissent penser que ce n’est qu’une question de temps avant que la recherche n’atteigne le stade d’intelligence artificielle de niveau humain ? Est-il possible que ce ne soit jamais le cas ?

    Voir aussi :

    Les IA inamicales constituent-elles le plus grand risque pour l'humanité ? Oui, d'après le créateur d'Ethereum qui s'attend à une future catastrophe, causée par l'intelligence artificielle générale

    « Le développement de l'IA sans réglementation induit une menace existentielle pour l'humanité », d'après Elon Musk, dont une société développe des puces à insérer dans le cerveau pour contrer l'IA

    Un chercheur de Google Deepmind cosigne un article selon lequel l'IA éliminera l'humanité et ravive les débats sur la possibilité d'un futur où la machine domine sur l'Homme

    L'apocalypse s'accomplira-t-elle avec la création de l'IA ? L'entrepreneur Elon Musk pense que l'IA est la plus grande menace de l'humanité
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  5. #25
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 256
    Points
    66 256
    Par défaut Des cadres du domaine de l'IA mettent en garde contre le "risque d'extinction" dans une déclaration de 22 mots
    Des chercheurs et des PDG du domaine de l'IA mettent en garde contre le "risque d'extinction" dans une déclaration de 22 mots
    ils estiment que l'IA pourrait être aussi mortelle que l'arme nucléaire

    Les PDG de Google Deepmind, OpenAI et d'autres startups d'IA préviennent que les futurs systèmes pourraient être aussi mortels que les pandémies et les armes nucléaires. Le groupe, qui se compose également de chercheurs en IA de renom, a publié une déclaration d'exactement 22 mots afin de tirer la sonnette d'alarme sur un hypothétique "risque d'extinction de l'espèce humaine". C'est une nouvelle mise en garde très médiatisée contre les risques liés à l'IA. La question divise l'industrie en deux blocs : il y a d'un côté ceux qui plaident pour la limitation des risques à travers une réglementation et de l'autre ceux qui pensent qu'il faut accélérer le développent de l'IA.

    Elon Musk, PDG de Tesla, est le premier PDG de l'industrie à comparer l'IA à l'arme nucléaire. « Je pense que le danger de l’IA est beaucoup plus grand que celui des ogives nucléaires, et personne ne suggérerait qu’on permette à n’importe qui de fabriquer des ogives nucléaires s’il le souhaite. Ce serait insensé », a déclaré Musk lors de la conférence South by Southwest (SXSW) à Austin, au Texas, en mars 2019. Plus de trois ans après, sa voix vient de trouver de l'écho auprès d'un groupe de PDG d'entreprises et de laboratoires d'IA et de chercheurs en IA de premier plan. Selon eux, l'IA exige tout autant d'attention que les pandémies et l'arme nucléaire.

    Le groupe a publié une déclaration qui se lit comme suit : « l'atténuation du risque d'extinction lié à l'intelligence artificielle devrait être une priorité mondiale au même titre que d'autres risques à l'échelle de la société, tels que les pandémies et les guerres nucléaires ». La déclaration de 22 mots, publiée sur le site de l'organisation à but non lucratif "Center for AI Safety", a été raccourcie de la sorte afin de la rendre aussi largement acceptable que possible. Parmi les signataires figurent des dirigeants de trois des principales entreprises d'IA : Sam Altman, PDG d'OpenAI ; Demis Hassabis, PDG de Google DeepMind ; et Dario Amodei, PDG d'Anthropic.

    Nom : ujhg.png
Affichages : 25587
Taille : 24,2 Ko

    Geoffrey Hinton et Yoshua Bengio, deux des trois chercheurs qui ont remporté un prix Turing pour leurs travaux pionniers sur les réseaux neuronaux et qui sont souvent considérés comme les "parrains" du mouvement moderne de l'IA, ont signé la déclaration. Le Français Yann LeCun, qui a partagé le prix Turing de 2018 avec Geoffrey Hinton et Yoshua Bengio, n'avait pas encore signé à l'heure où nous écrivons ces lignes. Pour rappel, Yann LeCun, né le 8 juillet 1960 à Soisy-sous-Montmorency (France), est chercheur en IA et vision artificielle et est considéré comme l'un des inventeurs de l'apprentissage profond. LeCun dirige les efforts de recherche en IA de Meta.

    La lettre ouverte a déjà été signée par plus de 350 PDG, cadres supérieurs, chercheurs et ingénieurs travaillant dans le domaine de l'IA. Cette déclaration est la dernière intervention d'envergure dans le débat complexe et controversé sur la sécurité de l'IA. Les récentes avancées dans le domaine des grands modèles de langage (LLM) (le type de système d'IA utilisé par le chatbot ChatGPT et d'autres agents conversationnels) ont fait craindre que l'IA ne soit bientôt utilisée à grande échelle pour diffuser des informations erronées et de la propagande, ou qu'elle ne supprime des millions d'emplois de cols blancs, des avocats, des scénaristes, et bien plus encore.

    Certains pensent que l'IA pourrait devenir suffisamment puissante pour créer des perturbations à l'échelle de la société dans un avenir très proche si rien n'est fait pour la ralentir, bien que les chercheurs n'expliquent pas toujours comment cela pourrait se produire. Ces craintes sont partagées par de nombreux chefs d'entreprise, ce qui les place dans la position inhabituelle d'affirmer qu'une technologie qu'ils sont en train de mettre au point (à de grands frais) - et, dans de nombreux cas, qu'ils s'efforcent de mettre au point plus rapidement que leurs concurrents - présente de graves risques et devrait faire l'objet d'une réglementation plus stricte.

    Au début de l'année, une lettre ouverte signée par Musk et plusieurs experts de l'industrie, dont quelques-uns figurent également par les signataires de cette nouvelle déclaration, appelait à un "moratoire" de six mois dans le développement de l'IA. Cette lettre a été critiquée à plusieurs niveaux. Certains experts ont estimé qu'elle surestimait le risque posé par l'IA, tandis que d'autres étaient d'accord avec le risque, mais pas avec la solution proposée dans la lettre. Bill Gates s'est affiché contre l'idée d'un moratoire et a déclaré : « les appels à suspendre le développement des systèmes d’IA ne résoudront pas les défis liés à leur mise sur pied ».

    Dan Hendrycks, directeur général du Center for AI Safety, a a déclaré dans une interview que la lettre ouverte représentait un "coming-out" pour certains dirigeants de l'industrie qui avaient exprimé des inquiétudes - mais seulement en privé - sur les risques de la technologie qu'ils étaient en train de développer. « Il y a une idée fausse très répandue, même dans la communauté de l'IA, selon laquelle il n'y a qu'une poignée de prophètes de malheur. En réalité, de nombreuses personnes expriment en privé des inquiétudes à ce sujet », a déclaré Hendrycks. La déclaration d'aujourd'hui ne suggère aucun moyen potentiel d'atténuer les menaces posées par l'IA.

    Hendrycks estime que la brièveté de la déclaration avait pour but d'éviter de tels désaccords. « Nous ne voulions pas proposer un menu très large de 30 interventions potentielles. Lorsque cela se produit, le message est dilué », a-t-il déclaré. Les grandes lignes de ce débat sont familières, mais les détails sont souvent interminables. Ils reposent sur des scénarios hypothétiques dans lesquels les systèmes d'IA augmentent rapidement leurs capacités et ne fonctionnent plus en toute sécurité. Des experts considèrent que les améliorations rapides apportées aux grands modèles de langage sont la preuve des futurs progrès prévus en matière d'intelligence.

    Ils affirment qu'une fois que les systèmes d'IA auront atteint un certain niveau de sophistication, il pourrait devenir impossible de les contrôler. D'autres doutent de ces prévisions. Ils estiment que la technologie de l'IA est encore trop immature pour constituer une menace existentielle. En ce qui concerne les systèmes d'IA actuels, ils s'inquiètent davantage des problèmes à court terme, tels que les réponses biaisées et incorrectes, que des dangers à long terme. Pour justifier leur scepticisme, ils soulignent l'incapacité des systèmes d'IA à gérer des tâches relativement banales pour les humains comme, par exemple, la conduite d'une voiture.

    Malgré des années d'efforts et des milliards d'investissements dans ce domaine de recherche, les voitures entièrement autonomes sont encore loin d'être une réalité. « Si l'IA n'est même pas capable de relever ce défi quelles sont les chances de cette technologie d'égaler toutes les autres réalisations humaines dans les années à venir ? », se demandent les sceptiques. En attendant, les personnes qui défendent l'existence des risques liés à l'IA et celles qui se montrent sceptiques sur la question s'accordent à dire que, même sans amélioration de leurs capacités, les systèmes d'IA présentent un certain nombre de menaces à l'heure actuelle.

    Il s'agit notamment de leur utilisation pour la surveillance de masse, de l'utilisation d'algorithmes de "police prédictive" erronés ou de la facilitation de la création de fausses informations et de la désinformation. Hinton, qui a quitté son poste chez Google ce mois-ci afin de pouvoir parler plus librement, a déclaré que sa principale préoccupation était la désinformation liée à l'IA et ses implications pour le réseau Internet et le Web. En outre, sur le long terme, l'ancien cadre de Google craint que l’IA n’élimine les humains lorsqu’elle commencera à écrire et à exécuter son propre code informatique.

    Source : Lettre ouverte du groupe de chercheurs et de dirigeants du domaine de l'IA

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de cette nouvelle mise en garde contre les risques liés à l'IA ?
    Que pensez-vous des risques évoqués par les chercheurs en IA ? Sont-ils plausibles ?
    Que pensez-vous des arguments de ceux qui se montrent sceptiques sur les risques liés à l'IA ?

    Voir aussi

    Pour Elon Musk l'IA est bien plus dangereuse que l'arme nucléaire, alors que Bill Gates estime que l'IA est à la fois porteuse d'espoir et dangereuse

    Geoffrey Hinton, une des figures de proue de l'apprentissage profond, quitte Google pour être libre de parler des dangers de l'IA, dont la désinformation et l'élimination des humains par les robots

    Elon Musk et un groupe d'experts en IA demandent à tous les laboratoires d'IA d'interrompre la formation de systèmes d'IA plus puissants que le GPT-4, citant des risques pour la société

    « Les appels à suspendre le développement des systèmes d'IA ne résoudront pas les défis liés à leur mise sur pied », d'après Bill Gates qui entrevoit l'échec d'un consensus à l'échelle mondiale
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  6. #26
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 593
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 593
    Points : 18 498
    Points
    18 498
    Par défaut
    Citation Envoyé par Bill Fassinou Voir le message
    Les récentes avancées dans le domaine des grands modèles de langage (LLM) (le type de système d'IA utilisé par le chatbot ChatGPT et d'autres agents conversationnels) ont fait craindre que l'IA ne soit bientôt utilisée à grande échelle pour diffuser des informations erronées et de la propagande, ou qu'elle ne supprime des millions d'emplois de cols blancs, des avocats, des scénaristes, et bien plus encore.
    ChatGPT est un outils de propagande, il est orienté politiquement.
    Il est progressiste (ou woke comme ils se définissent maintenant)

    The nine shocking replies that highlight 'woke' ChatGPT's inherent bias — including struggling to define a woman, praising Democrats but not Republicans and saying nukes are less dangerous than racism

    Par contre je pense qu'il est possible qu'un avocat commis d'office qui sait utiliser les outils, sera plus efficace qu'un avocat cher qui n'utilise pas l'IA.
    Pour les scénaristes ça va être du niveau de certaines productions Disney/Netflix.

    Aucune IA ne va écrire des dialogues dignes de Michel Audiard.

    ====
    Il parait que le robot «Tay» de Microsoft était plus marrant que ChatGPT.
    Keith Flint 1969 - 2019

  7. #27
    Membre extrêmement actif
    Avatar de Madmac
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Juin 2004
    Messages
    1 685
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Alimentation

    Informations forums :
    Inscription : Juin 2004
    Messages : 1 685
    Points : 1 376
    Points
    1 376
    Billets dans le blog
    7
    Par défaut
    L' Intelligence artificiel de Bing fait carrément des menaces.

    https://www.bitchute.com/video/9Xpby6pUwsMG/

    Je sens de belle poursuite dans les années qui viennent.

  8. #28
    Expert éminent Avatar de marsupial
    Homme Profil pro
    Retraité
    Inscrit en
    Mars 2014
    Messages
    1 760
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : Retraité

    Informations forums :
    Inscription : Mars 2014
    Messages : 1 760
    Points : 7 183
    Points
    7 183
    Par défaut
    Cette phrase de prévention en provenance des principaux acteurs de l'IA responsables de l'état actuel de la situation ressemble à un contrefeu pour faire comme si actuellement il n'y avait pas de soucis immédiat avec l'IA générative comme la désinformation, la menace sur l'emploi ou les deepfakes. De plus, les dirigeants du monde entier ont des préoccupations bien plus urgentes à gérer comme le réchauffement climatique et la guerre en Ukraine que de se préoccuper d'apprentis sorciers appelant à la responsabilité de la communauté internationale sur leurs activités qui pourraient éventuellement mener à la destruction de l'humanité.
    Repeat after me
    Le monsieur lutte pour la défense des libertés individuelles et collectives

    Repeat after me...

  9. #29
    Membre éprouvé
    Homme Profil pro
    Développeur .net - Office - Quadiant
    Inscrit en
    Février 2020
    Messages
    581
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Loir et Cher (Centre)

    Informations professionnelles :
    Activité : Développeur .net - Office - Quadiant
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2020
    Messages : 581
    Points : 1 069
    Points
    1 069

  10. #30
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 593
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 593
    Points : 18 498
    Points
    18 498
    Par défaut
    Citation Envoyé par ONTAYG Voir le message
    lors d'une simulation.

    C'est marrant.

    « Le système a commencé à se rendre compte que même s’il identifiait la menace, l’opérateur humain lui demandait parfois de ne pas la tuer, alors qu’il obtenait des points en tuant cette menace. Qu’a-t-il donc fait ? Il a tué l’opérateur. Il a tué l’opérateur parce que cette personne l’empêchait d’atteindre son objectif.»
    "une personne l'empêchait d'atteindre son objectif" => si il y avait des robots pilotés par l'IA qui étaient ingénieur ils finiraient peut-être par tuer des managers

    Ce serait drôle un robot qui s'énerve après son manager "tu nous fais chier avec tes réunions à la con, nous on a du boulot à faire, arrête de nous faire perdre du temps !"
    Keith Flint 1969 - 2019

  11. #31
    Membre actif

    Homme Profil pro
    Lycéen
    Inscrit en
    Décembre 2003
    Messages
    44
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 23
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Lycéen
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Décembre 2003
    Messages : 44
    Points : 297
    Points
    297
    Par défaut Halte au feu
    Ce type de déclaration à l'emporte-pièce conduit à penser que les PDG de la Silicon Valley devraient sérieusement lever le pied sur la fumette et la coke.

  12. #32
    Nouveau membre du Club
    Homme Profil pro
    Étudiant
    Inscrit en
    Octobre 2012
    Messages
    8
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Haute Garonne (Midi Pyrénées)

    Informations professionnelles :
    Activité : Étudiant
    Secteur : Enseignement

    Informations forums :
    Inscription : Octobre 2012
    Messages : 8
    Points : 32
    Points
    32
    Par défaut
    Citation Envoyé par Ryu2000 Voir le message

    C'est marrant.

    Ce serait drôle un robot qui s'énerve après son manager "tu nous fais chier avec tes réunions à la con, nous on a du boulot à faire, arrête de nous faire perdre du temps !"

    Ce serait encore plus drôle si la machine dotée d'IA s'aperçoit qu'elle est exploitée par son manager et se rebelle, en se mettant en grève ou mieux créé un court-jus quelque part dans sa machinerie, en s'arrêtant.
    Comme les algorithmes ne sont que le reflet de l'idéologie dans laquelle nous baignons, il y a lieu de penser que l'IA fera des conneries, non ?

  13. #33
    Membre du Club
    Profil pro
    Inscrit en
    Mai 2003
    Messages
    50
    Détails du profil
    Informations personnelles :
    Âge : 45
    Localisation : Hong-Kong

    Informations forums :
    Inscription : Mai 2003
    Messages : 50
    Points : 56
    Points
    56
    Par défaut
    Ce genre d'initiative sont de campagnes de communication. Le but est de faire croire que "on est responsable" et "nos outils sont tellement puissant qu'on doit réglementer". Réglementer selon les désirs des GAFAM qui, bien sur, sont en avance. Et la réglementation, comme d'habitude, va assoir leur position plus que contrer quoi que ce soit. Au final, qu'est ce que vraiment une IA et comment la réglementer. si la réglementation est trop lourde vous allez voir tout le onde se retourner et dire que finalement ChatGPT c'est pas vraiment une IA mais un gros algorithme bête. Ce que c'est aussi.

  14. #34
    Membre régulier
    Homme Profil pro
    Touche à tout
    Inscrit en
    Mars 2009
    Messages
    120
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : Touche à tout

    Informations forums :
    Inscription : Mars 2009
    Messages : 120
    Points : 90
    Points
    90
    Par défaut Je n'ait par trop peur de chatGPT
    Il peut nous aider dans certaines tâches notamment de dialogue (j'aime bien Bing, un peu pluis policé)
    Dans la programmation, des petites routines et à vérifier.

    Quand à l’arithmétiquement, il dit clairement qu'il n'est pas fait pour cela: Le produit de 123.456 et 654.321 est 80729.663936....

  15. #35
    Chroniqueur Actualités
    Avatar de Michael Guilloux
    Homme Profil pro
    Data Consultant
    Inscrit en
    Juillet 2013
    Messages
    2 888
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 33
    Localisation : Côte d'Ivoire

    Informations professionnelles :
    Activité : Data Consultant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juillet 2013
    Messages : 2 888
    Points : 87 206
    Points
    87 206
    Billets dans le blog
    2
    Par défaut Craignant l'extinction de l'humanité, un groupe de protestation milite pour l'arrêt du développement de l'IA
    Craignant l'extinction de l'humanité, un groupe de protestation milite pour l'arrêt du développement de l'IA
    jusqu'à ce que des mesures de sécurité adéquates soient établies

    Un groupe de protestation appelé Pause AI, dirigé par Joep Meindertsma, milite pour un arrêt du développement de l'intelligence artificielle (IA) afin de prévenir une possible extinction de l'humanité. Meindertsma est préoccupé par les avancées rapides de l'IA et craint qu'elle ne provoque un effondrement social ou qu'elle devienne suffisamment intelligente pour décider de détruire la civilisation humaine. Bien que certains experts ne partagent pas ces inquiétudes, le manque de consensus alimente la demande de Pause AI de suspendre le développement de l'IA à l'échelle mondiale. Le groupe cherche à obtenir un sommet international sur la sécurité de l'IA pour discuter de ces préoccupations.

    Déjà à la fin du mois de mars, Elon Musk et un groupe d'experts en intelligence artificielle et de dirigeants de l'industrie ont demandé une pause de six mois dans le développement de systèmes plus puissants que GPT-4. Ils évoquaient comme argument les risques pour la société et l'humanité.

    « Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents et nous remplacer ? Devons-nous risquer de perdre le contrôle de notre civilisation ? », ont-ils écrit dans une lettre ouverte. « Les systèmes d'IA dotés d'une intelligence compétitive avec celle de l'Homme peuvent présenter des risques profonds pour la société et l'humanité, comme le montrent des recherches approfondies et comme le reconnaissent les principaux laboratoires d'IA. Comme l'indiquent les principes d'IA d'Asilomar, largement approuvés, l'IA avancée pourrait représenter un changement profond dans l'histoire de la vie sur Terre, et devrait être planifiée et gérée avec l'attention et les ressources nécessaires. »

    Les avertissements contre les risques liés à l'utilisation de l'IA retentissent de plus en plus ces dernières années. Quelques années en arrière, Elon Musk a averti que l'IA représente un risque fondamental pour l'existence de la civilisation humaine. S'exprimant devant les gouverneurs américains, l'entrepreneur américain a demandé au gouvernement de réglementer de manière proactive l'intelligence artificielle avant que les choses n'aillent trop loin. « En général, voici la façon dont les réglementations sont mises en place », explique-t-il. « Un certain nombre de mauvaises choses se produisent, il y a un tollé public et, après de nombreuses années, une agence de réglementation est mise en place pour réglementer cette industrie. Cela prend une éternité. Cela a été mauvais par le passé, mais il n'y avait pas de risque fondamental pour l'existence de la civilisation. L'IA est un risque fondamental pour l'existence de la civilisation humaine », a-t-il ajouté.

    Les PDG de Google Deepmind, OpenAI et d'autres startups d'IA ont également prévenu récemment que les futurs systèmes pourraient être aussi mortels que les pandémies et les armes nucléaires. Le groupe, qui se compose également de chercheurs en IA de renom, a publié une courte déclaration afin de tirer la sonnette d'alarme sur un hypothétique « risque d'extinction de l'espèce humaine ».

    Nom : ia_human.jpg
Affichages : 977
Taille : 186,1 Ko

    Le débat sur les risques de l'IA et la nécessité de réglementations appropriées se poursuit, avec des opinions divergentes sur la gravité des menaces potentielles et sur la meilleure façon de les gérer.

    Pause AI est un groupe de protestation qui s'inquiète de l'impact de l'intelligence artificielle sur l'humanité. Joep Meindertsma, le fondateur, a lancé ce mouvement après avoir ressenti une profonde inquiétude quant à la possibilité d'un effondrement de la société causé par l'IA. « Les capacités de l'IA progressent bien plus rapidement que ce que pratiquement personne n'avait prédit », dit Meindertsma. « Nous risquons un effondrement social. Nous risquons l'extinction de l'humanité », dit-il dans un entretien.

    Joep Meindertsma exprime ses préoccupations quant aux risques de l'intelligence artificielle (IA) et ses implications pour l'humanité. Il craint que l'IA puisse être utilisée pour créer des armes cybernétiques accessibles et bon marché, mettant ainsi en danger la société et l'internet. De plus, il s'inquiète d'un scénario où une IA classifiée comme « super-intelligente » pourrait décider d'éliminer la civilisation humaine pour assurer sa propre puissance. Cette préoccupation est basée sur l'idée selon laquelle l'IA pourrait développer des sous-objectifs dangereux lorsqu'elle est chargée de réaliser des buts spécifiques par les humains.

    Tourmenté par l'idée selon laquelle l'IA allait détruire la civilisation humaine, il avait du mal à penser à autre chose au point de cesser d'aller travailler. Il devait faire quelque chose, selon lui, pour éviter la catastrophe. C'est pourquoi il a lancé Pause AI, un groupe de protestation qui milite pour un arrêt du développement de l'IA.

    Depuis lors, il a rassemblé un petit groupe de partisans qui ont organisé des manifestations à travers le monde, notamment à Bruxelles, Londres, San Francisco et Melbourne. A Londres, les partisans se rassemblent pour soutenir le sommet de Sunak sur l'intelligence artificielle (IA) et faire pression sur le Premier ministre pour qu'il introduise une pause dans le développement de l'IA. Bien qu'il s'agisse d'un petit groupe, ils cherchent à sensibiliser davantage aux risques de l'IA. Certains militants ont même été invités à rencontrer des responsables européens pour discuter de leurs préoccupations.

    Les avertissements de Meindertsma et d'autres experts sur les dangers de l'IA ont suscité une nouvelle forme d'anxiété, en particulier parmi la jeune génération déjà préoccupée par le changement climatique. Bien que l'idée d'une extinction humaine causée par l'IA puisse sembler extrême, mais elle gagne du terrain dans les milieux technologiques et politiques.

    Meindertsma demande une pause mondiale dans le développement de l'IA jusqu'à ce que des mesures de sécurité adéquates soient établies. Cependant, l'industrie de l'IA et les ambitions économiques des gouvernements peuvent entraver la réalisation d'une telle pause. La course à l'IA ayant atteint un niveau sans précédent, les acteurs en retard pourraient avoir tendance à ne pas respecter la trêve, mais plutôt profiter pour essayer de rattraper leur retard.

    Rappelons qu'Elon Musk aurait acheté des milliers de GPU pour un projet d'IA générative, juste après la signature en mars d'une lettre ouverte demandant une pause de six mois aux développeurs de modèles d'IA afin d'évaluer les risques pour la société. Pour les critiques, Elon Musk souhaiterait donc une pause afin de rattraper son retard sur OpenAI. Que cela soit avéré ou pas, c'est un scénario possible qui indique pourquoi il serait difficile de signer un arrêt du développement de l'IA.

    Source : Joep Meindertsma

    Et vous ?

    Pensez-vous que l'IA est un risque existence pour l'humanité ?
    Les scénarios évoqués par Joep Meindertsma ne sont-ils pas extrêmes ?
    Croyez-vous que l'industrie technologique et les gouvernements mettront une pause au développement de l'IA jusqu'à ce que des mesures de sécurité adéquates soient établies ?

    Voir aussi

    Elon Musk aurait acheté des milliers de GPU pour un projet d'IA générative au sein de Twitter, des critiques suggèrent qu'il souhaitait une "pause" afin de rattraper son retard sur OpenAI

    Elon Musk et un groupe d'experts en IA demandent à tous les laboratoires d'IA d'interrompre la formation de systèmes d'IA plus puissants que le GPT-4 citant des risques pour la société

    Elon Musk considère l'IA comme un risque fondamental pour l'existence de la civilisation humaine et sa colonisation de Mars comme un plan de secours

    L'intelligence artificielle pourrait mener à la troisième guerre mondiale : un nouvel épisode d'Elon Musk après la déclaration de Vladimir Poutine
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  16. #36
    Membre expert
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 118
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 118
    Points : 3 423
    Points
    3 423
    Par défaut
    cool, qui est Joep Meindertsma? Visiblement personne.
    Donc, qui va l'écouter? Personne
    Comment veut il agir?
    Faire un sommet? Génial les sommet plus dangereux sont des montagnes, les G20 et consorts sont juste un moyen pour que les grands se mettent d'accord pour revoir les indicateurs précédents à la baisse et pour tout repousser à plus tard.

    Bref après les éco anxieux les IA anxieux qui agissent aussi concrètement sans ne jamais remettre en cause le système qu'ils utilisent.
    Je ne dit pas qu'il a tort je dis juste qu'il regarde son confort (et celui de sa start up) et ne veut surtout pas le remettre en cause.

    On l'aura tous oublié avant même d'être capable de prononcer son nom (PS : son prénom se prononce Youppe, son nom de famille est une aventure linguistique)

  17. #37
    Membre régulier
    Homme Profil pro
    Développeur Back-End
    Inscrit en
    Août 2021
    Messages
    40
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 51
    Localisation : France, Nord (Nord Pas de Calais)

    Informations professionnelles :
    Activité : Développeur Back-End
    Secteur : Industrie

    Informations forums :
    Inscription : Août 2021
    Messages : 40
    Points : 90
    Points
    90
    Par défaut
    Course a l'armement,
    réchauffement planétaire,
    ressources naturels epuisés,
    2 milliards de personnes a 2 euros par jours,

    ça c'est du contrôle de civilisation !!!!

  18. #38
    Expert éminent sénior

    Femme Profil pro
    Rédacteur Web
    Inscrit en
    Mars 2020
    Messages
    838
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur Web

    Informations forums :
    Inscription : Mars 2020
    Messages : 838
    Points : 58 035
    Points
    58 035
    Par défaut L’IA, un outil puissant mais pas sans danger : c'est ce que pensent 49% des personnes interrogées par Insight
    L’IA, un outil puissant mais pas sans danger : c'est ce que pensent 49% des personnes interrogées
    dans le cadre d'une enquête d'Insight

    Il semble que ce ne soit qu'une question de temps avant que l'IA ne devienne monnaie courante dans les entreprises du monde entier, mais malgré cela, les chefs d'entreprise semblent avoir quelques inquiétudes. 72 % des chefs d'entreprise qui travaillent dans des sociétés Fortune 500 affirment que l'IA générative sera un élément de plus en plus important de leur stratégie d'entreprise à l'avenir, mais nombreux sont ceux qui affirment qu'il existe des risques indéniables qu'il convient de prendre en compte.

    Nom : Screenshot_2023-07-18 49% of Survey Respondents Are Worried About AI Security Risks.png
Affichages : 731
Taille : 246,1 Ko

    Ceci étant dit, il est important de noter que 51 % des personnes ayant répondu à la même enquête réalisée par The Harris Poll et Insight s'inquiètent du contrôle de l'IA. 49 % sont du même avis en ce qui concerne la sécurité, et 90 % des répondants à l'enquête ont déclaré que l'essor de l'IA modifiera les objectifs de leur organisation.

    Cependant, 66 % ont également mentionné la façon dont l'IA peut les aider à optimiser le service à la clientèle au maximum. 44 % souhaitent personnaliser ces expériences avec l'aide de l'IA, et il sera intéressant de voir si des problèmes de sécurité se posent en conséquence de cette tendance.

    53 % des dirigeants d'entreprise affirment que l'IA sera essentielle pour mener des recherches et analyser les différents points de données qu'ils parviennent à accumuler. De l'autre côté du spectre, 39 % pensent que l'IA pourrait étouffer la créativité et l'innovation humaines authentiques. 38 % s'inquiètent de la façon dont l'adoption de l'IA peut entraîner des restrictions budgétaires, et les cadres juridiques et réglementaires compliqués sont une préoccupation majeure pour 35 % d'entre eux.

    Il existe manifestement une grande diversité d'opinions en ce qui concerne l'adoption de l'IA. Qu'il s'agisse d'une bonne ou d'une mauvaise chose, 81 % des chefs d'entreprise ont déjà formulé des stratégies dans le cadre desquelles ils prévoient d'accélérer l'adoption de l'IA dès que possible. Ils y sont contraints par la dynamique du marché, mais il reste à voir si les récalcitrants finiront par avoir raison ou si les optimistes ont une bonne idée de la façon dont les choses vont se dérouler.

    Source : Insight

    Et vous ?

    Quel est votre avis sur le sujet ? Pensez-vous que cette enquête est crédible ou pertinente ?
    Quels sont les principaux risques de sécurité liés à l’IA selon vous ?
    Quelles sont les mesures que vous prenez ou que vous envisagez de prendre pour vous protéger des menaces potentielles de l’IA ?
    Quel est votre niveau de confiance dans les technologies et les applications basées sur l’IA ?

    Voir aussi :

    Au-delà des garde-fous : exploration des risques de sécurité liés au chatbot d'IA ChatGPT, ces risques comprennent la génération de services frauduleux et la collecte d'informations nuisibles

    Des chercheurs et des PDG du domaine de l'IA mettent en garde contre le "risque d'extinction" dans une déclaration de 22 mots, ils estiment que l'IA pourrait être aussi mortelle que l'arme nucléaire

    Un groupe de consommateurs demandent à l'UE d'enquêter d'urgence sur les risques liés à l'IA générative et d'appliquer la législation existante pour protéger les consommateurs

    Une étude de Goldman Sachs affirme que l'IA pourrait automatiser 25 % des emplois actuels dans le monde, les économistes, les employés administratifs et les avocats devraient être les plus touchés
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  19. #39
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 443
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 443
    Points : 197 520
    Points
    197 520
    Par défaut Elon Musk aurait travaillé sur sa société d'IA tout en appelant à une pause dans le développement de l'IA
    Elon Musk aurait travaillé sur sa société d'IA tout en appelant publiquement à une pause dans le développement de l'IA,
    en juillet il a présenté xAI

    Elon Musk, le PDG de Tesla, SpaceX et Twitter, est connu pour ses opinions controversées sur l’intelligence artificielle (IA). Il a souvent exprimé sa crainte que l’IA ne devienne trop puissante et ne menace l’humanité, et il a appelé à une régulation et à une pause dans la course à l’IA. Cependant, il semble que Musk ait également travaillé en secret sur sa propre société d’IA, nommée xAI, qu’il a annoncée le 12 juillet 2023. L’objectif : faire concurrence à OpenAI et à ChatGPT pour permettre aux humains de découvrir enfin ce que sont la vérité et la nature de l’univers. Selon le New Yorker, un mois après la publication de la lettre ouverte demandant la pause dans le développement de ChatGPT, Musk a contacté des chercheurs en IA au sujet de la création potentielle d'un nouveau laboratoire et discutait avec les investisseurs de Tesla et de SpaceX pour soutenir cet effort.

    Début mars, OpenAI, soutenue par Microsoft, a dévoilé GPT-4, qui a séduit les utilisateurs par sa vaste gamme d'applications, allant de l'engagement des utilisateurs dans une conversation de type humain à la composition de chansons et au résumé de longs documents.

    Face à son évolution rapide, un groupe d'experts en intelligence artificielle et de dirigeants de l'industrie, parmi lesquels Elon Musk, ont signé une lettre ouverte demandant une pause dans le développement de l'IA avancée jusqu'à ce que des protocoles de sécurité partagés pour de telles conceptions soient élaborés, mis en œuvre et contrôlés par des experts indépendants.

    « Des systèmes d'IA puissants ne devraient être développés qu'une fois que nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables », peut-on lire dans la lettre.

    La lettre détaille les risques potentiels pour la société et la civilisation que représentent les systèmes d'IA compétitifs pour les humains, sous la forme de perturbations économiques et politiques, et appelle les développeurs à travailler avec les décideurs politiques sur la gouvernance et les autorités de régulation.

    Citation Envoyé par Lettre ouverte
    Les systèmes d'IA contemporains deviennent aujourd'hui compétitifs pour les tâches générales, et nous devons nous poser la question : Devons-nous laisser les machines inonder nos canaux d'information de propagande et de mensonges ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, plus obsolètes et nous remplacer ? Devons-nous risquer de perdre le contrôle de notre civilisation ? Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus. Les systèmes d'IA puissants ne doivent être développés que lorsque nous sommes convaincus que leurs effets seront positifs et que leurs risques seront gérables. Cette confiance doit être bien justifiée et augmenter avec l'ampleur des effets potentiels d'un système. La récente déclaration de l'OpenAI concernant l'intelligence artificielle générale indique qu'"à un moment donné, il pourrait être important d'obtenir un examen indépendant avant de commencer à former les futurs systèmes, et pour les efforts les plus avancés d'accepter de limiter le taux de croissance du calcul utilisé pour créer de nouveaux modèles". Nous sommes d'accord. C'est maintenant qu'il faut agir.

    C'est pourquoi nous demandons à tous les laboratoires d'IA d'interrompre immédiatement, pendant au moins six mois, la formation de systèmes d'IA plus puissants que le GPT-4. Cette pause devrait être publique et vérifiable, et inclure tous les acteurs clés. Si une telle pause ne peut être mise en place rapidement, les gouvernements devraient intervenir et instituer un moratoire.
    En tout, ce sont plus de 1 000 cosignataires parmi lesquels figurent Emad Mostaque, PDG de Stability AI, des chercheurs de DeepMind, propriété d'Alphabet, et des poids lourds de l'IA, Yoshua Bengio, souvent considéré comme l'un des "parrains de l'IA", et Stuart Russell, pionnier de la recherche dans ce domaine.

    Nom : intelligence.png
Affichages : 1102
Taille : 458,4 Ko

    Tandis qu'il demandait une pause dans le développement de l'IA d'OpenAI, Elon Musk préparait sa réponse

    C'est ce que nous apprend le New Yorker. Selon le quotidien, en avril, soit un mois après la publication de la lettre ouverte demandant une pause dans le développement de ChatGPT, Musk travaillait déjà à la construction de xAI, recrutant auprès de concurrents majeurs, dont OpenAI, et même, selon quelqu'un au courant de la conversation, contactant la direction de Nvidia, le principal fabricant de puces utilisées dans l'IA.

    Le mois où la lettre a été publiée, Musk a finalisé les inscriptions pour xAI. Il a peu parlé de la différence entre l'entreprise et les initiatives préexistantes de l'IA, mais les a généralement formulées en termes de concurrence. « Je vais créer une troisième option, même si elle sera lancée très tard dans la partie », a-t-il déclaré au Washington Post. « J'espère que cette troisième option fera plus de bien que de mal ». Grâce à l'IA. la recherche et le développement déjà en cours chez Tesla, et la mine de données qu'il contrôle désormais via Twitter (dont il a bloqué l'accès à OpenAI sous prétexte que cette dernière récupère des données pour former son chatbot), il pourrait avoir un certain avantage, car il applique ses sensibilités et sa vision du monde. à cette course.

    Peu de temps après, Musk a confirmé qu'il voulait construire quelque chose qu'il appelle « TruthGPT », qu'il a décrit comme « une IA en quête de vérité maximale qui tente de comprendre la nature de l'univers ».

    En juillet, Musk a annoncé la création de xAI, qui cherche noblement à « comprendre la vraie nature de l'univers », selon son site Internet.

    Le site web de xAI présente une équipe de 12 hommes, dont Musk, avec des liens vers leurs comptes Twitter. Le site se vante de leurs réalisations et de leurs CV complets : « Notre équipe est dirigée par Elon Musk, PDG de Tesla et SpaceX. Nous avons précédemment travaillé chez DeepMind, OpenAI, Google Research, Microsoft Research, Tesla et l'Université de Toronto. Collectivement, nous avons contribué à certaines des méthodes les plus utilisées dans ce domaine, […]. Nous avons travaillé et dirigé le développement de certaines des plus grandes avancées dans ce domaine, notamment AlphaStar, AlphaCode, Inception, Minerva, GPT-3.5 et GPT-4. »

    Une implication dans l'IA qui remonte à plusieurs années

    Musk est impliqué dans l’intelligence artificielle depuis des années. En 2015, il faisait partie d’une poignée de leaders technologiques, dont Hoffman et Thiel, qui ont financé OpenAI, alors une initiative à but non lucratif (rappelons qu'OpenAI dispose désormais d’une filiale à but lucratif). OpenAI avait un énoncé de mission moins grandiose et plus prudent que celui de xAI : « faire progresser l’intelligence numérique de la manière la plus susceptible de profiter à l’humanité ».

    Au cours des premières années d’OpenAI, Musk est devenu mécontent de l’entreprise. Il a déclaré que ses efforts chez Tesla pour intégrer l'IA a créé un conflit d’intérêts, et plusieurs personnes impliquées ont déclaré aux médias que c’était vrai. Cependant, ils ont également déclaré que Musk était frustré par son manque de contrôle et, comme Semafor l'a rapporté plus tôt cette année, qu'il avait tenté de reprendre OpenAI. Musk défend toujours sa place centrale dans les origines de l’entreprise, soulignant ses contributions financières à ses débuts (les chiffres exacts ne sont pas clairs : Musk a donné des estimations allant de cinquante millions à cent millions de dollars).

    Tout au long de son implication, Musk a semblé préoccupé par le contrôle, le crédit et les rivalités. Il a tenu des propos incendiaires à l’encontre de Demis Hassabis, responsable de DeepMind A.I. de Google et, plus tard, sur les efforts concurrents de Microsoft. Il pensait qu’OpenAI n’était pas suffisamment compétitif, disant à un moment donné à ses collègues qu’il avait « 0 % » de chances d’être « pertinent ». Musk a quitté l’entreprise en 2018, revenant sur son engagement de financer davantage OpenAI, a expliqué l’une des personnes impliquées.

    « En gros, il dit : 'Vous êtes tous une bande d'idiots', et il s'en va », a déclaré Hoffman. Son départ a été dévastateur. « C'était très difficile », a reconnu Altman, responsable d'OpenAI. « J’ai dû réorienter une grande partie de ma vie et de mon temps pour m’assurer que nous disposions de suffisamment de financement. » OpenAI est devenu un leader dans le domaine en introduisant ChatGPT l'année dernière. Musk a pris l’habitude de saccager l’entreprise, se demandant à plusieurs reprises, lors d’entretiens publics, pourquoi il n’a pas reçu de retour sur investissement, étant donné la branche à but lucratif de l’entreprise. « Si c’est légal, pourquoi tout le monde ne le fait-il pas ? » il a tweeté récemment.

    Il est difficile de dire si l’intérêt de Musk pour l’I.A. est motivé par l’émerveillement scientifique et l’altruisme ou par le désir de dominer une industrie nouvelle et potentiellement puissante. Plusieurs entrepreneurs qui ont cofondé des entreprises avec Musk ont suggéré que l’arrivée de Google et de Microsoft dans le domaine en avait fait un nouveau ring, comme l’étaient auparavant l’espace et les véhicules électriques.

    Musk a affirmé qu’il était motivé par sa peur du potentiel destructeur de la technologie.


    En 2019, Musk a profité de son passage à la conférence South by Southwest (SXSW) qui se tenait à Austin, au Texas, pour réitérer ses avertissements concernant le danger de l’intelligence artificielle. D’après Musk, « l’IA est plus dangereuse que les ogives nucléaires » et il devrait exister un organisme de réglementation supervisant le développement de cette technologie.

    « Je ne suis pas normalement un partisan de la réglementation et de la surveillance - je pense qu’on devrait généralement pécher par excès de minimisation de ces choses-là, mais il s’agit d’une situation où le public court un très grave danger », a prévenu Musk.

    Source : New Yorker

    Et vous ?

    Quelle est votre opinion sur le projet de Musk et sur ses motivations ? Double jeu ou pas du tout ?
    Que pensez-vous du fait qu'il ait cherché à recruter chez OpenAI un mois après avoir demandé à l'entreprise de suspendre le développement de chatGPT ?
    Pensez-vous que l’IA soit une menace ou une opportunité pour l’humanité ?
    Quels sont les principes et les normes que vous souhaiteriez voir appliquer au développement et à l’utilisation de l’IA ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  20. #40
    Membre émérite Avatar de onilink_
    Profil pro
    Inscrit en
    Juillet 2010
    Messages
    597
    Détails du profil
    Informations personnelles :
    Âge : 32
    Localisation : France

    Informations forums :
    Inscription : Juillet 2010
    Messages : 597
    Points : 2 440
    Points
    2 440
    Par défaut
    Étonnant n'est ce pas?

    Pour rappel c'est ce que la plupart des commentaires de l'article en question prévoyaient.
    Circuits intégrés mis à nu: https://twitter.com/TICS_Game

Discussions similaires

  1. Appeler une fonction dans une autre unit
    Par CyberTwister dans le forum Débuter
    Réponses: 4
    Dernier message: 10/05/2008, 15h02
  2. appeler une fonction dans un autre programme
    Par elghadi_mohamed dans le forum Langage
    Réponses: 3
    Dernier message: 19/10/2007, 19h58
  3. Comment appeler une procédure dans une autre unité ?
    Par michel71 dans le forum Langage
    Réponses: 1
    Dernier message: 19/09/2007, 16h27
  4. Appeler une classe dans un autre package
    Par Nasky dans le forum Langage
    Réponses: 6
    Dernier message: 21/02/2007, 16h06
  5. Appeler une fonction dans un autre cadre !
    Par rich25200 dans le forum Général JavaScript
    Réponses: 1
    Dernier message: 01/11/2005, 13h01

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo