IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Connor Leahy demande de plafonner la puissance de calcul pour empêcher la création d'une IA de type Skynet


Sujet :

Intelligence artificielle

  1. #41
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    651
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 651
    Points : 11 825
    Points
    11 825
    Par défaut Elon Musk met en garde contre le "risque civilisationnel" lié à l'IA lors d'une réunion avec les sénateurs
    Elon Musk met en garde contre les menaces liées à l'IA, tandis que Bill Gates affirme qu'elle peut aider à lutter contre la faim dans le monde
    les deux appellent toutefois à une réglementation

    De nombreux PDG de la Tech ont rencontré mercredi un groupe bipartisan de sénateurs au Sénat américain pour échanger sur les dangers potentiels de l'IA et des possibilités qu'elle offre. Lors de la réunion, qui s'est tenue à huis clos, Elon Musk, PDG de Tesla, a mis en garde de nouveau contre la menace existentielle que représente l'IA pour l'humanité. En revanche, Bill Gates, cofondateur de Microsoft, a déclaré lors de la réunion que la technologie pourrait contribuer à résoudre le problème de la faim dans le monde, et qu'elle présente d'autres bonnes perspectives. Les PDG de Meta, Mark Zuckerberg, et d'OpenAI, Sam Altman, ont également assisté à la réunion.

    Musk estime toujours que l'humanité devrait se montrer prudente vis-à-vis de l'IA

    La réunion de mercredi a été convoquée par le chef de la majorité au Sénat, le sénateur Chuck Schumer (D., N.Y.). Plus de 60 sénateurs des deux bords ont participé à la réunion avec les PDG de la Tech. Les participants ont discuté des risques liés l'IA, notamment la menace qu'elle représente pour l'humanité, et des possibilités qu'elle offre. « C'était une expérience incroyable et historique où nous avons beaucoup appris, où nous avons commencé notre quête pour traiter cette question imminente si importante qu'est l'IA », a déclaré Schumer à la sortie de la réunion. Le Sénat américain doit légiférer dans un avenir proche pour réglementer la technologie.


    À en croire Schumer, deux des allocutions ayant le plus retenu l'attention lors de la réunion sont celles de Musk et de Gates. Le propriétaire de X (anciennement Twitter) aurait averti les sénateurs que l'IA représentait un "risque civilisationnel" pour les gouvernements et les sociétés. En quittant le Capitole après plusieurs heures, Musk a qualifié la réunion d'historique. Musk a également approuvé l'idée d'une nouvelle agence fédérale chargée de superviser l'IA. Interrogé sur la menace contre laquelle il met en garde, il a déclaré à la presse : « les conséquences d'un dysfonctionnement de l'IA sont graves, nous devons donc être proactifs plutôt que réactifs ».

    « La question qui se pose ici est celle du risque civilisationnel. Il ne s'agit pas d'opposer un groupe d'humains à un autre. Il s'agit plutôt de savoir s'il s'agit de quelque chose de potentiellement risqué pour tous les humains, où qu'ils se trouvent », a-t-il ajouté. Ensuite, à la question de savoir si l'IA détruira l'humanité, Musk a marqué une pause avant d'ajouter : « il existe une probabilité supérieure à zéro que l'IA nous tue tous. Je pense qu'elle est faible. Mais s'il y a une chance, je pense que nous devrions également prendre en compte la fragilité de la civilisation humaine ». Ces déclarations montrent que Musk a toujours une peur bleue à l'égard de l'IA.

    La sénatrice Cynthia Lummis (R-Wyo), qui a assisté à la réunion privée, a déclaré avoir été frappée par le terme "risque civilisationnel" utilisé par Musk. Elle l'a noté dans son carnet et l'a montré à deux journalistes. Musk répète cette mise en garde depuis au moins huit ans, mais n'hésite pas à claquer des dizaines de millions de dollars dans le développement de l'IA. Avec Sam Altman, il a cofondé OpenAI en 2015 (qui a bénéficié d'un capital de départ d'un milliard de dollars). Il a quitté OpenAI en 2018, mais a récemment lancé une nouvelle startup d'IA, X.ai, et le bruit court qu'il a investi des millions de dollars dans l'achat de GPU optimisées pour l'IA.

    Il est difficile de savoir exactement la raison pour laquelle Musk tient ce discours tout en continuant d'investir des millions de dollars pour développer l'IA. Des critiques ont déclaré qu'il pourrait s'agir d'une tactique visant à permettre à Musk de ralentir ses concurrents et de passer devant dans la course à l'IA. Quoi qu'il en soit, d'autres personnalités ayant participé à la réunion de mercredi au Sénat américain se sont montrées beaucoup plus optimistes sur le sujet. Selon le sénateur Schumer, Gates a déclaré que la technologie pourrait contribuer à résoudre le problème de la faim dans le monde. Gates a toujours été très optimistes concernant la technologie.

    Les grands modèles de langage open source soulèvent plusieurs préoccupations

    L'un des débats a porté sur les grands modèles de langage (LLM) open source, qui peuvent être téléchargés et modifiés par le public. Ces modèles permettent aux entreprises et aux chercheurs d'accéder aux dernières technologies d'IA sans avoir à dépenser des millions de dollars pour les former. Selon des sources ayant assisté à la réunion, Tristan Harris, directeur de l'organisation à but non lucratif "Center for Humane Technology", a fait valoir que des acteurs malveillants pouvaient abuser des systèmes d'IA open source, tels que le grand modèle de langage Llama 2 récemment publié en open source par Meta, l'entreprise dirigée par Zuckerberg.


    Harris aurait noté que son organisation avait réussi à faire en sorte que le modèle Llama 2 fournisse des instructions sur la manière de créer des composés biologiques dangereux. Cependant, Zuckerberg aurait répliqué en disant que des instructions similaires pouvaient déjà être trouvées sur l'internet. Il aurait ajouté que les modèles open source pouvaient présenter des dangers, mais que Meta essayait de construire cette technologie de la manière la plus sûre possible. Selon le PDG de Meta, l'open source permet de démocratiser l'accès à ces outils, ce qui permet d'uniformiser les règles du jeu et de favoriser l'innovation pour les personnes et les entreprises.

    En dehors des PDG bien connus de la Tech américaine, des dirigeants syndicaux, des défenseurs des droits civiques et d'autres personnes ont également participé à la réunion. À un moment donné, Schumer aurait demandé aux invités s'ils étaient d'accord pour dire que le gouvernement devait jouer un rôle dans la réglementation de l'IA. Toutes les personnes présentes auraient levé la main. « Personne n'a hésité à dire qu'il fallait que le gouvernement intervienne », a déclaré Schumer. Selon lui, les entreprises ont compris que même si elles se disent prêtes à installer des garde-fous par elles-mêmes, il y aura toujours des concurrents qui ne le feront pas.

    Zuckerberg n'a pas répondu aux questions des journalistes en quittant la réunion. Son équipe a transmis ses remarques préparées depuis l'intérieur de la salle, où il a déclaré qu'il incombait au gouvernement de réglementer l'IA. « Je suis d'avis pour que le Congrès s'engage avec l'IA afin de soutenir l'innovation et les garanties. Il s'agit d'une technologie émergente, il y a d'importants équilibres à trouver, et le gouvernement en est responsable en dernier ressort », a-t-il déclaré. Le PDG d'OpenAI s'est dit surpris par le large consensus qui s'est dégagé dans la salle sur "la nécessité de prendre cette question au sérieux et de la traiter de manière urgente".

    « Je pense que tout le monde est d'accord sur le fait qu'il s'agit d'un sujet sur lequel nous avons besoin du leadership du gouvernement. Certains ne sont pas d'accord sur la manière dont cela devrait se passer, mais tous sont d'accord pour dire qu'il s'agit d'une question importante et urgente », a déclaré Altman. Avant la réunion de mercredi, deux dirigeants de la Tech ont averti les sénateurs mardi qu'un frein d'urgence était nécessaire pour les systèmes critiques gérés par l'IA, tels que les réseaux électriques ou l'approvisionnement en eau, afin de protéger les êtres humains des dommages potentiels causés par cette technologie émergente.

    Une législation trop stricte pourrait ralentir les progrès dans le domaine de l'IA

    Malgré le consensus sur la nécessité de réglementer l'IA - et la promesse de Schumer d'adopter une législation dans un avenir proche - la réunion a également mis en lumière certains des points de tension à venir. Dans le rang des PDG de la Tech ayant participé à la réunion de mercredi au Sénat, certains pensent que des règles trop strictes pourraient ralentir les progrès des États-États dans le domaine de l'IA, ce qui serait problématique pour le pays. Ces dirigeants d'entreprise ont mis en garde contre le fait que si cela arrivait, les États-Unis se verraient dépasser par leurs rivaux et perdraient leur position de leader dans le domaine de la technologie.

    Autre sujet de controverse lors de la réunion : la possibilité que les futurs systèmes d'IA puissent anéantir l'humanité. Deb Raji, une chercheuse en IA qui a participé à la réunion de mercredi, a demandé à la salle de se concentrer sur les préjudices actuels, notamment les décisions biaisées en matière de logement, d'embauche ou de condamnation pénale, qui peuvent résulter de systèmes d'IA déployés dans la précipitation, sans garde-fous solides. Lors de son allocution, elle a également plaidé en faveur de l'élaboration de méthodes d'audit pour les systèmes d'IA avant que les entreprises ne développent des systèmes d'IA encore plus puissants.

    Par ailleurs, un autre point de tension a concerné les travailleurs qui considèrent l'IA comme un danger potentiel pour leur emploi. La sénatrice Maria Cantwell (D., Wash.) a relaté un moment où la directrice du groupe de défense des intérêts des scénaristes américains Writers Guild of America West (WGAW), Meredith Stiehm, a décrit le point de vue des membres qui sont en grève pour obtenir un nouveau contrat avec les studios hollywoodiens. Les scénaristes sont remontés contre l'incursion de l'IA dans leur profession et refusent de corriger les scénarios générés par l'IA ou que les studios de cinéma utilisent l'IA pour modifier leurs scénarios.

    Le directeur de la "Motion Picture Association", un groupe commercial d'Hollywood, était également présent à la réunion. Enfin, la réunion de mercredi a également fait l'objet de quelques critiques. Bien que les organisateurs aient souligné la nature bipartisane du forum, le sénateur Josh Hawley (R-Mo) a déclaré qu'il avait choisi de ne pas y assister. « Je pense que l'idée qu'il s'agit d'une grande avancée d'entendre les plus grands monopoles du monde - pour qu'ils partagent avec nous leur grande sagesse - est une approche totalement erronée », a déclaré Hawley, qui a annoncé un forum bipartisan sur l'IA avec le sénateur Richard Blumenthal (D-Conn.).

    Même le caractère confidentiel de la session a suscité des critiques. Hawley s'est également demandé si la réunion n'avait pas été conçue pour empêcher les sénateurs de poser des questions difficiles auxquelles les PDG ne veulent pas répondre. Il a demandé au sénateur Schumer de soumettre au vote une législation sur l'IA. Hawley a déclaré : « il s'agit d'un grand nombre de chants et de danses qui couvrent le fait que rien n'avance en réalité ». Schumer, qui a organisé la réunion avec un groupe bipartisan de trois autres sénateurs, réfute les allégations du sénateur Hawley et a déclaré que le format était conçu pour permettre un débat franc.

    Cependant, une question reste en suspens : quels seront les domaines couverts par la législation promise par Schumer ? Les questions soulevées précédemment par les participants à la réunion de mercredi couvrent un éventail de problèmes potentiels impliquant des domaines ésotériques du droit. En voici quelques exemples : les violations des droits d'auteur, les atteintes à la vie privée, la discrimination raciale, les liens économiques avec la Chine et l'utilisation de l'IA par le gouvernement à des fins militaires ou autres. En attendant qu'un projet de loi soit proposé, les critiques estiment que la réunion n'a pas répondu aux attentes des consommateurs.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de la réunion organisée par le Sénat américain sur l'IA ?
    Selon vous, ce forum a-t-il permis d'évoluer dans les discussions sur risques liés à l'IA ?
    Quels sont les avantages de ces assises ? Que pensez-vous des critiques ci-dessous ?
    Que pensez-vous des déclarations d'Elon Musk ? Les risques qu'il évoque sont-ils exagérés ?
    Que pensez-vous des propos de Bill Gates ? En quoi l'IA peut-elle aider à éradiquer la faim dans le monde ?

    Voir aussi

    Elon Musk aurait travaillé sur sa société d'IA tout en appelant publiquement à une pause dans le développement de l'IA ChatGPT, il aurait même tenté de recruter chez OpenAI

    Elon Musk et un groupe d'experts en IA demandent à tous les laboratoires d'IA d'interrompre la formation de systèmes d'IA plus puissants que le GPT-4, citant des risques pour la société

    « Les appels à suspendre le développement des systèmes d'IA ne résoudront pas les défis liés à leur mise sur pied », d'après Bill Gates qui entrevoit l'échec d'un consensus à l'échelle mondiale

  2. #42
    Expert éminent Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 604
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 604
    Points : 7 477
    Points
    7 477
    Par défaut
    Citation Envoyé par Mathis Lucas Voir le message
    Que pensez-vous des déclarations d'Elon Musk ? Les risques qu'il évoque sont-ils exagérés ?
    C'est marrant, de la part d'un bonhomme qui expérimente ses IA en beta depuis des années sur les routes! Ce type est un troll de génie!


    Citation Envoyé par Mathis Lucas Voir le message
    Que pensez-vous des propos de Bill Gates ? En quoi l'IA peut-elle aider à éradiquer la faim dans le monde ?
    Oui, vendre de l'IA à toutes les sauces aidera certainement la faim (et la soif) insatiable de Bill Gates et de ses petits copains ultra-fortunés.

    Non, sans rire, qui y croit?
    Copier c'est copier; voler c'est vendre un CD une vingtaine d'euros!


    Code C : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    #include <stdio.h>
     
    int main(int argc, char **argv) {
     
        printf("So long, and thanks for the fish, Dennis...\n");
        return 0;
    }

  3. #43
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    651
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 651
    Points : 11 825
    Points
    11 825
    Par défaut Connor Leahy demande de plafonner la puissance de calcul pour empêcher la création d'une IA de type Skynet
    Connor Leahy, expert en sécurité de l'IA, demande à la Chambre des Lords de plafonner la puissance de calcul
    pour prévenir la création d'une IA qui menacerait la survie de l'espèce humaine

    Connor Leahy, expert en IA et PDG de la startup d'IA Conjecture, a fait des propositions qualifiées de surprenantes pour prévenir la menace existentielle que l'IA fait planer sur l'humanité. L'une de ses recommandations politiques consiste à plafonner la puissance de calcul à laquelle les entreprises et les startups d'IA peuvent avoir accès pour créer et entraîner des systèmes d'IA. Il explique que cela devrait empêcher la naissance d'un système d'IA de type Skynet qui pourrait échapper au contrôle de ses créateurs et menacer la survie de l'humanité. Cependant, sa proposition est controversée, certains l'accusant de vouloir nuire à l'innovation et consolider la position des grandes entreprises d'IA.

    Dans un post sur X.com la semaine dernière, Leahy a déclaré avoir récemment été invité à la Chambre des Lords du Royaume-Uni pour discuter de la question. Leahy fait partie de ceux-là qui pensent que l'IA représente une menace existentielle pour l'humanité et que l'apparition d'une intelligence générale artificielle (IGA) pourrait signifier la fin de l'histoire humaine. D'autres PDG influents de la sphère technologique - dont Sam Altman d'OpenAI, Mustafa Suleyman d'InflectionAI, qui développent les systèmes d'IA les plus perfectionnés - se disent également préoccupés par les progrès rapides dans le domaine de l'IA. Ils appellent à une réglementation stricte.

    « J'ai eu beaucoup de plaisir à m'adresser à la Chambre des Lords au sujet du risque d'extinction lié à l'IA. Ils ont été attentifs et ont établi des parallèles entre notre situation actuelle et les efforts de non-prolifération nucléaire déployés pendant la guerre froide. Cela m'a certainement donné matière à réflexion et à espoir », a écrit Leahy dans un long message sur X.com. Bien que Leahy, cofondateur et PDG de la startup d'IA Conjecture, appartienne au même bord que les dirigeants susmentionnés, ses propos semblent beaucoup plus alarmants et ses propositions à la Chambre des Lords vont bien au-delà d'une simple réglementation. Leahy a notamment écrit :

    « L'IA est en phase exponentielle, les choses évoluent très, très rapidement. Comme nous l'avons appris avec la Covid, il n'y a que deux moments pour réagir dans une exponentielle : trop tôt ou trop tard. Je pense qu'il devrait y avoir un moratoire complet sur le développement de l'IA utilisant des niveaux de puissance de calcul sans précédent. Chaque fois que l'on teste une nouvelle IA, on ne sait pas ce qui va surgir de l'autre côté. Un jour, ce sera la roulette russe, et si vous vous retrouvez à jouer à la roulette russe, j'ai une recommandation à vous faire : arrêtez. Mais les entreprises de l'IGA ne s'arrêtent pas. Et c'est là que le gouvernement entre en jeu ».

    Leahy a déclaré que ses collaborateurs et lui se tiennent prêts à collaborer avec la Chambre des Lords du Royaume-Uni pour élaborer un cadre idéal au développement de l'IA et qui éliminerait les risques existentiels pour l'humanité. Lorsque l'auditoire lui a demandé à quoi ressembleraient exactement ses recommandations pour faire face aux risques de l'IA, Leahy a répondu en énumérant les points suivants :

    1. responsabilité des développeurs et des utilisateurs : responsabilité stricte pour les dommages causés par les systèmes d'IA qui s'applique non seulement à l'utilisateur, mais aussi au développeur. Si vous développez un système de clonage de la voix et qu'il est utilisé par des criminels pour commettre des délits, vous devriez également être responsable ;
    2. plafonnement de la puissance de calcul : les entreprises ne peuvent pas dépasser une quantité prédéterminée de puissance de calcul lorsqu'elles entraînent leurs IA. Plus la puissance de calcul utilisée pour alimenter ces systèmes d'IA est importante, plus ils deviennent performants et dangereux. Nous recommandons de fixer ce plafond à un yottaFLOPS (1024 FLOP, soit environ la taille de ChatGPT) ;
    3. un "Kill Switch" mondial pour l'IA: cette proposition vise la mise en place d'un cadre où les gouvernements construisent l'infrastructure pour pouvoir arrêter les déploiements de systèmes d'IA puissants et les entraînements si nécessaire, et la testent régulièrement avec des scénarios critiques.


    Les propositions de Leahy ont été vivement critiquées dans la communauté. Il est accusé de vouloir nuire à l'innovation et à la concurrence, mais également de vouloir restreindre l'accès à certains types de composants informatiques. « Ce type veut littéralement rendre illégale la possession d'une GPU de jeu. Qu'est-ce que c'est que ce cirque ? Il avait l'air raisonnable jusqu'à il y a environ six mois, maintenant il a juste l'air complètement fou », a écrit un critique. D'autres affirment que l'idée selon laquelle la responsabilité des développeurs sera engagée si leurs systèmes d'IA sont utilisés à mauvais escient est une "erreur" qu'il ne faut surtout pas commettre.

    « C'est une erreur monumentale. Et je suis pour une réglementation aussi stricte que possible. C'est comme si quelqu'un s’était tué avec un couteau et que la justice affirme que l'entreprise qui a fabriqué le couteau a une part de responsabilité dans l'affaire. Un tel jugement est un non-sens complet et personne n'aurait plus rien inventé depuis fort longtemps », peut-on lire dans les commentaires. Un autre critique a écrit : « des normes absurdes. Nous devons faire honte à l'homme des cavernes qui a découvert le feu pour tout le mal qu'il a fait. Ces propositions relèvent plus des travaux d'un gourou que d'un soi-disant expert en IA ».

    « Pour paraphraser, nous devrions laisser d'autres pays, comme la Russie et la Chine, dominer ce qui deviendra la technologie la plus importante de notre époque et peut-être même la plus importante de tous les temps. Si vous n'aimez pas la vitesse à laquelle tout le monde court, le fait de vous ralentir signifie que vous perdez, cela ne ralentit pas la course. La dangerosité de ses propositions réside dans le fait que cela donne du zèle à des législateurs qui ne comprennent rien à la technologie dont ils parlent. Dans ces conditions, nous verrons bientôt des "crédits de calcul", à l'instar des crédits de carbone de l'escroquerie verte », a écrit un critique.

    Par ailleurs, l'on considère que la limitation de la puissance de calcul proposée par Leahy est un problème qui pourrait se résoudre tout seul à long terme. Des initiatives ont révélé que des petits modèles de langages peuvent afficher des performances qui égalent parfois celles des grands modèles de langage. Selon certains rapports, les petits modèles peuvent donner de bons résultats s'ils sont entraînés à l'aide de données provenant de grands modèles. Selon certains critiques, une fois que nous aurons de grands modèles, libres ou non, il sera beaucoup moins coûteux de faire de la recherche et de ne pas avoir besoin d'autant de puissance de calculs.

    « Ils ne sont pas du tout bien intentionnés. Comme Altman, il veut créer des obstacles réglementaires trop importants pour les nouveaux venus. Si les dispositions de Leahy sont adoptées, en particulier le partage de la responsabilité entre le développeur de l'IA et les criminels qui utilisent l'IA à des fins criminelles, le Royaume-Uni sera tout simplement exclu de la course à la technologie. Les entreprises qui souhaitent utiliser l'IA iront tout simplement voir ailleurs, et un autre pays reprendra la technologie. Cela ne contribuera pas du tout à limiter l'IA à l'échelle mondiale, mais cela contribuera grandement à limiter l'économie », a écrit un critique.

    En ce qui concerne l'interrupteur d'arrêt d'urgence, Leahy a déclaré : « le problème fondamental de l'IGA n'est pas qu'elle soit maléfique ou qu'elle présente un aspect spécifiquement dangereux qu'il faut éliminer. C'est le fait qu'elle soit compétente. Si vous ne pouvez pas contrôler une IA compétente, de niveau humain, alors elle est par définition dangereuse ». Altman a proposé de créer un organisme international chargé de contrôler les projets d'IA à l'instar de l'Agence internationale de l'énergie atomique qui régit l'énergie nucléaire. Cette nouvelle entité serait chargée d'évaluer et de restreindre tout effort d'IA au-delà d'une certaine capacité.

    Les législateurs britanniques craignent que la prochaine itération des modèles d'IA, en dessous du niveau de l'IGA, puisse être manipulée par des acteurs malhonnêtes pour produire des menaces sérieuses telles que des armes biologiques. L'IA open source, où les modèles qui sous-tendent la technologie sont librement accessibles et modifiables, est une préoccupation connexe. Ils affirment qu'ils travaillent également à la lutte contre les risques à plus court terme, tels que la désinformation et les violations des droits d'auteur. Mais des critiques, comme Yann LeCun, responsable de l'IA chez Meta, estiment que la clameur autour de l'IA est exagérée.

    Selon l'un de ces contre-arguments, le bruit est un stratagème cynique pour réglementer et cloisonner le marché et consolider la position des grands acteurs comme le développeur OpenAI de ChatGPT, Google et Microsoft. D'autres affirment que le fait de se concentrer sur les risques existentiels ne tient pas compte des conséquences immédiates des systèmes d'IA, comme l'utilisation sans autorisation des œuvres protégées par le droit d'auteur pour construire des modèles d'IA et le recours à des travailleurs faiblement rémunérés pour effectuer certaines des tâches de construction des modèles. Selon eux, ces problèmes sont plus urgents à régler.

    Source : Connor Leahy

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des propositions de Connor Leahy ?
    Ses propositions permettront de résoudre les problèmes qu'il évoque ?
    Sont-elles réalistes ? Que pensez-vous des critiques à l'égard des propositions ?
    Quels pourraient être les impacts des propositions de Leahy sur l'IA si elles étaient adoptées ?
    Que pensez-vous des appels à la mise en place d'un moratoire dans le développement de l'IA ?
    Quelle en serait l'utilité ? Pensez-vous que l'IA ou l'IGA représente une menace existentielle pour l'humanité ?
    Faut-il réglementer l'IA ? Si oui, quelles pourraient être les dispositions importantes de cette réglementation ?

    Voir aussi

    Elon Musk et un groupe d'experts en IA demandent à tous les laboratoires d'IA d'interrompre la formation de systèmes d'IA plus puissants que le GPT-4, citant des risques pour la société

    Le PDG d'OpenAI, Sam Altman, déclare au Congrès américain qu'il craint que l'IA ne soit "nuisible" au monde, il ajoute qu'une réglementation de l'IA est urgente afin d'éviter une catastrophe

    Le responsable de l'IA chez Meta affirme que l'intelligence artificielle n'est pas encore aussi intelligente qu'un chien et rejette l'idée selon laquelle les robots allaient s'emparer du monde

Discussions similaires

  1. Appeler une fonction dans une autre unit
    Par CyberTwister dans le forum Débuter
    Réponses: 4
    Dernier message: 10/05/2008, 15h02
  2. appeler une fonction dans un autre programme
    Par elghadi_mohamed dans le forum Langage
    Réponses: 3
    Dernier message: 19/10/2007, 19h58
  3. Comment appeler une procédure dans une autre unité ?
    Par michel71 dans le forum Langage
    Réponses: 1
    Dernier message: 19/09/2007, 16h27
  4. Appeler une classe dans un autre package
    Par Nasky dans le forum Langage
    Réponses: 6
    Dernier message: 21/02/2007, 16h06
  5. Appeler une fonction dans un autre cadre !
    Par rich25200 dans le forum Général JavaScript
    Réponses: 1
    Dernier message: 01/11/2005, 13h01

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo