IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Faut-il vraiment interdire la superintelligence ? Oui, selon une lettre ouverte signé par les parrains de l'IA


Sujet :

Intelligence artificielle

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 655
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 655
    Par défaut Connor Leahy demande de plafonner la puissance de calcul pour empêcher la création d'une IA de type Skynet
    Connor Leahy, expert en sécurité de l'IA, demande à la Chambre des Lords de plafonner la puissance de calcul
    pour prévenir la création d'une IA qui menacerait la survie de l'espèce humaine

    Connor Leahy, expert en IA et PDG de la startup d'IA Conjecture, a fait des propositions qualifiées de surprenantes pour prévenir la menace existentielle que l'IA fait planer sur l'humanité. L'une de ses recommandations politiques consiste à plafonner la puissance de calcul à laquelle les entreprises et les startups d'IA peuvent avoir accès pour créer et entraîner des systèmes d'IA. Il explique que cela devrait empêcher la naissance d'un système d'IA de type Skynet qui pourrait échapper au contrôle de ses créateurs et menacer la survie de l'humanité. Cependant, sa proposition est controversée, certains l'accusant de vouloir nuire à l'innovation et consolider la position des grandes entreprises d'IA.

    Dans un post sur X.com la semaine dernière, Leahy a déclaré avoir récemment été invité à la Chambre des Lords du Royaume-Uni pour discuter de la question. Leahy fait partie de ceux-là qui pensent que l'IA représente une menace existentielle pour l'humanité et que l'apparition d'une intelligence générale artificielle (IGA) pourrait signifier la fin de l'histoire humaine. D'autres PDG influents de la sphère technologique - dont Sam Altman d'OpenAI, Mustafa Suleyman d'InflectionAI, qui développent les systèmes d'IA les plus perfectionnés - se disent également préoccupés par les progrès rapides dans le domaine de l'IA. Ils appellent à une réglementation stricte.

    « J'ai eu beaucoup de plaisir à m'adresser à la Chambre des Lords au sujet du risque d'extinction lié à l'IA. Ils ont été attentifs et ont établi des parallèles entre notre situation actuelle et les efforts de non-prolifération nucléaire déployés pendant la guerre froide. Cela m'a certainement donné matière à réflexion et à espoir », a écrit Leahy dans un long message sur X.com. Bien que Leahy, cofondateur et PDG de la startup d'IA Conjecture, appartienne au même bord que les dirigeants susmentionnés, ses propos semblent beaucoup plus alarmants et ses propositions à la Chambre des Lords vont bien au-delà d'une simple réglementation. Leahy a notamment écrit :

    « L'IA est en phase exponentielle, les choses évoluent très, très rapidement. Comme nous l'avons appris avec la Covid, il n'y a que deux moments pour réagir dans une exponentielle : trop tôt ou trop tard. Je pense qu'il devrait y avoir un moratoire complet sur le développement de l'IA utilisant des niveaux de puissance de calcul sans précédent. Chaque fois que l'on teste une nouvelle IA, on ne sait pas ce qui va surgir de l'autre côté. Un jour, ce sera la roulette russe, et si vous vous retrouvez à jouer à la roulette russe, j'ai une recommandation à vous faire : arrêtez. Mais les entreprises de l'IGA ne s'arrêtent pas. Et c'est là que le gouvernement entre en jeu ».

    Leahy a déclaré que ses collaborateurs et lui se tiennent prêts à collaborer avec la Chambre des Lords du Royaume-Uni pour élaborer un cadre idéal au développement de l'IA et qui éliminerait les risques existentiels pour l'humanité. Lorsque l'auditoire lui a demandé à quoi ressembleraient exactement ses recommandations pour faire face aux risques de l'IA, Leahy a répondu en énumérant les points suivants :

    1. responsabilité des développeurs et des utilisateurs : responsabilité stricte pour les dommages causés par les systèmes d'IA qui s'applique non seulement à l'utilisateur, mais aussi au développeur. Si vous développez un système de clonage de la voix et qu'il est utilisé par des criminels pour commettre des délits, vous devriez également être responsable ;
    2. plafonnement de la puissance de calcul : les entreprises ne peuvent pas dépasser une quantité prédéterminée de puissance de calcul lorsqu'elles entraînent leurs IA. Plus la puissance de calcul utilisée pour alimenter ces systèmes d'IA est importante, plus ils deviennent performants et dangereux. Nous recommandons de fixer ce plafond à un yottaFLOPS (1024 FLOP, soit environ la taille de ChatGPT) ;
    3. un "Kill Switch" mondial pour l'IA: cette proposition vise la mise en place d'un cadre où les gouvernements construisent l'infrastructure pour pouvoir arrêter les déploiements de systèmes d'IA puissants et les entraînements si nécessaire, et la testent régulièrement avec des scénarios critiques.


    Les propositions de Leahy ont été vivement critiquées dans la communauté. Il est accusé de vouloir nuire à l'innovation et à la concurrence, mais également de vouloir restreindre l'accès à certains types de composants informatiques. « Ce type veut littéralement rendre illégale la possession d'une GPU de jeu. Qu'est-ce que c'est que ce cirque ? Il avait l'air raisonnable jusqu'à il y a environ six mois, maintenant il a juste l'air complètement fou », a écrit un critique. D'autres affirment que l'idée selon laquelle la responsabilité des développeurs sera engagée si leurs systèmes d'IA sont utilisés à mauvais escient est une "erreur" qu'il ne faut surtout pas commettre.

    « C'est une erreur monumentale. Et je suis pour une réglementation aussi stricte que possible. C'est comme si quelqu'un s’était tué avec un couteau et que la justice affirme que l'entreprise qui a fabriqué le couteau a une part de responsabilité dans l'affaire. Un tel jugement est un non-sens complet et personne n'aurait plus rien inventé depuis fort longtemps », peut-on lire dans les commentaires. Un autre critique a écrit : « des normes absurdes. Nous devons faire honte à l'homme des cavernes qui a découvert le feu pour tout le mal qu'il a fait. Ces propositions relèvent plus des travaux d'un gourou que d'un soi-disant expert en IA ».

    « Pour paraphraser, nous devrions laisser d'autres pays, comme la Russie et la Chine, dominer ce qui deviendra la technologie la plus importante de notre époque et peut-être même la plus importante de tous les temps. Si vous n'aimez pas la vitesse à laquelle tout le monde court, le fait de vous ralentir signifie que vous perdez, cela ne ralentit pas la course. La dangerosité de ses propositions réside dans le fait que cela donne du zèle à des législateurs qui ne comprennent rien à la technologie dont ils parlent. Dans ces conditions, nous verrons bientôt des "crédits de calcul", à l'instar des crédits de carbone de l'escroquerie verte », a écrit un critique.

    Par ailleurs, l'on considère que la limitation de la puissance de calcul proposée par Leahy est un problème qui pourrait se résoudre tout seul à long terme. Des initiatives ont révélé que des petits modèles de langages peuvent afficher des performances qui égalent parfois celles des grands modèles de langage. Selon certains rapports, les petits modèles peuvent donner de bons résultats s'ils sont entraînés à l'aide de données provenant de grands modèles. Selon certains critiques, une fois que nous aurons de grands modèles, libres ou non, il sera beaucoup moins coûteux de faire de la recherche et de ne pas avoir besoin d'autant de puissance de calculs.

    « Ils ne sont pas du tout bien intentionnés. Comme Altman, il veut créer des obstacles réglementaires trop importants pour les nouveaux venus. Si les dispositions de Leahy sont adoptées, en particulier le partage de la responsabilité entre le développeur de l'IA et les criminels qui utilisent l'IA à des fins criminelles, le Royaume-Uni sera tout simplement exclu de la course à la technologie. Les entreprises qui souhaitent utiliser l'IA iront tout simplement voir ailleurs, et un autre pays reprendra la technologie. Cela ne contribuera pas du tout à limiter l'IA à l'échelle mondiale, mais cela contribuera grandement à limiter l'économie », a écrit un critique.

    En ce qui concerne l'interrupteur d'arrêt d'urgence, Leahy a déclaré : « le problème fondamental de l'IGA n'est pas qu'elle soit maléfique ou qu'elle présente un aspect spécifiquement dangereux qu'il faut éliminer. C'est le fait qu'elle soit compétente. Si vous ne pouvez pas contrôler une IA compétente, de niveau humain, alors elle est par définition dangereuse ». Altman a proposé de créer un organisme international chargé de contrôler les projets d'IA à l'instar de l'Agence internationale de l'énergie atomique qui régit l'énergie nucléaire. Cette nouvelle entité serait chargée d'évaluer et de restreindre tout effort d'IA au-delà d'une certaine capacité.

    Les législateurs britanniques craignent que la prochaine itération des modèles d'IA, en dessous du niveau de l'IGA, puisse être manipulée par des acteurs malhonnêtes pour produire des menaces sérieuses telles que des armes biologiques. L'IA open source, où les modèles qui sous-tendent la technologie sont librement accessibles et modifiables, est une préoccupation connexe. Ils affirment qu'ils travaillent également à la lutte contre les risques à plus court terme, tels que la désinformation et les violations des droits d'auteur. Mais des critiques, comme Yann LeCun, responsable de l'IA chez Meta, estiment que la clameur autour de l'IA est exagérée.

    Selon l'un de ces contre-arguments, le bruit est un stratagème cynique pour réglementer et cloisonner le marché et consolider la position des grands acteurs comme le développeur OpenAI de ChatGPT, Google et Microsoft. D'autres affirment que le fait de se concentrer sur les risques existentiels ne tient pas compte des conséquences immédiates des systèmes d'IA, comme l'utilisation sans autorisation des œuvres protégées par le droit d'auteur pour construire des modèles d'IA et le recours à des travailleurs faiblement rémunérés pour effectuer certaines des tâches de construction des modèles. Selon eux, ces problèmes sont plus urgents à régler.

    Source : Connor Leahy

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des propositions de Connor Leahy ?
    Ses propositions permettront de résoudre les problèmes qu'il évoque ?
    Sont-elles réalistes ? Que pensez-vous des critiques à l'égard des propositions ?
    Quels pourraient être les impacts des propositions de Leahy sur l'IA si elles étaient adoptées ?
    Que pensez-vous des appels à la mise en place d'un moratoire dans le développement de l'IA ?
    Quelle en serait l'utilité ? Pensez-vous que l'IA ou l'IGA représente une menace existentielle pour l'humanité ?
    Faut-il réglementer l'IA ? Si oui, quelles pourraient être les dispositions importantes de cette réglementation ?

    Voir aussi

    Elon Musk et un groupe d'experts en IA demandent à tous les laboratoires d'IA d'interrompre la formation de systèmes d'IA plus puissants que le GPT-4, citant des risques pour la société

    Le PDG d'OpenAI, Sam Altman, déclare au Congrès américain qu'il craint que l'IA ne soit "nuisible" au monde, il ajoute qu'une réglementation de l'IA est urgente afin d'éviter une catastrophe

    Le responsable de l'IA chez Meta affirme que l'intelligence artificielle n'est pas encore aussi intelligente qu'un chien et rejette l'idée selon laquelle les robots allaient s'emparer du monde

  2. #2
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 759
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 759
    Par défaut Faut-il vraiment interdire la superintelligence ? Oui, selon une lettre ouverte signé par les parrains de l'IA
    Plus de 800 personnalités, dont les « parrains de l'IA », signent une lettre ouverte demandant l'interdiction du développement de l'IA superintelligente
    avant que l’humain ne perde le contrôle

    C’est une alerte planétaire, portée par des voix que l’on croyait divisées. Plus de 800 figures publiques — scientifiques, ingénieurs, entrepreneurs, philosophes, artistes, et même membres de la royauté britannique — se sont unies pour demander l’interdiction pure et simple du développement d’une intelligence artificielle « superintelligente ». Parmi elles, Geoffrey Hinton, Yoshua Bengio, Steve Wozniak, mais aussi Prince Harry et Meghan Markle. L’appel, orchestré par le Future of Life Institute, relance avec force un débat brûlant : l’humanité doit-elle vraiment construire une intelligence plus puissante qu’elle ? Et si oui, qui devrait en avoir le droit ?

    Contexte

    Les entreprises technologiques se livrent à une course effrénée pour créer une IA superintelligente, sans se soucier des conséquences que pourrait avoir la création d'un être beaucoup plus intelligent que l'être humain. Cela a conduit des centaines de personnalités du monde de la technologie, de la politique, des médias, de l'éducation, de la religion et même de la royauté à signer une lettre ouverte appelant à l'interdiction du développement de la superintelligence jusqu'à ce qu'il y ait à la fois un large consensus scientifique sur le fait qu'elle sera mise en œuvre de manière sûre et contrôlable et un soutien public fort.

    La déclaration, organisée par le groupe de sécurité de l'IA Future of Life (FLI), reconnaît que les outils d'IA peuvent avoir des avantages tels qu'une santé et une prospérité sans précédent, mais l'objectif des entreprises de créer au cours de la prochaine décennie une superintelligence capable de surpasser de manière significative tous les humains dans pratiquement toutes les tâches cognitives a suscité des inquiétudes.

    Les inquiétudes habituelles ont été évoquées : l'IA prendrait tellement d'emplois qu'elle conduirait à l'obsolescence économique de l'homme, à sa perte de pouvoir, à la perte de liberté, des libertés civiles, de dignité et de contrôle, ainsi qu'à des risques pour la sécurité nationale. Le potentiel d'extinction totale de l'humanité est également mentionné.

    Une alliance inédite pour freiner la course à la super-intelligence

    La lettre ouverte réunit plus de 800 signataires autour d’un objectif unique : imposer une interdiction mondiale du développement de ce qu’ils appellent la « super-intelligence artificielle », c’est-à-dire une IA capable de surpasser l’homme dans presque tous les domaines cognitifs. Les signataires demandent une prohibition totale, maintenue tant qu’aucun consensus scientifique ni soutien populaire ne garantira une mise en œuvre sûre et contrôlable.

    Cette démarche a été initiée par le Future of Life Institute (FLI), déjà à l’origine de la fameuse lettre de 2023 qui appelait à « faire une pause » dans les grands projets d’IA. Mais cette fois, le ton est plus ferme. Il ne s’agit plus de ralentir la recherche, mais bien de tirer un frein d’urgence global.

    Citation Envoyé par lettre ouverte
    Déclaration sur la superintelligence

    Contexte : Les outils innovants d'intelligence artificielle peuvent apporter une santé et une prospérité sans précédent. Cependant, parallèlement à ces outils, de nombreuses entreprises leaders dans le domaine de l'IA ont pour objectif déclaré de développer au cours de la prochaine décennie une superintelligence capable de surpasser considérablement tous les humains dans pratiquement toutes les tâches cognitives. Cela a suscité des inquiétudes, allant de l'obsolescence et de la perte de pouvoir des humains, à la perte de liberté, de libertés civiles, de dignité et de contrôle, en passant par les risques pour la sécurité nationale et même l'extinction potentielle de l'humanité. La déclaration succincte ci-dessous vise à faire connaître le nombre croissant d'experts et de personnalités publiques qui s'opposent à la course à la superintelligence.
    Nom : decla.png
Affichages : 28205
Taille : 91,1 Ko

    Les « parrains de l’IA » sonnent l’alarme

    Parmi les signataires, deux figures attirent immédiatement l’attention : Geoffrey Hinton et Yoshua Bengio. Ces chercheurs, récompensés par le prix Turing, sont souvent qualifiés de « parrains de l’IA”. En signant cette lettre, ils envoient un message fort : les mêmes scientifiques qui ont rendu possible la révolution de l’apprentissage profond sont aujourd’hui inquiets des conséquences de leurs propres créations.

    À leurs côtés, Steve Wozniak, cofondateur d’Apple, dénonce une industrie qui avance « sans garde-fous ». La présence de figures publiques comme Prince Harry et Meghan Markle renforce la portée politique et symbolique du message. Leur engagement traduit la volonté de déplacer la discussion hors des laboratoires, vers le grand public et les institutions.

    Pourquoi maintenant ?

    Cette lettre s’inscrit dans un contexte où les grandes entreprises d’IA (OpenAI, Meta, Google DeepMind ou Anthropic) poursuivent une course effrénée vers des modèles toujours plus puissants, parfois comparés à des cerveaux numériques planétaires. Le concept de « super-intelligence » n’est plus un fantasme de science-fiction : il est devenu un objectif explicite pour certaines de ces sociétés.

    Les signataires mettent en avant les risques existentiels : perte de contrôle, manipulation sociale, concentration du pouvoir, voire extinction de l’espèce humaine dans les scénarios les plus pessimistes. D’autres alertent sur des conséquences plus immédiates : désinformation massive, chômage technologique, affaiblissement des institutions démocratiques.

    La semaine dernière, le FLI a déclaré qu'OpenAI avait émis des assignations à comparaître à son encontre et à l'encontre de son président en guise de représailles pour avoir appelé à une surveillance de l'IA.

    Selon un sondage américain réalisé auprès de 2 000 adultes, le mantra de la plupart des entreprises d'IA, « aller vite et casser les codes » en matière de développement technologique, n'est soutenu que par 5 % des personnes interrogées. Près des trois quarts des Américains souhaitent une réglementation stricte de l'IA avancée, et six sur dix estiment qu'elle ne devrait pas être créée tant que sa sécurité ou sa contrôlabilité n'aura pas été prouvée.

    Une récente enquête du Pew Center a révélé qu'aux États-Unis, 44 % des personnes font confiance au gouvernement pour réglementer l'IA et 47 % se méfient.

    Sam Altman a récemment fait une nouvelle prédiction sur l'arrivée de la superintelligence. Le patron d'OpenAI a déclaré qu'elle serait là d'ici 2030, ajoutant que jusqu'à 40 % des tâches effectuées aujourd'hui dans l'économie seraient prises en charge par l'IA dans un avenir pas très lointain.

    Meta se lance également à la poursuite de la superintelligence. Son PDG, Mark Zuckerberg, a déclaré qu'elle était proche et qu'elle « autonomiserait » les individus. La société a récemment divisé son laboratoire Meta Superintelligence Labs en quatre groupes plus petits, ce qui laisse penser que cette technologie pourrait être plus loin que ne le prévoyait Zuckerberg.

    Une coalition transversale : tech, royauté et société civile

    Ce qui frappe, c’est la diversité des profils. À côté des chercheurs et entrepreneurs, on retrouve des acteurs du monde culturel, des personnalités religieuses et des figures politiques. Cette transversalité donne à la lettre une portée morale et sociale qui dépasse les clivages.

    Certains observateurs y voient une nouvelle forme de lobbying éthique, face à des entreprises technologiques devenues plus puissantes que certains États. D’autres saluent une rare tentative de rassembler des consciences autour d’un principe universel de précaution, dans un monde où l’innovation prime souvent sur la prudence.

    Les limites de l’initiative

    Toutefois, l’appel soulève des questions pratiques : qui fixerait les critères de ce moratoire ? Comment distinguer une « IA avancée » d’une « super-intelligence » ? Et surtout, quelle autorité mondiale pourrait imposer une telle interdiction dans un secteur où la compétition géopolitique entre États-Unis et Chine bat son plein ?

    Certains experts jugent cette demande irréaliste. Ils rappellent que la précédente lettre de 2023, appelant à une simple pause, n’a pas eu d’effet concret : OpenAI a poursuivi ses travaux sur GPT-5, Google a lancé Gemini, et les investissements dans les semi-conducteurs ont atteint des records. L’argument de la « prohibition » pourrait, selon eux, renforcer le secret et la fragmentation de la recherche plutôt que la transparence.

    Une question de gouvernance mondiale

    Au-delà du symbole, la lettre met en lumière un défi de gouvernance inédit. Peut-on réellement encadrer une technologie dont la diffusion est aussi rapide, décentralisée et lucrative ? Certains chercheurs appellent à créer un traité international sur l’IA, équivalent à un “accord nucléaire numérique”. L’idée serait de limiter les capacités de calcul allouées à certains modèles, d’exiger des audits de sécurité et de contrôler les ressources critiques comme les puces et les serveurs.

    Mais sans volonté politique mondiale, ces mécanismes risquent de rester théoriques. L’appel de FLI vise justement à créer une pression morale et médiatique, espérant susciter une prise de conscience citoyenne avant que les décisions irréversibles ne soient prises.


    Une initiative similaire lancée contre les deepfake

    Des experts en intelligence artificielle et des dirigeants d'entreprises, dont Yoshua Bengio, l'un des pionniers de cette technologie, ont signé une lettre ouverte appelant à une plus grande réglementation de la création de deepfakes, en invoquant les risques potentiels pour la société. La lettre contient des recommandations sur la manière de réglementer les deepfakes.

    Aujourd'hui, les deepfakes concernent souvent l'imagerie sexuelle, la fraude ou la désinformation politique. « Étant donné que l'IA progresse rapidement et rend la création de deepfakes beaucoup plus facile, des garde-fous sont nécessaires », indique le groupe dans la lettre, rédigée par Andrew Critch, chercheur en IA à l'université de Berkeley.

    Les deepfakes sont des images, des sons et des vidéos réalistes mais fabriqués par des algorithmes d'IA, et les progrès récents de la technologie les rendent de plus en plus impossibles à distinguer des contenus créés par des humains.

    La lettre, intitulée « Disrupting the Deepfake Supply Chain », contient des recommandations sur la manière de réglementer les deepfakes, notamment la criminalisation totale de la pédopornographie par deepfake, des sanctions pénales pour toute personne créant ou facilitant sciemment la diffusion de deepfakes nuisibles et l'obligation pour les entreprises d'IA d'empêcher leurs produits de créer des deepfakes nuisibles.

    Plus de 400 personnes issues de différents secteurs, notamment du monde universitaire, du spectacle et de la politique, avaient signé la lettre. Parmi les signataires figurent Steven Pinker, professeur de psychologie à Harvard, Joy Buolamwini, fondatrice de l'Algorithmic Justice League, deux anciens présidents estoniens, des chercheurs de Google DeepMind et un chercheur d'OpenAI.

    Veiller à ce que les systèmes d'IA ne nuisent pas à la société est une priorité pour les régulateurs depuis qu'OpenAI, soutenue par Microsoft, a dévoilé ChatGPT fin 2022, qui a séduit les utilisateurs en les faisant participer à des conversations semblables à celles des humains et en effectuant d'autres tâches. De nombreuses personnalités ont mis en garde contre les risques liés à l'IA.

    Faut-il vraiment interdire la super-intelligence ?

    Derrière la lettre, une tension demeure : faut-il interdire ou réguler ? La nuance est capitale. Une interdiction totale pourrait freiner des innovations cruciales, par exemple dans la médecine, l’environnement ou la recherche scientifique. Mais l’absence de garde-fous ouvrirait la voie à des dérives incontrôlables. L’histoire des technologies montre que les interdictions absolues sont rares et souvent temporaires. Peut-être que cette lettre ne vise pas une interdiction définitive, mais un temps de réflexion collectif : un signal d’alarme avant que la machine ne devienne littéralement plus intelligente que son créateur.

    Cette lettre ouverte pourrait bien rester un texte symbolique, mais son écho est déjà mondial. En unissant les voix de scientifiques, d’entrepreneurs et de figures publiques, elle marque une étape cruciale dans la prise de conscience. Qu’on y voie un geste utopique ou une nécessité absolue, le message est clair : l’avenir de l’IA ne peut pas se décider dans le secret des laboratoires. Il appartient désormais à l’humanité tout entière d’en fixer les limites, avant que ces limites ne nous échappent.

    Source : lettre ouverte

    Et vous ?

    Interdire la super-intelligence est-il un acte de sagesse… ou une peur irrationnelle du progrès ?

    Peut-on réellement freiner une technologie mondiale sans créer de clandestinité scientifique ?

    Les États ont-ils encore le pouvoir de contrôler des entreprises privées capables de rivaliser avec eux sur le plan technologique ?

    Les « pères de l’IA » sont-ils les mieux placés pour définir les limites de ce qu’ils ont eux-mêmes créé ?

    Le risque existentiel de l’IA est-il plus urgent que les risques déjà visibles : désinformation, chômage, dépendance numérique ?

    Voir aussi :

    Des chercheurs et des PDG du domaine de l'IA mettent en garde contre le "risque d'extinction" dans une déclaration de 22 mots, ils estiment que l'IA pourrait être aussi mortelle que l'arme nucléaire

    Elon Musk et un groupe d'experts en IA demandent à tous les laboratoires d'IA d'interrompre la formation de systèmes d'IA plus puissants que le GPT-4, citant des risques pour la société
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  3. #3
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 499
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 499
    Par défaut
    Belle hypocrisie ou naïveté de ces 800 "bien-pensants", c'est selon!

    1. Parmi les 800 signataires, il y a de nombreux "chercheurs" qui ont été à l'origine de l'IA. Si il y avait des risques, il ne fallait pas commencer ce genre de développement!

    2. Une fois qu'une découverte arrive dans les mains des financiers, plus rien ne l'arrête... C'est la fuite en avant... L'appel de l'argent balaie tout: L'éthique, la morale, la moindre précaution

    3. Il ira de l'IA comme des armes de guerre: Il n'y a pas un seul exemple dans l'histoire d'une arme qui aurait été inventée et qui n'a pas fini par être utilisée pour tuer son prochain.

  4. #4
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    10 725
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 10 725
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Peut-on réellement freiner une technologie mondiale sans créer de clandestinité scientifique ?
    Non on ne peut pas empêcher le développement d'une technologie qui peut donner un avantage lors d'une guerre.
    Des grands pays (comme les USA par exemple) vont développer la technologie en secret.
    Si la Chine interdisait aux entreprises chinoises d'essayer de créer une super-intelligence, ça motiverait encore plus des entreprises US ainsi que l'état US d'y arriver.

    Citation Envoyé par Stéphane le calme Voir le message
    Les États ont-ils encore le pouvoir de contrôler des entreprises privées capables de rivaliser avec eux sur le plan technologique ?
    En principe oui, il faut juste mettre en place des lois pour limiter les entreprises.
    Par contre à l'échelle mondiale c'est compliqué.

    Citation Envoyé par Stéphane le calme Voir le message
    Les « pères de l’IA » sont-ils les mieux placés pour définir les limites de ce qu’ils ont eux-mêmes créé ?
    Les pères de l'IA ne sont pas spéciaux, si ils n'avaient pas travaillé dans l'IA, d'autres l'auraient fait et on en serait au même point.

    Citation Envoyé par Stéphane le calme Voir le message
    Le risque existentiel de l’IA est-il plus urgent que les risques déjà visibles : désinformation, chômage, dépendance numérique ?
    Sans l'IA il y aurait autant de désinformation, autant de chômage, autant de dépendance numérique.
    Enfin, la différence ne serait pas radicale.

    Citation Envoyé par Stéphane le calme Voir le message
    Meghan Markle
    Ils ont sûrement peur d'un scénario à la Terminator.
    Ça ne coûte rien de dire "on devrait interdire le développement d’une intelligence artificielle super-intelligente", comme ça si jamais une entité y arrive et que ça a des conséquences catastrophiques sur le monde, les acteurs du début pourront dire "On vous l'avait dit !".

  5. #5
    Membre actif
    Profil pro
    Inscrit en
    Novembre 2003
    Messages
    160
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Novembre 2003
    Messages : 160
    Par défaut
    C'est donc 800 personnes qui ne savent même pas ce qu'est l'IA, car jusqu'à preuve du contraire, l'IA n'est en rien intelligente et les modèles actuels n'arriveront jamais à cet état.

  6. #6
    Membre éprouvé Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 917
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 917
    Par défaut
    Citation Envoyé par jnspunk Voir le message
    C'est donc 800 personnes qui ne savent même pas ce qu'est l'IA, car jusqu'à preuve du contraire, l'IA n'est en rien intelligente et les modèles actuels n'arriveront jamais à cet état.
    Ils le savent très bien, ne t'en fais pas.

    C'est juste que si la hype descend, la bulle éclate. Alors il faut faire du bruit et agiter les bras très fort pour que les gens continuent d'investir: "ouuuuuuuh!!! L'IA est intelligente et dangereuse!!!"

  7. #7
    Membre confirmé

    Homme Profil pro
    Mâle reproducteur chez Amazon
    Inscrit en
    Mars 2006
    Messages
    209
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Mâle reproducteur chez Amazon

    Informations forums :
    Inscription : Mars 2006
    Messages : 209
    Pour vivre heureux, vivons cachés. Proverbe alien.

  8. #8
    Membre éprouvé
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 401
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 401
    Billets dans le blog
    3
    Par défaut
    Je ne doute pas que certains y croient réellement. Pour ceux-là, je penche pour le défaut de conception : ce n'est pas avec les technos actuelles que ça arrivera, et croire le contraire c'est encore se bercer de "si" plutôt que de regarder la pratique de manière objective (i.e. sans biais de sélection dans les arguments).

    Pour d'autres, c'est peut-être l'occasion de se donner une excuse de ne pas réussir à faire mieux : on entrevoit l'échec futur des promesses, et pour éviter le backlash on met en place une limite artificielle pour qu'on puisse dire ensuite "je n'ai pas échoué, j'ai suivi les recommandations de ne pas le faire".

    Pour d'autres encore, comme le mentionne kain_tn, c'est pour jouer sur les marchés, mais j'y touche pas donc je serais bien incapable de dire plus là-dessus, surtout pas pour les faire aller dans quel sens.

    Ce que je retiens, c'est qu'on parle de 800 signataires dont des parrains de l'IA, ça fait très important comme ça, mais in fine on site 2-3 personnes qu'on entend toujours pour ça... Ce n'est pas comme si certains disaient le contraire auparavant et avaient "ouvert les yeux" pour se joindre au mouvement. Là il y aurait du neuf.

    Au final on nous reparle de gens dont on a déjà parlé pour les même choses, il s'agit juste de leur nouvelle action dans ce sens. Rien de nouveau sous le soleil... Et y voir la royauté ne donne que du poids médiatique, certainement pas argumentaire.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  9. #9
    Membre éprouvé Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 917
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 917
    Par défaut
    Citation Envoyé par Matthieu Vergne Voir le message
    [...]Pour d'autres, c'est peut-être l'occasion de se donner une excuse de ne pas réussir à faire mieux : on entrevoit l'échec futur des promesses, et pour éviter le backlash on met en place une limite artificielle pour qu'on puisse dire ensuite "je n'ai pas échoué, j'ai suivi les recommandations de ne pas le faire".[...]
    Je n'avais pas envisagé ce point. C'est une véritable possibilité, surtout si on prend OpenAI qui fait des pieds et des mains pour se sortir des promesses faites aux actionnaires.

    Au final, je pense que c'est sans doute une combinaison des trois points que tu as cité: on a les pigeons, la mauvaise foi, et les spéculateurs (on est vendredi, donc j'ai le droit)

  10. #10
    Membre éclairé Avatar de pierre.E
    Homme Profil pro
    Développeur en systèmes embarqués
    Inscrit en
    Janvier 2016
    Messages
    250
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Développeur en systèmes embarqués
    Secteur : Industrie

    Informations forums :
    Inscription : Janvier 2016
    Messages : 250
    Par défaut
    "La présence de figures publiques comme Prince Harry et Meghan Markle"

    flipper le dauphin et oui-oui auraient eu plus de poids

Discussions similaires

  1. Appeler une fonction dans une autre unit
    Par CyberTwister dans le forum Débuter
    Réponses: 4
    Dernier message: 10/05/2008, 16h02
  2. appeler une fonction dans un autre programme
    Par elghadi_mohamed dans le forum Langage
    Réponses: 3
    Dernier message: 19/10/2007, 20h58
  3. Comment appeler une procédure dans une autre unité ?
    Par michel71 dans le forum Langage
    Réponses: 1
    Dernier message: 19/09/2007, 17h27
  4. Appeler une classe dans un autre package
    Par Nasky dans le forum Langage
    Réponses: 6
    Dernier message: 21/02/2007, 17h06
  5. Appeler une fonction dans un autre cadre !
    Par rich25200 dans le forum Général JavaScript
    Réponses: 1
    Dernier message: 01/11/2005, 14h01

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo