IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Un responsable US exhorte la Chine et la Russie à déclarer que l'IA ne contrôlera pas les armes nucléaires


Sujet :

Intelligence artificielle

  1. #121
    Membre confirmé Avatar de Christian_B
    Homme Profil pro
    Retraité
    Inscrit en
    Octobre 2016
    Messages
    299
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Retraité

    Informations forums :
    Inscription : Octobre 2016
    Messages : 299
    Par défaut
    Citation Envoyé par Ryu2000 Voir le message
    Bref, l'OTAN nous emmène vers la troisième guerre mondiale et c'est inévitable (à moins de quitter l'OTAN et de devenir neutre peut-être).
    [...] Au Vietnam les USA ont tout fait :
    - Utilisation de techniques de torture et de mauvais traitements
    - Utilisation d'armes interdites
    - Attaques contre des populations civiles
    En grande partie d'accord. L'Otan est une aberration au sein de laquelle l'Europe est inféodée aux États-Unis. Elle contribue largement à la tension mondiale.
    Par contre personne n'a de boule de cristal pour prévoir l'avenir. Ceux qui ont essayé se sont souvent trompés. Heureusement dans ce cas ...

    Citation Envoyé par Ryu2000 Voir le message
    Les gens qui décident des guerres ne sont pas ceux qui se battent [...] Souvent le peuple ne soutient pas les guerres.
    Oui et non. Dans les pays (plus ou moins) démocratiques, les dirigeants sont tout de mêrme élus. Et pour partie par des gens qui sont belliqueux, racistes, etc. "Le peuple" (uni) est une fiction. Il y a rarement une quasi-unanimité.

    Citation Envoyé par Ryu2000 Voir le message
    D'ailleurs c'était un point important du programme de Trump, ils disaient qu'il fallait stopper des guerres, ramener les soldats chez-eux.
    Il ne faudrait quand même pas croire que Trump est pacifiste. Il ne veut pas que des citoyen US [je n'aime pas dire américains] se fasse tuer. Il est néanmoins pour les ventes d'armes et les guerres suscitées ailleurs si elles paraissent conforme aux intérêts économiques et politiques des USA. Ne pas oublier qu'il est avant tout un homme d'affaires peu scrupuleux et un démagogue primaire dont la sincérité et le sérieux des déclarations sont particulièrement sujettes à caution.

    Citation Envoyé par Ryu2000 Voir le message
    Là il y a un exemple récent, c'est qu'il y a plein d'étasuniens qui sont contre le fait de donner des centaines de milliards de dollars à l'Ukraine. Sans cet argent la guerre serait fini depuis longtemps.
    Il y a quand même là un problème de principe : si un pays en attaque un autre, laisser faire sans réaction sous prétexte qu'on est contre la guerre, c'est en réalité favoriser les plus guerriers et les violences extrêmes. Cela vaut aussi bien pour la Russie du dictateur mal déguisé Poutine que pour les États-Unis ou d'autres.

  2. #122
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 777
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 777
    Par défaut
    Citation Envoyé par Christian_B Voir le message
    Dans les pays (plus ou moins) démocratiques, les dirigeants sont tout de mêrme élus.
    Et quand ils sont élus parmi les candidats proposés par le pouvoir sortant, il est temps de fuir.

  3. #123
    Membre confirmé Avatar de Christian_B
    Homme Profil pro
    Retraité
    Inscrit en
    Octobre 2016
    Messages
    299
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Retraité

    Informations forums :
    Inscription : Octobre 2016
    Messages : 299
    Par défaut
    Citation Envoyé par Gluups Voir le message
    Et quand ils sont élus parmi les candidats proposés par le pouvoir sortant, il est temps de fuir.
    Oui. Pas facile ... Ça s'appelle une dictature (mal déguisée) qui peut satisfaire plus ou moins des hypocrites à l'étranger.

  4. #124
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 777
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 777
    Par défaut
    En effet, tu as bien situé le problème.

    Et quand tu dis à l'étranger, ça ne signifie pas nécessairement que ça soit des étrangers, mais qu'ils ont trouvé plus prudent, étant donné ce qu'ils sont en train de faire de la France, de ne pas risquer leurs plumes dedans.

    Cyniques, mais pas idiots.

    Alors c'est vrai que s'installer ailleurs, c'est comme changer de système : on ne tarde pas tellement à se rendre compte qu'il y en a besoin, mais pour concrétiser, il y a des étapes, et il y faut des ressources.

    Ça nous met en lumière ce qui se passe avec l'accueil des étrangers. De façon pas trop surprenante, les étrangers voient en premier que l'accueil devient plus hostile.

    De façon plus surprenante en revanche, j'ai beau expliquer à mes compatriotes que si les Arabes sont des voisins charmants, d'autres "invités" proviennent de pays où règne la guerre civile, et ce n'est pas par hasard : ils sont en train de l'allumer chez nous.

    Je ne crois pas que je vais éveiller les consciences là-dessus, alors je reviens aux Arabes : ça fait un moment qu'ils ressentent l'ambiance comme pesante, alors ils ont déjà commencé à fuir. Pour plus ou moins citer France Inter et en même temps rejoindre ce que tu disais : qui a fui en premier ? Les CSP supérieures, pour deux raisons : ils ont des compétences à proposer ailleurs, et de façon probablement liée, ils ont aussi un peu d'économies pour réaliser le voyage.
    [INS](Heureusement pour les Arabes plus modestes, ils sont le cœur de cible du Front National.)[/INS]

    Voilà les gens qui peuvent tenir compte que ... le pays n'a plus besoin de leurs compétences car il automatise les tâches, et il n'a plus besoin non plus d'eux pour prendre les décisions, parce que Macron sait mieux que nous.

    Il n'est pas le premier : ce n'est pas lui qui nous a dit "Vous avez mal voté mais ne vous inquiétez pas, on va le refaire pour vous."

    Alors ... oui, il faut passer à Unix, mais apparemment, pas seulement.

  5. #125
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 239
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 239
    Par défaut Max Tegmark estime qu'il faut mettre un terme aux progrès de l'IA et empêcher les entreprises de créer des AGI
    Le chercheur en IA Max Tegmark estime qu'il faut mettre un terme aux progrès de l'IA et empêcher la création des AGI, en veillant à ce que l'IA ne devienne qu'un outil et non une superintelligence.

    Max Tegmark, physicien et chercheur en apprentissage automatique, affirme qu'il faut mettre un terme aux progrès de la technologie de l'IA et ne construire que des IA qui ne soient que des outils et non des intelligences artificielles générales (AGI) ou des superintelligences. Il ajoute qu'il n'y a pas autant de temps que nous le pensions pour réfléchir à tout cela.

    Max Tegmark est un physicien suédo-américain, chercheur en apprentissage automatique et auteur. Il est surtout connu pour son livre Life 3.0, qui décrit ce à quoi le monde pourrait ressembler à mesure que l'intelligence artificielle continue de s'améliorer. Tegmark est professeur au Massachusetts Institute of Technology (MIT) et président du Future of Life Institute. Dans son livre, Tegmark soutient que les risques de l'IA ne proviennent pas de la malveillance ou d'un comportement conscient en soi, mais plutôt d'un mauvais alignement des objectifs de l'IA sur ceux des humains.

    En effet, l’IA est une avancée technologique majeure qui a le potentiel de transformer les industries, de remodeler les emplois et de stimuler la productivité économique. Cependant, elle n’est pas sans risque. En 2023, pour contrer les effets négatifs de l’IA, Max Tegmark a organisé une lettre ouverte. Cette lettre appelait à une pause de six mois dans les expériences d’IA et a été signée par des milliers de personnalités du secteur technologique, dont Elon Musk et Steve Wozniak, cofondateur d’Apple. Selon Tegmark, le développement incontrôlé de l’IA par quelques entreprises met en péril l’avenir de la société.

    Il a souligné que l’IA promet de nombreux avantages incroyables, mais le développement irréfléchi et non contrôlé de systèmes de plus en plus puissants, sans aucune surveillance, met en danger notre économie, notre société et nos vies. Il a appelé à l’urgence de normes de sécurité en matière d’IA pour éviter que cela ne se transforme pas en une course au sommet. La réglementation est essentielle pour garantir la sécurité de l’innovation, afin qu’une poignée d’entreprises spécialisées dans l’IA ne mette pas en péril notre avenir commun.

    Dans la ligné de ses propos, récemment, Max Tegmark a affirmé qu'il faut mettre un terme aux progrès de la technologie de l'IA et ne construire que des IA qui ne soient que des outils et non des intelligences artificielles générales (AGI) ou des superintelligences.

    Citation Envoyé par Max Tegmark
    Utiliser l'IA pour améliorer l'éducation, utiliser l'IA pour guérir le cancer, etc., c'est ce que j'appelle l'IA outil : l'IA que l'on peut, si l'on est sage, fabriquer de manière à ce qu'elle devienne notre outil et que nous n'ayons jamais à nous inquiéter d'en perdre le contrôle.

    Il y a aussi, indépendamment de cela, la quête de l'AGI, la superintelligence. En fait, il s'agit de la nouvelle espèce dont Alan Turing nous avait prévenus que nous perdrions le contrôle. Et même s'il semble tout à fait insensé que nous nous précipitions pour la construire, c'est l'objectif commercial déclaré d'OpenAI, de Google DeepMind, d'Anthropic et d'autres entreprises. Vous pouvez lire sur le site web d'Anthropic que leur objectif est de rendre tout travail humain obsolète, en gros. Et nous avons entendu dire que de nombreuses personnes, dont le PDG d'Anthropic, Dario Amodei, pensent que cela se produira dans deux ans.

    Nous n'avons donc pas autant de temps que nous le pensions pour réfléchir à tout cela. Pour moi, la solution à tout cela est vraiment très, très évidente et nous saute aux yeux. C'est la même solution que nous, en tant que société, avons adoptée à maintes reprises pour toutes les autres technologies. Nous avons inventé toutes sortes de biotechnologies et nous avons tracé une ligne. Nous avons dit, d'un point de vue moral, la pénicilline c'est bien, les armes biologiques non, le clonage humain non.

    Pour toute autre technologie, nous aurons une FDA ou une FAA ou une sorte de normes de sécurité qui devront être respectées avant que la technologie ne soit diffusée dans le monde. C'est le cas pour tous les domaines, à l'exception de l'IA, à l'heure actuelle en Amérique.
    Le point de vue de Max Tegmark est intéressant, et il est en général rejoint par les chercheurs en IA. Un chercheur en sécurité de l'IA, le Dr Roman V. Yampolskiy, soutenu par Elon Musk, a averti que l'IA ne peut actuellement être contrôlée en toute sécurité, mettant en garde contre le développement de cette technologie sans preuve de son contrôle. Yampolskiy propose des solutions, notamment classer les IA comme contrôlables ou incontrôlables et envisager des moratoires ou des interdictions partielles. Il souligne l'importance de poursuivre la recherche sur la sécurité de l'IA pour minimiser les risques tout en maximisant les avantages potentiels.

    Dans le même ordre d'idée, le PDG d'Arm craint également que les humains ne perdent le contrôle de l'IA. Il met en avant l'importance d'avoir un moyen de neutraliser ou d'arrêter le système. Il souligne la nécessité d'un moyen de neutralisation ou d'arrêt du système. Ces avis confirment que l'AGI pourrait être soit une prospérité sans précédent, soit une catastrophe existentielle, et la prudence et la prévoyance sont nécessaires pour guider nos pas dans ce domaine complexe.

    Et vous ?

    Pensez-vous que ces déclarations sont crédibles ou pertinentes ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Des scientifiques espèrent accélérer le développement de l'AGI avec un réseau de supercalculateurs dont le premier nœud sera bientôt déployé, mais le projet suscite le scepticisme et plusieurs préoccupations

    Selon un groupe de chercheurs en IA, les LLM actuels ne mèneront pas à l'AGI, mais les robots dotés d'une IA qui se développent dans le monde 3D pourraient le faire

    Le gouvernement US doit agir «rapidement et de manière décisive» pour éviter les risques de sécurité nationale découlant de l'IA qui pourrait provoquer une « extinction à la hauteur de la menace »

    Exode chez OpenAI : près de la moitié du personnel chargé de la sécurité de l'AGI a quitté l'entreprise. Sam Altman, qui a réclamé une réglementation de l'IA, s'y oppose lorsqu'elle est implémentée
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  6. #126
    Membre actif
    Homme Profil pro
    Chômeur inutile
    Inscrit en
    Juillet 2012
    Messages
    96
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Chômeur inutile
    Secteur : Industrie

    Informations forums :
    Inscription : Juillet 2012
    Messages : 96
    Par défaut
    Imaginons que l'IA soit un jour capable de programmer des virus en assembleur,pour plusieurs architectures

  7. #127
    Membre actif
    Homme Profil pro
    Chômeur inutile
    Inscrit en
    Juillet 2012
    Messages
    96
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Chômeur inutile
    Secteur : Industrie

    Informations forums :
    Inscription : Juillet 2012
    Messages : 96
    Par défaut
    Les systèmes FPGA pourraient nous aider a être plus rapide que L'IA

    Des systèmes de securite sur base FPGA...voir ASIC

    On peut faire l'analogie avec le trading haute fréquence

  8. #128
    Membre actif
    Homme Profil pro
    Chômeur inutile
    Inscrit en
    Juillet 2012
    Messages
    96
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Chômeur inutile
    Secteur : Industrie

    Informations forums :
    Inscription : Juillet 2012
    Messages : 96
    Par défaut
    Première ligne de défense : ASIC

    2 : FPGA

    3 : Microprocesseur

    4 :Si watchdog microprocesseur = 1 , étape 5

    5 : broyer le réseau comme un fusible pour éviter que le virus ne s’étende



    Ma théorie c'est de la merde

  9. #129
    Invité
    Invité(e)
    Par défaut
    Ces avis confirment que l'AGI pourrait être soit une prospérité sans précédent, soit une catastrophe existentielle,
    N'est-ce pas ce a quoi est confronté l'espèce humaine actuellement ?
    Mais en quoi est-ce un choix ?

    Ma théorie c'est de la merde
    Hmm, ça c'est un peu le problème avec les théories ...
    #liminai_colossus:

  10. #130
    Membre éclairé
    Homme Profil pro
    autre
    Inscrit en
    Septembre 2015
    Messages
    358
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Yvelines (Île de France)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Septembre 2015
    Messages : 358
    Par défaut
    Je ne vois pas comment un ASIC peut aider à la sécurité… ou plutôt, des tâches touchant de près ou de loin à la sécurité (MMU, TPM…) sont déjà intégré dans nos PC. Il faut des ASIC qui ne soient pas complètement contrôlé par nos PC (façon TPM où ll n’y a pas d’interface pour extraire les clés secrètes), mais pour faire quoi ?

    Non, la bonne approche est le développement de logiciels sûrs façon seL4. Cela coûte 7 fois le prix (pour une année de développement, 6 pour les éléments de preuve)… en espérant que l’IA change favorablement ce ratio !

  11. #131
    Membre actif
    Homme Profil pro
    Chômeur inutile
    Inscrit en
    Juillet 2012
    Messages
    96
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Chômeur inutile
    Secteur : Industrie

    Informations forums :
    Inscription : Juillet 2012
    Messages : 96
    Par défaut
    Un "bitaxe" a 150 euros éclate les meilleurs cartes graphiques pour le bitcoin

    Les ASICs peuvent être vus comme des coprocesseurs ultra rapides...

    Peut être qu'en cybersécurité ils peuvent avoir un rôle...C'est juste une idée

    L' "inline_assembly" n'existe pas pour rien....Les ASICs non plus

    Portions critiques du code

  12. #132
    Membre éclairé
    Homme Profil pro
    autre
    Inscrit en
    Septembre 2015
    Messages
    358
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Yvelines (Île de France)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Septembre 2015
    Messages : 358
    Par défaut
    L'inline_assembly n'existe que pour gagner en vitesse (en supposant que tu optimises mieux que le compilateur), ou pour coder des choses que le langage support ne sait pas gérer (masquage des interruptions (STI/CLI), commutation de tâche, instructions SIMD (SSE)). On ne gagne pas vraiment en sécurité.

    Un ASIC sera une réponse pour des choses plus simple que ce que tu gèrerait avec un CPU, mais tu souhaites de la vitesse et ou de l'éfficacité énergétique. Cela va te permettre de créer un parefeu matériel par exemple - c'est une fonction de sécurité. Reste à voir si une implémentation matérielle peut filtrer les mails et PJ (sans compter le problème de mises à jour dès qu'un nouveau type de PJ autorisé doit être supporté).

    Mais ce n'est pas parce que c'est une bonne option dans certains cas que cela résout tous les autres problèmes.

    Je pense que l'on gagnera probablement plus en sécurité avec la généralisation de logiciel sans débordement de mémoire (Rust, C#, Ada...). Et le Graal ce sont les approches formelles (Spark de AdaCore, autre avec seL4...)

  13. #133
    Membre actif
    Homme Profil pro
    Chômeur inutile
    Inscrit en
    Juillet 2012
    Messages
    96
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Chômeur inutile
    Secteur : Industrie

    Informations forums :
    Inscription : Juillet 2012
    Messages : 96
    Par défaut
    En banalisant...encapsuler sans fuite mémoire?

    Il faut peut être aussi de la puissance brute pour 'descrambler'

  14. #134
    Membre actif
    Profil pro
    Inscrit en
    Novembre 2003
    Messages
    120
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Novembre 2003
    Messages : 120
    Par défaut
    Il trace une limite à ne pas franchir et décide donc de stopper son avancée technologique, c'est sa volonté.
    Cependant, chaque personne a sa propre volonté, tout comme le reste de l'humanité.
    Lorsque deux concurrents s'affrontent et que l'un des deux choisit de rester à l'âge de pierre, lequel des deux se fait écraser ?

  15. #135
    Membre éclairé Avatar de pierre.E
    Homme Profil pro
    Développeur en systèmes embarqués
    Inscrit en
    Janvier 2016
    Messages
    248
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Développeur en systèmes embarqués
    Secteur : Industrie

    Informations forums :
    Inscription : Janvier 2016
    Messages : 248
    Par défaut c'est la loi de l'évolution
    c'est l'évolution l etre humain sera remplace par des ia comme especes dominantes car l ia est plus adaptée à la vie dans l espace que des êtres biologiques et comme il faut conquérir l espace pour espérer survivre.......................

  16. #136
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 239
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 239
    Par défaut Joe Biden et Xi Jinping s'accordent que c'est l'homme et non l'IA qui contrôlera les armes nucléaires
    Le président américain Joe Biden et le président chinois Xi Jinping s'accordent sur le fait que ce sont les humains, et non l'IA, qui devraient contrôler les armes nucléaires

    Le président américain Joe Biden et le président chinois Xi Jinping s'accordent sur le fait que ce sont les humains, et non l'IA, qui devraient contrôler les armes nucléaires. Xi Jinping a critiqué les contrôles des exportations de technologies sensibles mis en place par Joe Biden, mais les deux ont convenu sur la nécessité d'examiner attentivement les risques potentiels de l'IA dans le domaine militaire.

    Dans un monde où la technologie évolue à un rythme sans précédent, la question du contrôle des armes nucléaires prend une nouvelle dimension. En mars 2024, un haut fonctionnaire américain a exhorté la Chine et la Russie à rejoindre les États-Unis, la France et la Grande-Bretagne en déclarant que seuls les humains, et jamais l’intelligence artificielle (IA), devraient prendre des décisions concernant le déploiement des armes nucléaires.

    Récemment, lors de leur dernière rencontre, le président américain Joe Biden et le président chinois Xi Jinping ont fait un premier pas pour limiter l'IA et les décisions nucléaires. Ils ont convenu que toute décision d'utiliser des armes nucléaires devait être contrôlée par des êtres humains et non par l'intelligence artificielle (IA). Cependant, Jake Sullivan, conseiller de Joe Biden en matière de sécurité nationale, a déclaré aux journalistes que l'accord constituait une première étape importante pour les deux puissances nucléaires dans la gestion d'un risque stratégique à long terme.

    L'objectif de Joe Biden lors de cette rencontre était de souligner l'importance de la stabilité des relations pendant la transition du pouvoir et d'essayer de consolider les progrès réalisés avec Xi Jinping sur des questions telles que la lutte contre les stupéfiants et le climat. En effet, cette rencontre était la dernière entre les deux présidents avant que le président élu Donald Trump ne prenne ses fonctions en janvier 2025.

    Xi Jinping a déclaré que son pays souhaitait travailler avec la future administration de Donald Trump. "La Chine est prête à travailler avec la nouvelle administration américaine pour maintenir la communication, élargir la coopération et gérer les différences", a déclaré Xi Jinping, tout en notant que "notre position consistant à sauvegarder résolument la souveraineté, la sécurité et les intérêts de développement de la Chine reste inchangée."


    Xi Jinping a critiqué les contrôles des exportations de technologies sensibles mis en place par Joe Biden

    Au début de la réunion de 90 minutes, qui s'est tenue en marge du sommet de la Coopération économique Asie-Pacifique à Lima, le président Xi Jinping a déclaré que la relation entre les deux pays était "la relation bilatérale la plus importante au monde", ce à quoi le président Joe Biden a fait écho. "La façon dont nous nous entendons aura un impact sur le reste du monde", a déclaré Joe Biden.

    Xi Jinping a noté que les relations bilatérales avaient "connu des hauts et des bas" au cours du mandat de Joe Biden, et s'en est pris plus particulièrement aux contrôles des exportations de technologies de pointe mis en place par l'administration Biden. Ces restrictions concernent les outils de fabrication de semi-conducteurs avancés, les types les plus avancés de puces semi-conductrices et les technologies utilisées dans les systèmes militaires, les missiles hypersoniques, les systèmes autonomes et la surveillance.

    Dans son discours d'ouverture, Xi Jinping s'est longuement attardé sur la concurrence à "l'ère de la révolution scientifique et technologique" et a déclaré : "Seule une coopération mutuellement bénéfique peut conduire à un développement commun. Un grand pays ne devrait pas poursuivre l'idée d'une "petite cour, de hautes clôtures"", ce qui constitue une référence directe à la politique de contrôle des exportations.

    Selon le conseiller Jake Sullivan, l'équipe de Joe Biden plaide auprès de la nouvelle administration pour qu'elle maintienne les contrôles à l'exportation. Avant la réunion, Jake Sullivan avait déclaré aux journalistes qu'il voyait une certaine continuité avec la future administration Trump, en citant le représentant Mike Waltz, que Donald Trump a nommé conseiller à la sécurité nationale, et le sénateur Marco Rubio, que Donald Trump nommera secrétaire d'État, pour l'importance qu'ils accordent aux défis stratégiques posés par la Chine.

    Donald Trump avait fait des droits de douane sur les importations de produits chinois une caractéristique de son premier mandat, droits de douane que Joe Biden a en grande partie maintenus, et avait promis pendant sa campagne d'augmenter à nouveau les droits de douane sur la Chine au cours de son second mandat.

    Jake Sullivan a déclaré que Joe Biden avait réitéré ses préoccupations concernant les pratiques commerciales de la Chine au cours de la réunion. Il a également indiqué que Joe Biden s'était inquiété du soutien apporté par la Chine à la base industrielle de défense de la Russie et qu'il avait exhorté Xi Jinping à user de son influence sur la Corée du Nord pour empêcher ce pays d'envoyer davantage de troupes se battre pour la Russie contre l'Ukraine.

    Les États-Unis ont commencé à étudier la possibilité d'utiliser les systèmes d'IA à des fins militaires

    En condradiction à ses déclarations, en février 2024, les États-Unis avaient étudié les utilisations militaires de l'IA qui peut soutenir et potentiellement perturber la planification et la prise de décision militaires. Le contrat entre Scale AI et le Pentagone servirait à fournir "un cadre permettant de déployer l'IA en toute sécurité en mesurant les performances des modèles, en offrant un retour d'information en temps réel aux combattants et en créant des ensembles d'évaluation spécialisés pour le secteur public afin de tester les modèles d'IA pour des applications de soutien militaire".

    Fait intéressant, avant l'annonce de ce contrat, OpenAI avait également supprimé discrètement l'interdiction des termes "militaire et guerre" de sa politique d'autorisation d'utilisation. OpenAI s'est notamment défendu en déclarant "viser à créer un ensemble de principes universels qui soient à la fois faciles à retenir et à appliquer".

    Mais les experts ont déclaré que la suppression des termes "militaire et guerre" laisse la porte ouverte à des contrats lucratifs avec l'armée américaine et d'autres armées. Les experts avertissent notamment que les applications de l'IA, y compris les systèmes d'armes autonomes létaux, communément appelés "robots tueurs", pourraient constituer une menace potentiellement existentielle pour l'humanité.

    Et vous ?

    Pensez-vous que cette rencontre est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Les robots tueurs de la Chine arrivent : les grandes puissances ont commencé à développer des "robots tueurs" entièrement autonomes et dotés d'une IA pour remplacer leurs soldats sur le champ de bataille

    L'armée US fait le premier achat confirmé d'un produit OpenAI pour les forces de combat pour « l'analyse unifiée du traitement des données », un objectif qui montre une ignorance des hallucinations de l'IA

    Des responsables mondiaux d'organisations diverses appellent au bannissement des robots tueurs et des armes pilotées par des IA : « C'est le tournant Oppenheimer de notre génération »
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  17. #137
    Membre averti
    Homme Profil pro
    Inscrit en
    Mai 2012
    Messages
    45
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Secteur : Santé

    Informations forums :
    Inscription : Mai 2012
    Messages : 45
    Par défaut Il a vraisemblablement raison
    L'enjeu de ces affirmations est substantiel. J'espère qu'il ne va rien lui arriver à cause de ces propos.

Discussions similaires

  1. Réponses: 2
    Dernier message: 20/09/2023, 21h03
  2. Comment créer un avatar sur votre site Web, j'ai beau eu chercher je n'est pas trouvé !
    Par denis18 dans le forum Mode d'emploi & aide aux nouveaux
    Réponses: 1
    Dernier message: 21/07/2020, 09h28
  3. Réponses: 1
    Dernier message: 14/05/2019, 19h03
  4. Réponses: 1
    Dernier message: 03/08/2016, 17h19
  5. [XL-2000] Comment fermer un fichier excel si il est ouvert mais sans bug s'il n'est pas ouvert
    Par Avinetor dans le forum Macros et VBA Excel
    Réponses: 5
    Dernier message: 05/06/2009, 14h09

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo