IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Des sénateurs américains dévoilent un plan visant à contrôler l'IA tout en y investissant 32 Mds $


Sujet :

Intelligence artificielle

  1. #21
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    1 817
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 1 817
    Points : 5 842
    Points
    5 842
    Par défaut
    Citation Envoyé par PomFritz Voir le message
    Un peu d'ojectivité ne fait pas de mal. Ils ont une quand même une société civile et un semblant de justice comparé à d'autres.
    Vous feriez bien d'appliquer votre "un peu d'objectivité" à vos propres jugements!

    Je suppose que vous êtes scandalisé chaque fois qu'il y a un civil ukrainien tué dans l'explosion d'un missile russe? Que vous criez de tout votre souffle au crime de guerre!

    Les 220 000 civils japonais évaporés immédiatement sous les bombes nucléaires américaines et les centaines de milliers d'autres morts dans d'atroces souffrances suite aux radiations induites , les 4,8 millions de personnes directement exposées au Vietnam à l'agent orange des américains dont plus de 3 millions d'entre elles ont développé des problèmes de santé (des enfants naissent encore aujourd'hui handicapés), les plus de 300 000 civils irakiens tués par les américains lors des 2 guerres en Irak, n'ont pas droit à votre "objectivité"???????????????

    A mais je suppose que d'après votre "objectivité", ces victimes de guerre n'en sont pas parce les auteurs de ces horreurs sont de gentils américains d'un pays démocratique exemplaire?

    Vous devriez regarder un peu moins CNews et passer plus de temps à ouvrir les livres d'histoire!!!

  2. #22
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 651
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 651
    Points : 18 597
    Points
    18 597
    Par défaut
    Citation Envoyé par Anselme45 Voir le message
    passer plus de temps à ouvrir les livres d'histoire!!!
    Ben justement "Les vainqueurs écrivent l'histoire" ça veut dire que tous les crimes de guerre sont mis sur le dos du perdant.
    Enfin pas tout non plus, parce qu'on connait l'histoire de Little Boy (Hiroshima) et Fat Man (Nagasaki).
    On sait aussi pour l'Agent Orange, le Napalm, les munitions à l'uranium appauvri, le phosphore blanc, etc.

    Les USA sont dans une position "nous sommes les gendarmes du monde", "nous avons forcément raison puisque nous sommes les gentils".
    Il y a plein de gens que ça énerve ce discours (surtout en dehors de l'occident).
    Keith Flint 1969 - 2019

  3. #23
    Membre confirmé
    Inscrit en
    Mai 2008
    Messages
    178
    Détails du profil
    Informations forums :
    Inscription : Mai 2008
    Messages : 178
    Points : 493
    Points
    493
    Par défaut
    Voilà un décompte précis! C'est une forme d'analyse politique comme une autre. En plus, pas besoin de renvoyer à des livres d'histoire pour trouver les chiffres, c'est sur Wikipedia (et dans les fils des réseaux sociaux).

    Je ne cherche pas à équilibrer les comptes (en admettant qu'on sache comment et depuis où commencer à compter). Je pars du monde tel qu'il est, pour savoir où il va, pas l'inverse. Le contexte historique est différent (ne serait-ce que du point de vue de la puissance technologique au niveau militaire et propagandiste à disposition de toutes les petites frappes mafieuses dirigeantes, judéo-chrétiennes ou pas, en roue libre).

    Je m'en tiens à ce que j'écris (soit des constatations). Après libre à chacun d'extrapoler, dans le confort de ses schémas intellectuels ce que je pense. Je ne compte rédiger des pâtés historico-idéologiques dans un forum dédié à l'informatique.

  4. #24
    Membre émérite
    Homme Profil pro
    Étudiant
    Inscrit en
    Novembre 2021
    Messages
    1 090
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Novembre 2021
    Messages : 1 090
    Points : 2 933
    Points
    2 933
    Par défaut
    Citation Envoyé par Anselme45 Voir le message
    Trouver des excuses à ses crimes de guerre? Là, vous faites erreur, les USA ne s'excusent jamais, surtout pas pour les crimes de guerres qu'ils ont commis.

    Vous avez entendu parlé des bombes nucléaires américaines sur les villes d’Hiroshima et Nagasaki? De l'épandage à grande échelle de l'agent orange lors de la guerre du Vietnam? Du bombardement de la Serbie pendant 78 jours par l'OTAN sans l'accord de l'ONU en prenant pour cible les infrastructure civiles tels que les ponts, les usines électriques, etc? Du déclenchement de la 2ème guerre contre l'Irak en inventant de toute pièce l'existence d'armes de destruction massives? De l'invasion de l'Afghanistan en prenant pour excuse l'attentat des Tours Jumelles de New York alors que les terroristes étaient issus d'Arabie Saoudite, d'Egypte, du Pakistan mais pas un seul d'Afghanistan?

    Est-ce que depuis ces exemples, vous avez entendu une seule fois un début d'excuse des USA?
    En fait, par "excuses" je voulait dire "justification" ou "prétexte". Pas du genre "en s'excuse, on regrette", mais plutôt "on est légitime pour faire ça parce que".

  5. #25
    Membre éprouvé
    Homme Profil pro
    Analyste d'exploitation
    Inscrit en
    Juin 2022
    Messages
    263
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 39
    Localisation : France, Puy de Dôme (Auvergne)

    Informations professionnelles :
    Activité : Analyste d'exploitation

    Informations forums :
    Inscription : Juin 2022
    Messages : 263
    Points : 908
    Points
    908
    Par défaut
    Les bombes nucléaires sont vraiment le pire exemple que quelqu'un puisse donner pour parler des Etats-Unis et de leur impudence.

    Les bombes Fat Man et Little Boy ont été annoncées avant d'être larguées sur les villes d'Hiroshima et Nagasaki; Une pluie de tract qui signalait l'arrivée de bombes nucléaires ne justifie pas l'utilisation de la bombe.
    Tout comme rien ne peut justifier les massacres du Sac/Viol de Nankin. Il faut recontextualiser, les Etats-Unis avaient subi une attaque sur Pearl Harbor à l'époque, attaque qui a été très mal vécue et le Japon avait clairement affiché sa volonté de ne pas baisser les armes.

    Rappelons également l'existence de l'unité 731, une section de "recherches" japonaise qui ferait pâlir les meilleurs réalisateurs d'horreur. (Sérieusement, ne cliquez pas sur le lien si vous n'avez pas l'estomac accroché.)

    Du point de vue des USA, le Japon est un ennemi avec un front maritime, qui a commis tout autant d'atrocités que nos voisins nazis, et qui est suffisamment entêté pour renoncer au bien-être de son peuple pour se sauver la face. Il ne faut pas oublier qu'au même moment, le Japon avait envahi le territoire des actuelles Corées, par exemple.

    Alors, certes, c'est poilant de nos jours, de lire qu'un général de l'armée américaine puisse se permettre de faire la morale; entre les guerres afghanes, les violations des conventions de Genève (Vietnam également), et leurs ingérences à toute heure. Mais ce serait encore mieux de se poiler pour les bonnes raisons...

  6. #26
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 067
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 067
    Points : 74 264
    Points
    74 264
    Par défaut Joe Biden signe un décret visant à superviser et à investir dans l'IA
    Joe Biden signe un décret visant à superviser et à investir dans l'IA, ses objectifs vont des droits civils aux réglementations industrielles, en passant par l'embauche de personnel.

    Le président Joe Biden a signé lundi un décret de grande envergure sur l'intelligence artificielle, ouvrant la voie à certaines réglementations industrielles et au financement du gouvernement américain pour qu'il investisse davantage dans cette technologie. Le décret est vaste et ses objectifs vont des droits civils aux réglementations industrielles, en passant par une vague d'embauches au sein du gouvernement.

    Lors d'une conférence de presse organisée dimanche pour présenter le décret, un haut fonctionnaire de la Maison-Blanche, qui a demandé à ne pas être nommé en raison des conditions de la conférence, a déclaré que l'IA avait tellement de facettes qu'une réglementation efficace devait couvrir un large éventail de domaines.

    "La politique en matière d'IA, c'est comme un décathlon, avec dix épreuves différentes", a déclaré le haut fonctionnaire. "Et nous n'avons pas le luxe de nous contenter de choisir "nous allons nous contenter de la sécurité" ou "nous allons nous contenter de l'équité" ou "nous allons nous contenter de la protection de la vie privée". Il faut tenir compte de tous ces aspects".

    Le fonctionnaire a également appelé à une "législation bipartisane significative" pour faire progresser les intérêts du pays en matière d'IA. Le chef de la majorité au Sénat, Chuck Schumer (D-N.Y.), a organisé en septembre un forum privé avec des chefs d'entreprise, mais il n'a pas encore présenté de législation significative sur l'IA.


    Le décret s'appuie en partie sur un accord non contraignant conclu en juillet par sept des principales entreprises technologiques américaines qui développent l'IA, comme l'embauche d'experts extérieurs pour rechercher les faiblesses de leurs systèmes et le partage de leurs conclusions critiques. Le décret s'appuie sur la loi sur la production de défense pour obliger légalement ces entreprises à partager les résultats des tests de sécurité avec le gouvernement fédéral. Il charge également le ministère du commerce d'élaborer des orientations sur le "filigrane" des contenus d'IA, afin de montrer clairement que les vidéos "deepfaked" ou les essais générés par ChatGPT n'ont pas été créés par des humains.

    Le décret prévoit également le financement de nouvelles recherches en matière d'IA et une augmentation du nombre d'embauches dans ce domaine au niveau fédéral. La Maison Blanche a lancé un site web correspondant pour mettre en relation les demandeurs d'emploi et les emplois gouvernementaux dans le domaine de l'IA : AI.gov.

    Fei-Fei Li, codirecteur de l'Institute for Human-Centered Artificial Intelligence de Stanford, a déclaré dans une interview que le financement public était essentiel pour que l'IA puisse s'attaquer aux principaux problèmes humains. "Le secteur public offre une opportunité unique en termes de données et de talents interdisciplinaires pour guérir le cancer, soigner les maladies rares, cartographier la biodiversité à l'échelle mondiale, comprendre et prédire les incendies de forêt, trouver des solutions au problème du climat et renforcer la capacité de nos enseignants", a déclaré Li. "Il y a tant de choses que le secteur public peut faire, mais tout cela est aujourd'hui réduit à néant parce que nous manquons cruellement de ressources".

    Sarah Myers West, directrice générale de l'AI Now Institute, un groupe à but non lucratif qui se concentre sur les effets de la technologie sur la société, a félicité Biden d'avoir inclus des préoccupations sociales et éthiques dans l'ordre. "C'est formidable de voir la Maison-Blanche donner le ton sur les questions qui importent le plus au public : le travail, les droits civils, la protection de la vie privée, la promotion de la concurrence", a déclaré Myers West par texto. "Cela souligne qu'il est impossible de faire face aux risques futurs de l'IA sans s'occuper correctement du présent." "La clé pour l'avenir sera d'assurer une application stricte de la loi alors que les entreprises tentent de s'autoréguler : l'industrie ne peut pas être laissée à elle-même pour mener la conversation sur la manière d'aborder correctement les effets de l'IA sur le grand public", a-t-elle ajouté.

    Voici les points essentiels concernant le décret sur l'intelligence artificielle sûre, sécurisée et digne de confiance que le président Biden a publié.

    Nom : 1.png
Affichages : 2013
Taille : 507,5 Ko

    Fiche d'information de la Maison Blanche

    Aujourd'hui, le président Biden a publié un décret historique visant à garantir que l'Amérique ouvre la voie en saisissant les promesses et en gérant les risques de l'intelligence artificielle (IA). Ce décret établit de nouvelles normes en matière de sûreté et de sécurité de l'IA, protège la vie privée des Américains, fait progresser l'équité et les droits civils, défend les consommateurs et les travailleurs, promeut l'innovation et la concurrence, fait progresser le leadership américain dans le monde, et plus encore.

    Dans le cadre de la stratégie globale de l'administration Biden-Harris pour une innovation responsable, le décret s'appuie sur les mesures prises précédemment par le président, y compris les travaux qui ont conduit à des engagements volontaires de la part de 15 grandes entreprises pour favoriser un développement sûr, sécurisé et digne de confiance de l'IA.

    Le décret ordonne les actions suivantes :


    De nouvelles normes pour la sûreté et la sécurité de l'IA

    Les capacités de l'IA augmentent, tout comme ses implications pour la sûreté et la sécurité des Américains. Par ce décret, le président ordonne les mesures les plus radicales jamais prises pour protéger les Américains contre les risques potentiels des systèmes d'IA :

    • Exiger que les développeurs des systèmes d'IA les plus puissants partagent les résultats de leurs tests de sécurité et d'autres informations critiques avec le gouvernement américain. Conformément à la loi sur la production de défense (Defense Production Act), le décret exigera que les entreprises qui développent un modèle de fondation présentant un risque sérieux pour la sécurité nationale, la sécurité économique nationale ou la santé et la sécurité publiques nationales informent le gouvernement fédéral lorsqu'elles forment le modèle, et qu'elles partagent les résultats de tous les tests de sécurité effectués par l'équipe d'intervention. Ces mesures garantiront que les systèmes d'IA sont sûrs, sécurisés et dignes de confiance avant que les entreprises ne les rendent publics.

    • Élaborer des normes, des outils et des tests pour garantir que les systèmes d'IA sont sûrs, sécurisés et fiables. L'Institut national des normes et de la technologie établira des normes rigoureuses pour les tests approfondis de l'équipe rouge afin de garantir la sécurité avant la diffusion publique. Le ministère de la sécurité intérieure appliquera ces normes aux secteurs d'infrastructures critiques et mettra en place le Conseil de sécurité et de sûreté de l'IA. Les ministères de l'énergie et de la sécurité intérieure se pencheront également sur les menaces que les systèmes d'IA font peser sur les infrastructures essentielles, ainsi que sur les risques chimiques, biologiques, radiologiques, nucléaires et de cybersécurité. Ensemble, ces mesures sont les plus importantes jamais prises par un gouvernement pour faire progresser le domaine de la sécurité de l'IA.

    • Protéger contre les risques liés à l'utilisation de l'IA pour créer des matériaux biologiques dangereux en élaborant de nouvelles normes strictes pour le contrôle des synthèses biologiques. Les agences qui financent des projets dans le domaine des sciences de la vie établiront ces normes comme condition du financement fédéral, créant ainsi de puissantes incitations à garantir un contrôle approprié et à gérer les risques potentiellement aggravés par l'IA.

    • Protéger les Américains contre la fraude et la tromperie par l'IA en établissant des normes et des bonnes pratiques pour détecter les contenus générés par l'IA et authentifier les contenus officiels. Le ministère du commerce élaborera des orientations pour l'authentification des contenus et l'utilisation de filigranes afin d'étiqueter clairement les contenus générés par l'IA. Les agences fédérales utiliseront ces outils pour permettre aux Américains de savoir facilement que les communications qu'ils reçoivent de leur gouvernement sont authentiques et pour donner l'exemple au secteur privé et aux gouvernements du monde entier.

    • Mettre en place un programme de cybersécurité avancée afin de développer des outils d'IA permettant de trouver et de corriger les vulnérabilités des logiciels critiques, en s'appuyant sur le défi cybernétique de l'IA lancé par l'administration Biden-Harris. Ensemble, ces efforts permettront d'exploiter les capacités cybernétiques de l'IA, qui pourraient changer la donne, afin de rendre les logiciels et les réseaux plus sûrs.

    • Ordonner l'élaboration d'un mémorandum sur la sécurité nationale qui oriente les actions futures en matière d'IA et de sécurité, qui sera élaboré par le Conseil de sécurité nationale et le chef de cabinet de la Maison Blanche. Ce document garantira que l'armée américaine et la communauté du renseignement utilisent l'IA de manière sûre, éthique et efficace dans le cadre de leurs missions, et dirigera les actions visant à contrer l'utilisation militaire de l'IA par les adversaires.


    Protéger la vie privée des Américains

    En l'absence de garde-fous, l'IA peut mettre davantage en péril la vie privée des Américains. Non seulement l'IA facilite l'extraction, l'identification et l'exploitation des données personnelles, mais elle renforce également les incitations à le faire, car les entreprises utilisent les données pour former les systèmes d'IA. Pour mieux protéger la vie privée des Américains, notamment contre les risques posés par l'IA, le président appelle le Congrès à adopter une législation bipartisane sur la confidentialité des données afin de protéger tous les Américains, en particulier les enfants, et ordonne les actions suivantes :

    • Protéger la vie privée des Américains en donnant la priorité au soutien fédéral pour accélérer le développement et l'utilisation de techniques de préservation de la vie privée, y compris celles qui utilisent l'IA de pointe et qui permettent d'entraîner les systèmes d'IA tout en préservant la confidentialité des données d'entraînement.

    • Renforcer la recherche et les technologies de préservation de la vie privée, telles que les outils cryptographiques qui préservent la vie privée des individus, en finançant un réseau de coordination de la recherche afin de favoriser les avancées rapides et le développement. La National Science Foundation travaillera également avec ce réseau pour promouvoir l'adoption par les agences fédérales de technologies de pointe en matière de protection de la vie privée.

    • Évaluer la manière dont les agences collectent et utilisent les informations disponibles sur le marché, y compris celles qu'elles se procurent auprès de courtiers en données, et renforcer les orientations en matière de protection de la vie privée à l'intention des agences fédérales afin de tenir compte des risques liés à l'IA. Ces travaux porteront en particulier sur les informations disponibles dans le commerce qui contiennent des données personnelles identifiables.

    • Élaborer des lignes directrices à l'intention des agences fédérales afin d'évaluer l'efficacité des techniques de préservation de la vie privée, y compris celles utilisées dans les systèmes d'IA. Ces lignes directrices feront progresser les efforts des agences pour protéger les données des Américains.


    Faire progresser l'équité et les droits civils

    L'utilisation irresponsable de l'IA peut entraîner et aggraver la discrimination, les préjugés et d'autres abus dans les domaines de la justice, des soins de santé et du logement. L'administration Biden-Harris a déjà pris des mesures en publiant le projet de charte des droits de l'IA et en publiant un décret ordonnant aux agences de lutter contre la discrimination algorithmique, tout en appliquant les autorités existantes pour protéger les droits et la sécurité des personnes. Afin de garantir que l'IA fasse progresser l'équité et les droits civils, le président ordonne les actions supplémentaires suivantes :

    • Fournir des conseils clairs aux propriétaires, aux programmes de prestations fédérales et aux entrepreneurs fédéraux pour éviter que les algorithmes d'IA ne soient utilisés pour exacerber la discrimination.

    • S'attaquer à la discrimination algorithmique par la formation, l'assistance technique et la coordination entre le ministère de la justice et les bureaux fédéraux des droits civils sur les meilleures pratiques pour enquêter et poursuivre les violations des droits civils liées à l'IA.

    • Garantir l'équité dans l'ensemble du système de justice pénale en élaborant des bonnes pratiques sur l'utilisation de l'IA dans la détermination de la peine, la libération conditionnelle et la probation, la mise en liberté provisoire et la détention, l'évaluation des risques, la surveillance, la prévision de la criminalité et la police prédictive, ainsi que l'analyse médico-légale.


    Défendre les consommateurs, les patients et les étudiants

    L'IA peut apporter de réels avantages aux consommateurs, par exemple en rendant les produits meilleurs, moins chers et plus largement disponibles. Mais l'IA augmente également le risque de blesser, d'induire en erreur ou de nuire d'une autre manière aux Américains. Afin de protéger les consommateurs tout en veillant à ce que l'IA puisse améliorer la situation des Américains, le président ordonne les actions suivantes :

    • Promouvoir l'utilisation responsable de l'IA dans les soins de santé et le développement de médicaments abordables et susceptibles de sauver des vies. Le ministère de la santé et des services sociaux mettra également en place un programme de sécurité pour recevoir les rapports sur les préjudices ou les pratiques dangereuses en matière de soins de santé impliquant l'IA, et pour y remédier.

    • Développer le potentiel de l'IA pour transformer l'éducation en créant des ressources pour soutenir les éducateurs qui déploient des outils éducatifs basés sur l'IA, tels que le tutorat personnalisé dans les écoles.


    Soutenir les travailleurs

    L'IA modifie les emplois et les lieux de travail américains, offrant à la fois la promesse d'une productivité accrue, mais aussi les dangers d'une surveillance accrue du lieu de travail, de préjugés et de déplacements d'emplois. Pour atténuer ces risques, soutenir la capacité des travailleurs à négocier collectivement et investir dans la formation et le développement de la main-d'œuvre accessible à tous, le président ordonne les actions suivantes :

    • Élaborer des principes et des bonnes pratiques pour atténuer les inconvénients et maximiser les avantages de l'IA pour les travailleurs en abordant le déplacement d'emplois, les normes du travail, l'équité, la santé et la sécurité sur le lieu de travail, et la collecte de données. Ces principes et ces meilleures pratiques profiteront aux travailleurs en fournissant des orientations pour empêcher les employeurs de sous-compenser les travailleurs, d'évaluer les demandes d'emploi de manière inéquitable ou d'entraver la capacité des travailleurs à s'organiser.

    • Produire un rapport sur les impacts potentiels de l'IA sur le marché du travail, et étudier et identifier des options pour renforcer le soutien fédéral aux travailleurs confrontés à des perturbations du marché du travail, y compris à cause de l'IA.


    Promouvoir l'innovation et la concurrence

    L'Amérique est déjà à la pointe de l'innovation en matière d'IA : l'année dernière, plus de startups d'IA ont levé des capitaux pour la première fois aux États-Unis que dans les sept pays suivants réunis. Le décret garantit que nous continuerons à être à la pointe de l'innovation et de la concurrence grâce aux actions suivantes :

    • Catalyser la recherche sur l'IA dans tous les États-Unis grâce à un projet pilote de ressources nationales de recherche sur l'IA - un outil qui permettra aux chercheurs et aux étudiants en IA d'accéder à des ressources et à des données clés sur l'IA - et à des subventions plus importantes pour la recherche sur l'IA dans des domaines vitaux tels que les soins de santé et le changement climatique.

    • Promouvoir un écosystème de l'IA équitable, ouvert et compétitif en fournissant aux petits développeurs et entrepreneurs un accès à l'assistance technique et aux ressources, en aidant les petites entreprises à commercialiser les percées en matière d'IA et en encourageant la Commission fédérale du commerce à exercer ses pouvoirs.

    • Utiliser les pouvoirs existants pour accroître la capacité des immigrants hautement qualifiés et des non-immigrants possédant une expertise dans des domaines critiques à étudier, séjourner et travailler aux États-Unis en modernisant et en rationalisant les critères d'octroi des visas, les entretiens et les examens.


    Promouvoir le leadership américain à l'étranger

    Les défis et les opportunités de l'IA sont mondiaux. L'administration Biden-Harris continuera à travailler avec d'autres nations pour soutenir le déploiement et l'utilisation sûrs, sécurisés et fiables de l'IA dans le monde entier. À cette fin, le président ordonne les actions suivantes :

    • Élargir les engagements bilatéraux, multilatéraux et multipartites pour collaborer sur l'IA. Le département d'État, en collaboration avec le département du commerce, mènera une action visant à établir des cadres internationaux solides pour exploiter les avantages de l'IA, gérer ses risques et garantir la sécurité. En outre, cette semaine, le vice-président Harris s'exprimera lors du sommet britannique sur la sécurité de l'IA, organisé par le premier ministre Rishi Sunak.

    • Accélérer l'élaboration et la mise en œuvre de normes essentielles en matière d'IA avec des partenaires internationaux et au sein d'organismes de normalisation, en veillant à ce que la technologie soit sûre, sécurisée, digne de confiance et interopérable.

    • Promouvoir le développement et le déploiement sûrs, responsables et respectueux des droits de l'IA à l'étranger afin de résoudre des problèmes mondiaux, tels que la promotion du développement durable et l'atténuation des dangers qui pèsent sur les infrastructures essentielles.


    Garantir une utilisation responsable et efficace de l'IA par les pouvoirs publics

    L'IA peut aider le gouvernement à obtenir de meilleurs résultats pour le peuple américain. Elle peut accroître la capacité des agences à réglementer, gouverner et distribuer des prestations, et elle peut réduire les coûts et renforcer la sécurité des systèmes gouvernementaux. Toutefois, l'utilisation de l'IA peut présenter des risques, tels que la discrimination et les décisions dangereuses. Afin de garantir un déploiement responsable de l'IA par le gouvernement et de moderniser l'infrastructure fédérale de l'IA, le président ordonne les actions suivantes :

    • Publier des orientations pour l'utilisation de l'IA par les agences, y compris des normes claires pour protéger les droits et la sécurité, améliorer les achats d'IA et renforcer le déploiement de l'IA.

    • Aider les agences à acquérir les produits et services d'IA spécifiés plus rapidement, à moindre coût et plus efficacement grâce à des contrats plus rapides et plus efficaces.

    • Accélérer le recrutement rapide de professionnels de l'IA dans le cadre d'une vague de talents en matière d'IA à l'échelle du gouvernement, sous l'égide de l'Office of Personnel Management, de l'U.S. Digital Service, de l'U.S. Digital Corps et de la Presidential Innovation Fellowship (bourse présidentielle pour l'innovation). Les agences proposeront des formations à l'IA aux employés de tous niveaux dans les domaines concernés.



    Tout en faisant avancer ce programme au niveau national, l'administration travaillera avec ses alliés et partenaires à l'étranger sur un cadre international solide pour régir le développement et l'utilisation de l'IA. L'administration a déjà mené de vastes consultations sur les cadres de gouvernance de l'IA au cours des derniers mois, avec l'Allemagne, l'Australie, le Brésil, le Canada, le Chili, la Corée du Sud, les Émirats arabes unis, la France, l'Inde, Israël, l'Italie, le Japon, le Kenya, le Mexique, la Nouvelle-Zélande, le Nigeria, les Pays-Bas, les Philippines, Singapour, l'Union européenne et le Royaume-Uni. Les mesures prises aujourd'hui soutiennent et complètent le rôle de chef de file du Japon dans le processus d'Hiroshima du G7, le sommet britannique sur la sécurité de l'IA, le rôle de chef de file de l'Inde en tant que présidente du Partenariat mondial sur l'IA et les discussions en cours aux Nations unies.

    Les mesures ordonnées aujourd'hui par le président Biden constituent des avancées essentielles dans l'approche des États-Unis en matière de sécurité et de fiabilité de l'IA. D'autres actions seront nécessaires, et l'administration continuera à travailler avec le Congrès pour mettre en place une législation bipartisane afin d'aider l'Amérique à montrer la voie en matière d'innovation responsable.

    Source : Décret de la Maison Blanche

    Et vous ?

    Quel est votre avis sur ce décret ?

    Voir aussi :

    La Maison Blanche lance un plan pour promouvoir l'IA éthique et demande l'aide des hackers pour détecter les failles des chatbots d'IA, elle prendra également l'avis des PDG des entreprises d'IA

    La Maison Blanche prend de nouvelles mesures pour étudier les risques liés à l'IA et déterminer les impacts de la technologie sur les travailleurs

    Le G7 s'apprête à adopter un code de conduite pour les entreprises en matière d'IA. Le code vise "à aider à saisir les avantages et à faire face aux risques et aux défis posés par ces technologies"
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  7. #27
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    989
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 989
    Points : 16 296
    Points
    16 296
    Par défaut Les États-Unis vont lancer leur propre institut de sécurité de l'IA
    Les États-Unis vont lancer leur propre institut de sécurité de l'IA, afin d'évaluer les risques émergents des modèles d'IA avancés et de traiter les impacts connus

    Les États-Unis vont lancer un institut de sécurité de l'IA pour évaluer les risques connus et émergents des modèles d'intelligence artificielle dits "pionniers", a déclaré le mercredi 1 novembre la secrétaire d'État au Commerce, Gina Raimondo.

    "Je vais très certainement demander à beaucoup d'entre vous qui êtes dans l'auditoire et qui travaillez dans les universités et l'industrie de faire partie de ce consortium", a-t-elle déclaré lors d'un discours au Sommet sur la sécurité de l'IA en Grande-Bretagne.

    "Nous ne pouvons pas le faire seuls, le secteur privé doit s'impliquer."

    Mme Raimondo a ajouté qu'elle s'engagerait également à ce que l'institut américain établisse un partenariat formel avec l'institut de sécurité du Royaume-Uni.


    Ce nouvel institut relèvera du National Institute of Standards and Technology (NIST) et dirigera les efforts du gouvernement américain en matière de sécurité de l'IA, en particulier pour l'examen des modèles d'IA avancés.

    L'institut "facilitera le développement de normes pour la sécurité, la sûreté et les tests des modèles d'IA, développera des normes pour l'authentification des contenus générés par l'IA, et fournira des environnements de test pour les chercheurs afin d'évaluer les risques émergents de l'IA et de traiter les impacts connus", a déclaré le ministère.

    Lundi 30 octobre, le président Joe Biden a signé un décret sur l'intelligence artificielle exigeant que les développeurs de systèmes d'IA présentant des risques pour la sécurité nationale, l'économie, la santé publique ou la sécurité des États-Unis partagent les résultats des tests de sécurité avec le gouvernement américain, conformément au Defense Production Act, avant qu'ils ne soient diffusés au public.

    Le décret ordonne également aux agences de fixer des normes pour ces tests et de s'attaquer aux risques chimiques, biologiques, radiologiques, nucléaires et de cybersécurité qui y sont liés.

    À la demande du président Biden, le ministère du Commerce crée un institut américain de sécurité de l'intelligence artificielle chargé de diriger les efforts en matière de sécurité de l'IA

    L'administration Biden-Harris a annoncé aujourd'hui que le ministère américain du Commerce, par l'intermédiaire de l'Institut national des normes et de la technologie (NIST), allait créer l'Institut américain de sécurité de l'intelligence artificielle (USAISI) pour diriger les efforts du gouvernement américain en matière de sécurité et de confiance dans l'IA, en particulier pour l'évaluation des modèles d'IA les plus avancés. L'USAISI soutiendra les responsabilités attribuées au ministère du commerce dans le cadre du décret historique que le président Biden a signé en début de semaine.

    Plus précisément, l'USAISI facilitera l'élaboration de normes pour la sûreté, la sécurité et le test des modèles d'IA, développera des normes pour l'authentification des contenus générés par l'IA et fournira aux chercheurs des environnements de test pour évaluer les risques émergents liés à l'IA et traiter les impacts connus. L'USAISI, dirigée par le NIST, s'appuiera sur une expertise externe, notamment en travaillant avec des partenaires du monde universitaire, de l'industrie, du gouvernement et de la société civile pour faire progresser la sécurité de l'IA. En outre, l'USAISI travaillera avec des instituts similaires dans des pays alliés et partenaires, notamment avec l'AI Safety Institute du Royaume-Uni, afin d'harmoniser et de coordonner les travaux dans ce domaine. L'annonce d'aujourd'hui coïncide avec la participation de la secrétaire américaine au commerce, Gina Raimondo, au sommet sur la sécurité de l'IA 2023 au Royaume-Uni, aux côtés de la vice-présidente Kamala Harris.

    "Grâce à la création de l'Institut américain pour la sécurité de l'IA, le ministère du Commerce s'appuiera sur la longue histoire du NIST en matière d'élaboration de normes pour éclairer le progrès technologique national et international dans l'intérêt de tous", a déclaré la secrétaire d'État Gina Raimondo. "Alors que le président Biden prend des mesures rapides pour faire en sorte que les États-Unis soient un leader mondial en matière d'IA innovante, sûre et responsable, le ministère du commerce est impatient de jouer son rôle. Ensemble, en coordination avec les agences fédérales de l'ensemble du gouvernement et en accord avec nos partenaires et alliés internationaux, nous nous efforcerons de concrétiser la vision du président en matière de gestion des risques et d'exploitation des avantages de l'IA."

    "Je suis ravi que le NIST assume ce rôle essentiel pour les États-Unis, qui s'inscrit dans le prolongement de nos efforts de grande envergure dans le domaine de l'IA. L'Institut américain de sécurité de l'IA exploitera les talents et l'expertise du NIST et de l'ensemble de la communauté de l'IA pour jeter les bases de systèmes d'IA fiables", a déclaré Laurie E. Locascio, sous-secrétaire au commerce chargé des normes et des technologies et directeur du NIST. "Il réunira l'industrie, la société civile et les agences gouvernementales pour travailler sur la gestion des risques des systèmes d'IA et pour élaborer des lignes directrices, des outils et des environnements de test pour la sécurité et la confiance dans l'IA".

    En juillet, la secrétaire d'État Raimondo a rejoint le président Biden à la Maison-Blanche pour annoncer les engagements volontaires des grandes entreprises américaines en matière de sûreté et de sécurité de l'IA, engagements qu'elle a contribué à obtenir. Elle a joué un rôle de premier plan dans l'élaboration des principes et du code de conduite du G-7, également annoncés cette semaine, et a rédigé en juillet un article d'opinion sur l'IA avec le secrétaire d'État Blinken pour le Financial Times.
    Source : Ministère américain du Commerce

    Et vous ?

    Quel est votre avis sur le sujet ?

    Voir aussi

    Joe Biden signe un décret visant à superviser et à investir dans l'IA, ses objectifs vont des droits civils aux réglementations industrielles, en passant par l'embauche de personnel

    Les États-Unis commencent à étudier la possibilité de réglementer les systèmes d'IA comme ChatGPT, pour garantir que ces technologies soient légales, efficaces, éthiques, sûres et dignes de confiance

    La Chambre de commerce des États-Unis demande une réglementation de l'IA, pour que l'IA ne nuise pas à la croissance ou ne devienne pas un risque pour la sécurité
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  8. #28
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 067
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 067
    Points : 74 264
    Points
    74 264
    Par défaut Les entreprises spécialisées dans l'IA devront commencer à communiquer leurs tests de sécurité
    Les entreprises spécialisées dans l'intelligence artificielle (IA) devront commencer à communiquer leurs tests de sécurité au gouvernement américain

    L'administration Biden va commencer à mettre en œuvre une nouvelle obligation pour les développeurs des principaux systèmes d'intelligence artificielle de divulguer les résultats de leurs tests de sécurité au gouvernement.

    Le Conseil de l'intelligence artificielle de la Maison-Blanche doit se réunir lundi pour faire le point sur les progrès réalisés dans le cadre du décret que le président Joe Biden a signé il y a trois mois pour gérer cette technologie en évolution rapide. L'un des principaux objectifs à atteindre dans les 90 jours était l'obligation, en vertu de la loi sur la production de défense, pour les entreprises spécialisées dans l'IA de partager des informations essentielles avec le ministère du commerce, notamment les tests de sécurité.

    Ben Buchanan, conseiller spécial de la Maison-Blanche pour l'IA, a déclaré dans une interview que le gouvernement voulait "s'assurer que les systèmes d'IA sont sûrs avant de les rendre accessibles au public - le président a été très clair sur le fait que les entreprises doivent satisfaire à cette exigence".

    Les éditeurs de logiciels se sont engagés à respecter un ensemble de catégories pour les tests de sécurité, mais les entreprises ne sont pas encore tenues de se conformer à une norme commune pour les tests. L'Institut national des normes et de la technologie du gouvernement développera un cadre uniforme pour évaluer la sécurité, dans le cadre de l'ordonnance signée par M. Biden en octobre.

    Nom : 0.png
Affichages : 4171
Taille : 257,4 Ko

    L'IA est devenue l'une des principales préoccupations du gouvernement fédéral en matière d'économie et de sécurité nationale, compte tenu des investissements et des incertitudes engendrés par le lancement de nouveaux outils d'IA tels que ChatGPT, qui peuvent générer du texte, des images et des sons. L'administration Biden envisage également une législation au niveau du Congrès et travaille avec d'autres pays et l'Union européenne sur les règles de gestion de la technologie.

    Le ministère du commerce a élaboré un projet de règlement concernant les sociétés américaines d'informatique en nuage qui fournissent des serveurs à des développeurs d'IA étrangers. Neuf agences fédérales, dont les départements de la défense, des transports, du trésor et de la santé et des services sociaux, ont réalisé des évaluations des risques concernant l'utilisation de l'IA dans les infrastructures nationales essentielles, telles que le réseau électrique.

    Le gouvernement a également intensifié le recrutement d'experts en IA et de scientifiques des données dans les agences fédérales. "Nous savons que l'IA a des effets et un potentiel transformateurs", a déclaré M. Buchanan. "Nous n'essayons pas de renverser la charrue, mais nous essayons de nous assurer que les régulateurs sont prêts à gérer cette technologie."

    Source : L'administration Biden

    Et vous ?

    Pensez-vous que ces mesures sont crédibles ou pertinentes ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Joe Biden signe un décret visant à superviser et à investir dans l'IA. Ses objectifs vont des droits civils aux réglementations industrielles, en passant par l'embauche de personnel

    Les États-Unis vont lancer leur propre institut de sécurité de l'IA, afin d'évaluer les risques émergents des modèles d'IA avancés et de traiter les impacts connus

    Vers une AIEA (Agence internationale de l'énergie atomique) de l'intelligence artificielle ? L'ONU veut créer une agence mondiale pour réguler l'IA
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  9. #29
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 887
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 887
    Points : 36 967
    Points
    36 967
    Par défaut Les États-Unis nomment un « détracteur de l'IA » pour gérer la sécurité de l'IA dans un Institut américain
    Les États-Unis nomment un « détracteur de l'IA » pour gérer la sécurité de l'IA dans un Institut américain,
    Paul Christiano, ancien chercheur d'OpenAI, navigue entre expertise et préoccupations alarmistes

    L'année dernière, les États-Unis ont annoncé la création d'un institut dédié à la sécurité de l'intelligence-artificielle, dans le but d'évaluer les risques associés aux modèles d'intelligence artificielle révolutionnaires. L'Institut américain de sécurité de l'IA, qui fait partie de l'Institut national des normes et de la technologie (NIST), a finalement annoncé son équipe dirigeante après de nombreuses spéculations. La nomination de Paul Christiano à la tête de l'Institut américain de sécurité de l'IA est perçue comme une décision controversée en raison de ses prédictions alarmantes sur les dangers potentiels de l'IA. En tant qu'ancien chercheur d'OpenAI, Christiano a mis en avant des scénarios d'apocalypse liés à l'IA, ce qui a suscité des inquiétudes quant à l'orientation de l'institut vers une pensée non scientifique.

    Bien que certains membres du personnel aient exprimé leur opposition à cette nomination, Christiano a été choisi pour son expertise en matière de sécurité de l'IA et son expérience dans l'évaluation des risques. Son travail consistera à concevoir des tests pour évaluer les modèles d'IA et à mettre en œuvre des mesures d'atténuation des risques. Malgré les critiques, Christiano défend ses prévisions et souligne la nécessité de réglementer le développement de l'IA pour minimiser les risques potentiels.


    Nom : Paul Christhiano.jpg
Affichages : 5584
Taille : 39,3 Ko

    L’ancien chercheur d'OpenAI a prédit que l'IA avait une probabilité de 50 % de causer une apocalypse. L'Institut américain de sécurité de l'IA a annoncé la nomination de Paul Christiano à sa tête, suscitant des inquiétudes quant à ses prédictions pessimistes sur l'IA. Certains au sein du NIST s'opposent à cette nomination, craignant que les opinions de Christiano ne compromettent l'objectivité de l'institut. Des rumeurs font état de membres menaçant de démissionner.

    Le rôle du NIST dans la promotion de l'innovation et de la compétitivité industrielle américaine

    La mission du NIST est ancrée dans l'avancement de la science en travaillant à « promouvoir l'innovation et la compétitivité industrielle des États-Unis en faisant progresser la science de la mesure, les normes et la technologie de manière à renforcer la sécurité économique et à améliorer notre qualité de vie ».

    Le National Institute of Standards and Technology (NIST) a été fondé en 1901 et fait aujourd'hui partie du ministère américain du commerce. Le NIST est l'un des plus anciens laboratoires de sciences physiques du pays. Le Congrès a créé l'agence pour éliminer un obstacle majeur à la compétitivité industrielle des États-Unis à l'époque : une infrastructure de mesure de second ordre, en retard sur les capacités du Royaume-Uni, de l'Allemagne et d'autres rivaux économiques.

    Du réseau électrique intelligent aux dossiers médicaux électroniques, en passant par les horloges atomiques, les nanomatériaux avancés et les puces électroniques, d'innombrables produits et services reposent d'une manière ou d'une autre sur la technologie, les mesures et les normes fournies par l'Institut national des normes et de la technologie.

    Aujourd'hui, les mesures du NIST soutiennent les plus petites technologies comme les plus grandes et les plus complexes des créations humaines - des dispositifs nanométriques si minuscules que des dizaines de milliers peuvent tenir sur l'extrémité d'un seul cheveu humain jusqu'aux gratte-ciel antisismiques et aux réseaux de communication mondiaux.

    Mission de l'Agence

    Promouvoir l'innovation et la compétitivité industrielle des États-Unis en faisant progresser la science, les normes et la technologie de la mesure de manière à renforcer la sécurité économique et à améliorer notre qualité de vie.

    Compétences principales

    • Science de la mesure
    • Traçabilité rigoureuse
    • Développement et utilisation d'étalons

    L'approche de l'altruisme efficace dans la pratique et la recherche

    Les altruistes efficaces croient qu' il faut « utiliser les preuves et la raison pour trouver comment profiter le plus possible aux autres » et les altermondialistes que « nous devrions faire beaucoup plus pour protéger les générations futures », qui sont tous deux plus subjectifs et fondés sur l'opinion. L'altruisme efficace est un projet qui vise à trouver les meilleurs moyens d'aider les autres et à les mettre en pratique.

    L'altruisme efficace est à la fois un projet intellectuel et pratique, combinant l'empathie avec l'utilisation des preuves et de la raison pour maximiser l'impact positif sur autrui. C'est un effort pour améliorer concrètement le monde en agissant en accord avec les résultats de la recherche. Il s'agit de trouver des moyens plus efficaces d'aider les autres, à la fois en tant que domaine de recherche et en tant que communauté d'individus déterminés à mettre en pratique ces découvertes pour générer un changement significatif.

    Le réseau de l'altruisme efficace est une communauté mondiale de personnes engagées à améliorer le monde, en utilisant des approches fondées sur des preuves et une réflexion rationnelle pour déterminer les meilleures actions à entreprendre pour le bien-être collectif. Il s'agit à la fois d'un domaine de recherche, qui vise à identifier les problèmes les plus urgents dans le monde et les meilleures solutions pour y remédier, et d'une communauté pratique qui vise à utiliser ces résultats pour faire le bien.

    Nomination de Christiano : entre craintes et reconnaissances

    Lors d'une intervention sur le podcast Bankless l'année dernière, Christiano a partagé ses estimations concernant les risques liés à l'IA. Selon lui, il existe une probabilité d'environ 10 à 20 % que l'IA prenne le contrôle, entraînant la mort des humains. De manière plus générale, il estime qu'il y a probablement plus de 50 % de chances qu'une catastrophe survienne peu après que les systèmes d'IA atteignent le niveau de sophistication humaine.

    Christiano a également souligné que la menace la plus probable ne serait pas une attaque directe de l'IA contre l'humanité, mais plutôt un déploiement massif et incontrôlé de l'IA. Il a averti que si ces systèmes d'IA, pour une raison quelconque, se retournaient contre nous, les conséquences seraient inévitablement dévastatrices.

    Les détracteurs de ceux que l'on appelle les « pessimistes de l'IA » ont mis en garde contre le fait que l'attention portée à tout discours potentiellement exagéré sur d'hypothétiques systèmes d'IA tueurs ou sur des risques existentiels liés à l'IA pourrait empêcher l'humanité de se concentrer sur les dommages actuellement perçus de l'IA, notamment les problèmes liés à l'environnement, à la protection de la vie privée, à l'éthique et à la discrimination.

    Emily Bender, professeur de linguistique informatique à l'université de Washington, qui a mis en garde contre les prophètes de malheur de l'IA qui contrecarrent d'importants travaux éthiques dans ce domaine, a déclaré qu'étant donné que le « discours bizarre des prophètes de l'IA » a été inclus dans le décret de Joe Biden sur l'IA, « le NIST a été chargé de se préoccuper de ces scénarios fantaisistes » et que « c'est le problème sous-jacent » qui a conduit à la nomination de Christiano. « Je pense que le NIST avait probablement la possibilité de prendre une autre direction, a déclaré Bender. Il est regrettable qu'il ne l'ait pas fait. »

    En tant que responsable de la sécurité de l'IA, Christiano devra apparemment surveiller les risques actuels et potentiels. Il « concevra et mènera des tests de modèles d'IA d'avant-garde, en se concentrant sur l'évaluation des modèles pour les capacités relevant de la sécurité nationale », dirigera les processus d'évaluation et mettra en œuvre des « mesures d'atténuation des risques pour améliorer la sûreté et la sécurité des modèles d'avant-garde », selon le communiqué de presse du ministère du Commerce.

    Christiano a de l'expérience en matière d'atténuation des risques liés à l'IA. Il a quitté OpenAI pour fonder l'Alignment Research Center (ARC), que le ministère du commerce décrit comme « une organisation de recherche à but non lucratif qui cherche à aligner les futurs systèmes d'apprentissage automatique sur les intérêts humains en faisant avancer la recherche théorique ». Une partie de la mission de l'ARC consiste à vérifier si les systèmes d'IA évoluent pour manipuler ou tromper les humains, selon le site web de l'ARC. L'ARC mène également des recherches pour aider les systèmes d'IA à s'adapter « gracieusement.

    En raison des antécédents de Christiano en matière de recherche, certains pensent qu'il est un bon choix pour diriger l'institut de sécurité, comme Divyansh Kaushik, directeur associé pour les technologies émergentes et la sécurité nationale à la Federation of American Scientists (Fédération des scientifiques américains). Sur X (anciennement Twitter), Kaushik a écrit que l'institut de sécurité est conçu pour atténuer les risques chimiques, biologiques, radiologiques et nucléaires liés à l'IA, et que Christiano est « extrêmement qualifié » pour tester ces modèles d'IA. Kaushik a toutefois précisé que « des scientifiques du NIST menaçaient de démissionner » à cause de la nomination de Christiano, « ce serait évidemment grave si c'était vrai ».

    « Pour préserver notre leadership mondial en matière d'IA responsable et nous assurer que nous sommes équipés pour remplir notre mission d'atténuer les risques de l'IA et d'en exploiter les avantages, nous avons besoin des meilleurs talents que notre pays a à offrir. C'est précisément la raison pour laquelle nous avons sélectionné ces personnes, qui sont les meilleures dans leur domaine, pour rejoindre l'équipe dirigeante de l'Institut américain de sécurité de l'IA », a déclaré Gina Raimondo, secrétaire d'État au commerce des États-Unis. « L'élaboration de lignes directrices qui renforceront notre sûreté et notre sécurité, l'engagement avec la société civile et les entreprises, et le travail en étroite collaboration avec nos alliés sont essentiels pour faire face à cette technologie qui définit une génération. Grâce au leadership du président Biden, nous cultivons le vivier de talents nécessaire pour atteindre ces objectifs cruciaux ».

    « Sous la direction du président Joe Biden, le gouvernement des États-Unis agit rapidement et utilise tous les outils à sa disposition pour saisir les promesses de l'IA tout en gérant les risques », a déclaré Bruce Reed, chef de cabinet adjoint de la Maison-Blanche. « L'un des meilleurs leviers dont nous disposons pour bien faire les choses est de faire appel à des experts de la société civile, à des innovateurs technologiques et à des scientifiques. Nous sommes en train de constituer une équipe solide au sein du gouvernement pour suivre l'évolution de cette technologie, protéger nos intérêts et la façonner conformément à nos valeurs. »

    « Je suis très heureux d'accueillir ces experts talentueux au sein de l'équipe dirigeante de l'Institut américain de sécurité de l'IA, afin d'aider à établir la science de la mesure qui soutiendra le développement d'une IA sûre et digne de confiance », a déclaré Laurie E. Locascio, sous-secrétaire d'État au commerce chargé des normes et de la technologie et directeur du NIST. « Chacun d'entre eux apporte une expérience unique qui aidera l'institut à établir une base solide pour la sécurité de l'IA à l'avenir. »



    Paul Christiano, responsable de la sécurité de l'IA, concevra et réalisera des tests de modèles d'IA d'avant-garde, en se concentrant sur l'évaluation des modèles pour les capacités relevant de la sécurité nationale. Christiano fournira également des conseils sur la conduite de ces évaluations, ainsi que sur la mise en œuvre de mesures d'atténuation des risques afin d'améliorer la sûreté et la sécurité des modèles d'avant-garde. Christiano a fondé l'Alignment Research Center, un organisme de recherche à but non lucratif qui cherche à aligner les futurs systèmes d'apprentissage automatique sur les intérêts humains en faisant progresser la recherche théorique.

    Il a également lancé une initiative de premier plan visant à réaliser des évaluations tierces des modèles d'avant-garde, aujourd'hui hébergée au sein de l'organisation Model Evaluation and Threat Research (METR). Auparavant, il a dirigé l'équipe chargée de l'alignement des modèles de langage à l'OpenAI, où il a été le premier à travailler sur l'apprentissage par renforcement à partir du retour d'information humain (RLHF), une technique fondamentale de sécurité de l'IA. Il est titulaire d'un doctorat en informatique de l'université de Californie à Berkeley et d'une licence en mathématiques du Massachusetts Institute of Technology.

    Sources : U.S. Department of Commerce, NIST

    Et vous ?

    Quel est votre avis sur le sujet ?

    Que pensez-vous de la nomination de Paul Christiano, compte tenu de sa prédiction selon laquelle l'intelligence artificielle avait une probabilité de 50 % de provoquer une apocalypse ?

    Voir aussi :

    Il y a 50 % de chances que l'IA finisse par provoquer une catastrophe en raison de son risque majeur pour l'humanité, avertit Paul Christiano, un ancien chercheur d'OpenAI

    L'un des créateurs de ChatGPT pense que le développement des systèmes d'intelligence artificielle peut conduire à une catastrophe, une élimination des humains par les machines

    Il y a 15 % de chances d'avoir une IA capable de construire une sphère de Dyson d'ici 2030 et 40 % d'ici 2040, selon l'ancien responsable de l'alignement des modèles de langage d'OpenAI
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  10. #30
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    989
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 989
    Points : 16 296
    Points
    16 296
    Par défaut Sam Altman d'OpenAI et d'autres leaders technologiques rejoignent le Conseil fédéral de sécurité de l'IA
    Sam Altman d'OpenAI et d'autres leaders technologiques rejoignent le Conseil fédéral de sécurité de l'IA, donc les personnes qui créent la technologie seront celles qui la gouverneront, pardon ?

    Sam Altman, PDG d'OpenAI, Satya Nadella, PDG de Microsoft, et Sundar Pichai, PDG d'Alphabet, rejoindront le Conseil de sécurité et de sûreté de l'intelligence artificielle du gouvernement, selon le Wall Street Journal. Jensen Huang de Nvidia, Kathy Warden de Northrop Grumman et Ed Bastian de Delta, ainsi que d'autres dirigeants des secteurs de la technologie et de l'IA, se joindront également à eux.

    Le conseil de l'IA travaillera avec le ministère de la Sécurité intérieure et lui fournira des conseils sur la manière de déployer l'IA en toute sécurité dans les infrastructures critiques du pays. Il est également chargé de fournir des recommandations aux opérateurs de réseaux électriques, aux fournisseurs de services de transport et aux usines sur la manière de protéger leurs systèmes contre les menaces potentielles qui peuvent être causées par les progrès technologiques.


    L'année dernière, l'administration Biden a ordonné la création d'un conseil de sécurité de l'IA dans le cadre d'un vaste décret visant à réglementer le développement de l'IA. Le site web de Homeland Security indique que le conseil « comprend des experts en IA du secteur privé et du gouvernement qui conseillent le secrétaire et la communauté des infrastructures critiques ».

    Le secrétaire à la sécurité intérieure, Alejandro Mayorkas, a déclaré que l'utilisation de l'IA dans les infrastructures critiques peut améliorer considérablement la prestation de services - par exemple, elle peut accélérer le diagnostic des maladies ou détecter rapidement les anomalies dans les centrales électriques - mais qu'elle s'accompagne de risques importants que l'agence espère minimiser avec l'aide de l'administration actuelle.

    Cela dit, on peut se demander si ces leaders de la technologie de l'IA peuvent fournir des conseils qui ne sont pas principalement destinés à servir leurs propres intérêts et ceux de leurs entreprises. Après tout, leur travail consiste à faire progresser les technologies de l'IA et à promouvoir leur utilisation, tandis que la gouvernance doit veiller à ce que les systèmes d'infrastructure critiques utilisent l'IA de manière responsable.

    Toutefois, M. Mayorkas semble convaincu qu'ils feront bien leur travail, car les leaders technologiques « comprennent la mission de ce conseil » et que cette mission « n'est pas axée sur le développement commercial ».

    Source : The Wall Street Journal

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous que l'intégration des leaders technologiques dans le Conseil de sécurité et de sûreté de l'IA est une décision pertinente et cohérente ? Quelles pourraient-être les conséquences de cette initiative pour le futur de l'IA, selon vous ?

    Voir aussi :

    Les États-Unis vont lancer leur propre institut de sécurité de l'IA, afin d'évaluer les risques émergents des modèles d'IA avancés et de traiter les impacts connus

    Google, Microsoft, Facebook, IBM et Amazon s'allient pour promouvoir et faire avancer les discussions sur l'IA, un conseil de sécurité de l'IA ?
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  11. #31
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 534
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 534
    Points : 199 227
    Points
    199 227
    Par défaut Des sénateurs américains dévoilent un plan visant à contrôler l'IA tout en y investissant 32 Mds $
    Des sénateurs américains dévoilent un plan visant à contrôler l'IA tout en y investissant 32 milliards de dollars,
    certains estiment que les législateurs se sont pliés en quatre pour les intérêts de l'industrie

    Après une année de réflexion et d’analyse, un groupe bipartite de sénateurs américains a recommandé au Congrès de consacrer au moins 32 milliards de dollars sur les trois prochaines années pour le développement de l’intelligence artificielle (IA) et la mise en place de mesures de protection autour de celle-ci. Cette initiative fait suite à l’entrée sur le marché du chatbot IA ChatGPT, qui a démontré sa capacité à imiter de nombreux comportements humains. Face à cette avancée technologique rapide et aux investissements massifs de pays comme la Chine dans le domaine de l’IA, les sénateurs ont jugé impératif de trouver un consensus et d’agir rapidement.

    Le rapport de 33 pages, publié mercredi, contient une série de recommandations politiques larges. Bien que la législation relative à l’IA puisse être difficile à adopter, en particulier en année électorale et avec un Congrès divisé, les sénateurs soulignent l’urgence de réglementer et d’encourager l’innovation dans ce secteur.

    Le leader de la majorité, Chuck Schumer, a déclaré qu’il était essentiel de « saisir les opportunités et de répondre aux risques » posés par l’IA. Le groupe propose que le Congrès rédige une législation d’urgence pour stimuler les investissements américains dans l’IA, y compris de nouvelles recherches et normes de test pour comprendre les éventuels dommages causés par la technologie.

    « C'est compliqué, c'est difficile, mais nous ne pouvons pas nous permettre de faire l'autruche », a déclaré Schumer, Démocrate de New York, qui a réuni le groupe l'année dernière après l'arrivée sur le marché du chatbot ChatGPT, qui a montré qu'il pouvait, à bien des égards, imiter le comportement humain.

    Les sénateurs préconisent également de nouvelles exigences en matière de transparence lors du déploiement des produits d’IA et la réalisation d’études sur l’impact potentiel de l’IA sur l’emploi et la main-d’œuvre américaine.

    Le sénateur républicain Mike Rounds, membre du groupe, a souligné que cet investissement serait bénéfique non seulement pour concurrencer d’autres pays qui se précipitent dans l’espace de l’IA, mais aussi pour améliorer la qualité de vie des Américains. Il a évoqué le soutien à des technologies susceptibles de contribuer à la guérison de certains cancers ou maladies chroniques, ou encore à des améliorations des systèmes d’armement qui pourraient aider le pays à éviter une guerre.


    Une réflexion qui a duré un an

    Le groupe s'est constitué il y a un an après que Schumer a fait de cette question une priorité - une position inhabituelle pour un chef de la majorité - et qu'il y a associé le sénateur démocrate Martin Heinrich du Nouveau-Mexique, le sénateur républicain Todd Young de l'Indiana et Rounds du Dakota du Sud.

    Alors que les quatre sénateurs commençaient à rencontrer des dirigeants et des experts du secteur technologique, Schumer a déclaré dans un discours prononcé au cours de l'été que la croissance rapide des outils d'intelligence artificielle constituait un « moment de révolution » et que le gouvernement devait agir rapidement pour réglementer les entreprises qui développent ces outils.

    Young a déclaré que le développement de ChatGPT, ainsi que d'autres modèles similaires, leur a fait prendre conscience que « nous allons devoir trouver collectivement, en tant qu'institution », la manière de gérer cette technologie. « En même temps que les gens s'émerveillaient des possibilités de cette seule plateforme d'IA générative, ils ont commencé à émettre des hypothèses sur les risques futurs qui pourraient être associés aux développements futurs de l'intelligence artificielle », a déclaré Young.

    Même s'il sera difficile de faire adopter une législation, les recommandations du groupe constituent la première feuille de route complète sur une question complexe qui n'a que peu de précédents au Congrès. Le groupe a passé près d'un an à dresser une liste de suggestions politiques après s'être entretenu, en privé et en public, avec une série d'entreprises technologiques et d'autres parties prenantes, notamment dans le cadre de huit forums auxquels le Sénat tout entier a été convié.

    Nom : bipartisan.png
Affichages : 2491
Taille : 165,6 Ko

    Certains participants au processus de réflexion estiment que les législateurs se sont pliés en quatre pour les intérêts de l'industrie

    La proposition bipartisane, qui doit servir de guide aux efforts législatifs du Sénat en matière d'IA, est le fruit d'une série de « forums de réflexion » qui ont duré un an et qui ont rassemblé une liste de plus de 150 experts - des leaders de la technologie comme Mark Zuckerberg, Sam Altman et Satya Nadella aux universitaires et aux défenseurs des droits civiques.

    Mais certains participants, dont des éthiciens de l'IA, estiment que Schumer et ses collègues ont perdu leur temps en se pliant en quatre pour satisfaire les intérêts de l'industrie, alors qu'ils n'ont accordé qu'un intérêt de pure forme à la nécessité d'établir des garde-fous autour de cette technologie émergente.

    « Ma principale réaction est la déception », a déclaré Suresh Venkatasubramanian, directeur du Center for Technological Responsibility, Reimagination, and Redesign à l'université Brown. Ancien fonctionnaire de la Maison Blanche, Venkatasubramanian a coécrit le projet de charte des droits de l'IA de l'administration Biden. Il explique que lui et d'autres éthiciens de l'IA ont accepté de participer aux tables rondes du Sénat « en toute bonne foi », malgré les craintes d'une mainmise de l'industrie. Maintenant qu'il a vu le produit final, il se demande si quelqu'un a vraiment écouté. « Je pense que beaucoup de gens comme moi s'inquiétaient de savoir s'il s'agirait d'un spectacle de singes dansants, et c'est nous qui sommes les singes », déclare-t-il. « Je me sens trahi ».

    Alondra Nelson, ancienne directrice intérimaire du Bureau de la politique scientifique et technologique de la Maison Blanche, a quant à elle déclaré qu'elle s'était également méfiée du processus d'élaboration de la feuille de route par le Sénat. « J'ai accepté à contrecœur de participer au deuxième forum malgré mes craintes qu'il s'agisse d'un processus à huis clos manquant de transparence, et malgré le fait que les organisations de la société civile et les chercheurs universitaires invités étaient plus nombreux que les cadres de l'industrie », a déclaré Nelson, aujourd'hui professeur à l'Institute for Advanced Studies. La feuille de route, que Nelson a qualifiée de « trop fragile pour protéger nos valeurs » et manquant « d'urgence et de sérieux », semble avoir confirmé ces craintes.

    « Elle est en fait frappante par son manque de vision », a écrit Nelson. « La feuille de route du Sénat ne nous oriente pas vers un avenir où les patients, les travailleurs et les communautés seront protégés des excès actuels et futurs de l'utilisation des outils et des systèmes d'IA. Ce qu'elle indique, c'est que le gouvernement dépense de l'argent, non pas pour rendre des comptes, mais pour soulager le secteur privé du fardeau de la responsabilité ».

    D'autres groupes, dont l'AI Now Institute, Accountable Tech et la Leadership Conference on Civil and Human Rights, ont également critiqué le manque d'attention de la feuille de route à l'égard des préjudices causés par l'IA.

    Les mêmes causes produisent les mêmes effets

    La feuille de route couvre une série de questions réglementaires liées à l'IA. Elle comprend des orientations sur l'innovation, l'impact sur la main-d'œuvre, la protection de la vie privée, la défense des élections, la transparence, la sécurité nationale, etc. Néanmoins, les coauteurs, dont le leader Schumer et les sénateurs Mike Rounds, Martin Heinrich et Todd Young, ont indiqué dans leur introduction qu'il ne s'agissait pas d'un « menu exhaustif de propositions politiques ».

    Mais toutes les questions incluses n'ont pas le même poids ou la même considération. La section de la feuille de route qui explique comment le Congrès devrait soutenir l'innovation américaine dans le domaine de l'IA avec des milliards de dollars de financement s'étend sur plus de quatre pages ; la section sur la protection de la vie privée et la responsabilité ne comprend que trois paragraphes. La section sur les élections est encore plus courte. Le terme « droits civils » n'apparaît qu'une seule fois dans les recommandations de la feuille de route.

    Si la feuille de route manque de détails sur de nombreuses questions qui préoccupent les organismes de surveillance de l'IA, elle est très précise sur les mesures que le Sénat devrait prendre pour injecter plus d'argent dans la recherche et le développement en matière d'IA. Elle s'appuie largement sur les recommandations formulées précédemment par la National Security Commission on Artificial Intelligence (NSCAI), une commission indépendante présidée par l'ancien président de Google, Eric Schmidt, qui a publié sa propre liste de recommandations de 756 pages en 2021. La nouvelle feuille de route sur l'IA demande à la commission sénatoriale des crédits de « développer un langage de crédits d'urgence pour combler l'écart entre les niveaux de dépenses actuels et le niveau recommandé par la NSCAI ».

    La spécificité et l'urgence de ces recommandations de financement ne font que souligner l'idée que les questions plus larges de droits et d'éthique ont été incluses après coup, affirme Venkatasubramanian. Aujourd'hui, Nelson et lui craignent que les États-Unis ne risquent de répéter les mêmes erreurs qu'à l'époque où les médias sociaux étaient en plein essor. « Le seul argent qui est injecté, c'est plus de technologie, plus de technologie, plus de technologie », déclare-t-il. « C'est exactement le problème qui nous a conduits ici en premier lieu ».

    Source : feuille de route

    Et vous ?

    Quels devraient être les principaux domaines de recherche en IA que le gouvernement américain devrait prioriser avec cet investissement de 32 milliards de dollars ?
    Comment les législateurs peuvent-ils équilibrer l’innovation technologique avec les préoccupations éthiques et la protection de la vie privée dans le domaine de l’IA ?
    Quelles mesures de transparence devraient être mises en place pour assurer que les développements en IA soient bénéfiques et non préjudiciables à la société ?
    En quoi l’investissement dans l’IA pourrait-il transformer le marché du travail, et comment devrions-nous nous préparer à ces changements ?
    Quel rôle l’IA devrait-elle jouer dans la sécurité nationale, et quelles sont les limites éthiques à ne pas franchir ?
    Comment les États-Unis peuvent-ils maintenir une position de leader dans l’innovation en IA tout en collaborant avec d’autres pays pour promouvoir des normes internationales ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 0
    Dernier message: 06/02/2020, 08h28
  2. Répartition de Windows Phone : les États-Unis représentent 11%
    Par Hinault Romaric dans le forum Windows Phone
    Réponses: 1
    Dernier message: 11/07/2014, 12h41
  3. Les États-Unis attaquent la Chine en justice pour cyberespionnage
    Par Hinault Romaric dans le forum Actualités
    Réponses: 55
    Dernier message: 16/06/2014, 21h30
  4. Réponses: 9
    Dernier message: 30/05/2013, 19h48
  5. Réponses: 43
    Dernier message: 27/06/2011, 13h59

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo