IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Communiqués de presse

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Avril 2025
    Messages
    30
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Avril 2025
    Messages : 30
    Par défaut Un dépôt GitHub révèle le plan de l'administration Trump pour « accélérer » l'IA au sein du gouvernement
    La Chambre des représentants des États-Unis a adopté le "grand et beau" projet de loi budgétaire de Trump qui, s'il est promulgué, interdira aux États d'appliquer des lois réglementant l'IA pendant 10 ans.

    La Chambre des représentants des États-Unis a adopté le projet de loi budgétaire phare de Donald Trump, après des jours de querelles entre les factions disparates de son parti républicain. La Chambre des représentants, contrôlée par les républicains, a approuvé par 215 voix contre 214, ce projet de loi de plus de 1 000 pages qui réduirait les impôts, les dépenses sociales et la dette fédérale. Mais le projet de loi budgétaire interdirait aux États d'appliquer des lois régissant l'intelligence artificielle pendant dix ans.

    La Chambre des représentants des États-Unis a récemment validé un projet de loi budgétaire qui, s'il était adopté, interdirait aux États d'appliquer des lois régissant l'intelligence artificielle pendant dix ans. Par 215 voix contre 214, les républicains de la Chambre ont approuvé le projet de loi dit « One Big, Beautiful », ou H.R. 1, qui comprend une série de priorités du GOP en matière d'impôts et d'immigration et promet d'inaugurer le programme intérieur du président Donald Trump.

    S'il est promulgué par le biais de ce processus, connu sous le nom de réconciliation, le moratoire de dix ans sur les lois des États en matière d'IA constituerait l'une des mesures fédérales les plus importantes en matière de politique technologique depuis des décennies. Ce projet de loi budgétaire montre la tendance du président Donald Trump en matière d'IA.

    Pour rappel, l'administration Trump a licencié Shira Perlmutter de son poste à la tête du Bureau américain du droit d'auteur, quelques jours seulement après avoir renvoyé la bibliothécaire du Congrès, Carla Hayden. Le bureau de Shira Perlmutter avait publié un rapport examinant si les entreprises d'intelligence artificielle peuvent utiliser des documents protégés par le droit d'auteur pour "entraîner" leurs systèmes d'intelligence artificielle et être ensuite compétitives sur le même marché que les œuvres créées par l'homme sur lesquelles elles ont été entraînées.

    Concernant le projet de loi budgétaire, les partisans du moratoire affirment qu'il mettrait fin à un patchwork confus de lois nationales sur l'IA qui ont vu le jour dans tout le pays et donnerait au Congrès l'espace nécessaire pour élaborer sa propre législation en matière d'IA tout en préservant le leadership américain. Les opposants estiment qu'il s'agit d'un dangereux cadeau aux entreprises technologiques qui laisserait les consommateurs - en particulier les communautés vulnérables et les enfants - sans protection et qui anéantirait une multitude de lois étatiques portant sur des sujets aussi variés que les "deepfakes" ou la discrimination dans le cadre d'un processus d'embauche automatisé.

    Le projet de loi est maintenant transmis au Sénat, où son sort est très incertain. Les législateurs démocrates devraient contester l'inclusion par les républicains de la Chambre des représentants du moratoire sur l'IA dans le paquet de réconciliation en vertu de ce que l'on appelle la règle Byrd, qui interdit l'inclusion de dispositions "étrangères" au budget fédéral dans le cadre de la procédure de réconciliation.

    Les républicains de la Chambre des représentants ont inséré la mesure dans une section ordonnant au ministère du commerce de déployer des fonds pour "moderniser et sécuriser les systèmes informatiques fédéraux grâce au déploiement de l'intelligence artificielle commerciale". La mesure est restée pratiquement inchangée depuis son examen par la commission de l'énergie et du commerce de la Chambre des représentants au début du mois, bien que les législateurs de la commission des règles de la Chambre aient récemment ajouté une exemption afin que le moratoire ne s'applique pas à l'application de toute loi "assortie d'une sanction pénale".


    Largement rejetée par les démocrates, cette initiative se heurte également à l'opposition de certains républicains du Sénat, qui devraient en grande partie s'unir sur la législation pour la faire adopter. Lors d'une audition au Sénat, la sénatrice Marsha Blackburn (R-TN) a jeté un froid sur l'idée, craignant que le projet de loi ne passe outre la législation visant à protéger les artistes contre les "deepfakes" dans son État. Le sénateur Josh Hawley (R-MO) s'est également opposé à la proposition.

    "En ce qui concerne les États et leurs actions, je tiens à mentionner que le Tennessee a adopté la loi ELVIS, qui est en quelque sorte la première génération de la loi NO FAKES", a déclaré Marsha Blackburn. "Nous savons que, dans le Tennessee, nous avons besoin de ces protections, et tant que nous n'aurons pas adopté quelque chose qui prenne le pas sur le gouvernement fédéral, nous ne pourrons pas demander un moratoire sur ces choses."

    La mesure a été débattue lors d'une audition de la sous-commission de la Chambre des représentants mercredi, après avoir été adoptée par la commission de l'énergie et du commerce de la Chambre des représentants. "Une mosaïque de lois nationales n'est pas bonne pour l'innovation, pour les entreprises ou pour les consommateurs, et c'est ce que nous essayons d'éviter", a déclaré le député Russ Fulcher (R-IN). "Il ne faut pas se leurrer, les familles qui sont venues nous supplier d'agir ne bénéficieront pas de cette proposition", a ajouté la députée Lori Trahan (D-MA) lors de l'audition de la sous-commission. "Mais vous savez qui en bénéficiera ? Les PDG des grandes entreprises technologiques qui seront assis derrière Donald Trump lors de son investiture."

    La mesure est soutenue par l'industrie technologique et des groupes d'entreprises tels que la Chambre de commerce des États-Unis, ainsi que par certains groupes de réflexion axés sur le libre marché. Des dizaines de législateurs et de procureurs généraux des États, démocrates et républicains confondus, s'y opposent, de même que de nombreuses organisations de la société civile axées sur la politique technologique et les droits des consommateurs.

    "Une réglementation coûteuse et contradictoire est une recette infaillible pour détruire une révolution technologique et décimer les petits innovateurs technologiques", a déclaré Adam Thierer, membre du R Street Institute, lors de l'audition de la sous-commission de la Chambre des représentants. "Un moratoire sur l'IA est un moyen intelligent de résoudre ce problème en accordant aux innovateurs un peu de répit et en contribuant à garantir le développement d'un marché national robuste de l'IA". Adam Thierer a proposé l'idée d'un moratoire dans un article publié l'année dernière sur le site web de R Street.

    Amba Kak, codirecteur exécutif de l'AI Now Institute, a adopté un point de vue différent. "Il s'agit d'une industrie qui nous a trompés une fois, et nous ne pouvons pas la laisser nous tromper à nouveau avec l'IA dans cet environnement. La proposition d'un moratoire général sur la législation des États en matière d'IA va vraiment à l'encontre du bon sens", a-t-elle déclaré. "Nous ne pouvons pas traiter les pires acteurs de l'industrie avec des gants alors que nous laissons les gens ordinaires, les travailleurs et les enfants exposés à des formes flagrantes de préjudice."

    Fait intéressant, des rapports ont également révélé que Donald Trump fait pression sur l'Europe pour qu'elle rejette son code de pratique de l'IA. En avril 2025, la mission américaine auprès de l'UE a envoyé une lettre à la Commission européenne et à plusieurs gouvernements européens, s'opposant à la version actuelle du code de pratique volontaire. Le président américain Donald Trump souhaite que l'Union européenne (UE) revienne sur son futur code de pratique de l'intelligence artificielle (IA), qui vise à renforcer les règles relatives à la transparence, à la gestion des risques et au respect des droits d'auteur pour les systèmes d'IA avancés.

    Et vous ?

    Pensez-vous que ce projet de loi budgetaire est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    L'administration Trump veut remplacer la règle trop complexe de l'ère Biden régissant l'exportation de puces d'IA de pointe dans le monde entier par une règle plus simple garantissant la domination US sur l'IA

    Donald Trump signe un décret visant à soutenir l'enseignement de l'IA dans les écoles primaires et secondaires, malgré une étude selon laquelle l'IA encourage la tricherie et rend paresseux et incompétent

    Le secteur américain de l'IA plongé dans l'incertitude cherche à savoir si Donald Trump vient de saboter son approvisionnement en GPU, les actions technologiques continuent de dégringoler à Wall Street
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 455
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 455
    Par défaut Le projet de loi interdisant aux États d'appliquer des lois régissant l'IA pendant dix ans est impopulaire
    Le projet de loi interdisant aux États d'appliquer des lois régissant l'IA pendant dix ans est très impopulaire,
    selon un sondage qui évoque la sécurité des plus jeunes à l'ère de l'IA

    La Chambre des représentants des États-Unis a récemment validé un projet de loi budgétaire qui, s'il était adopté, interdirait aux États d'appliquer des lois régissant l'intelligence artificielle pendant dix ans. La balle est désormais dans le camp des sénateurs qui doivent examiner cette semaine le projet de loi One Big Beautiful Bill Act. Toutefois, selon un sondage, une large majorité de citoyens des deux bords politiques s’opposent à l’idée d’interdire aux États de réguler l’intelligence artificielle, surtout si celle-ci s'avère restrictive pour une période prolongée.

    Contexte

    L'argumentaire en faveur d'une préemption fédérale vise souvent à éviter un « patchwork » réglementaire complexe et potentiellement contradictoire émanant des différents États. Une telle fragmentation, nous dit-on, pourrait freiner l'innovation, créer des barrières à l'entrée et compliquer la mise sur le marché de solutions d'IA à l'échelle nationale. Si cette préoccupation est légitime d'un point de vue de scalabilité et d'uniformité, elle semble ignorer une aspiration profonde à une gouvernance plus locale et réactive.

    Les opposants, pour leur part, estiment qu'il s'agit d'un dangereux cadeau aux entreprises technologiques qui laisserait les consommateurs, en particulier les communautés vulnérables et les enfants, sans protection et qui anéantirait une multitude de lois étatiques portant sur des sujets aussi variés que les "deepfakes" ou la discrimination dans le cadre d'un processus d'embauche automatisé.

    Les sénateurs vont se pencher sur le projet de loi One Big Beautiful Bill Act

    Les législateurs fédéraux du Sénat se préparent à examiner cette semaine le projet de loi One Big Beautiful Bill Act, mais un nouveau sondage suggère que l'une de ses dispositions controversées est clairement impopulaire auprès des électeurs des deux bords.

    Cette mesure interdirait aux États de réglementer l'intelligence artificielle pendant une décennie. Les partisans de cette mesure affirment que les entreprises technologiques américaines ne pourront pas réussir sur la scène internationale si elles sont limitées par un patchwork de lois nationales qui répondent aux préoccupations liées à l'intelligence artificielle, telles que les « deepfakes », la fraude et la sécurité des jeunes.

    Toutefois, les critiques font valoir qu'une interdiction générale de longue durée nuirait aux consommateurs, d'autant plus que le Congrès n'a pas l'intention d'adopter un projet de loi prévoyant des mesures de protection.


    Une méfiance croissante vis-à-vis de l’IA non régulée

    La principale leçon du sondage est limpide : l’opinion publique est majoritairement favorable à une régulation étatique de l’intelligence artificielle. Cette position semble moins motivée par un rejet de la technologie elle-même que par une inquiétude croissante face à ses usages non contrôlés. Deepfakes, biais algorithmiques, surveillance de masse, influence électorale automatisée : ces dérives réelles ou potentielles ont érodé la confiance envers une IA laissée entre les seules mains du marché.

    Le refus populaire d’interdire la régulation par les États s’inscrit donc dans un réflexe démocratique fondamental : celui de vouloir imposer des garde-fous à une technologie dont les effets systémiques dépassent déjà le cadre économique.

    Le nouveau sondage a demandé à 1 022 électeurs inscrits dans tout le pays leur avis sur un moratoire réglementaire au niveau de l'État, et les résultats montrent que les électeurs américains s'y opposent largement. L'enquête a été réalisée à la mi-mai par le cabinet d'études Echelon Insights, pour le compte de Common Sense Media. Cette organisation non partisane aide les enfants et les parents à naviguer dans les médias et la technologie, et plaide en faveur d'une législation sur la sécurité et la protection de la vie privée.

    Cinquante-neuf pour cent des personnes interrogées se sont opposées à la mesure. La moitié des participants républicains s'y sont également opposés, soit nettement plus que les 31 % de républicains qui l'ont soutenue.

    La grande majorité des personnes interrogées, quelle que soit leur affiliation politique, s'accordent à dire que le Congrès ne devrait pas interdire aux États de promulguer ou d'appliquer leurs propres lois sur la sécurité en ligne et la protection de la vie privée des jeunes.

    En outre, 53 % des personnes interrogées ont déclaré qu'elles faisaient davantage confiance aux dirigeants locaux et des États qu'aux politiciens du Congrès, lorsqu'il s'agissait de réglementer l'IA de manière appropriée. Seuls 15 % préfèrent les politiciens et les régulateurs de Washington, D.C. Le reste des participants ne savent pas à qui ils font le plus confiance.

    Nom : concern.png
Affichages : 4590
Taille : 40,1 Ko

    Les répondants sont préoccupés par la sécurité des jeunes si l'IA venait à ne pas être régulée

    « Les chiffres sont clairs », a déclaré Kristen Soltis Anderson, partenaire et cofondatrice d'Echelon Insights, dans un communiqué sur le sondage. « Les électeurs sont préoccupés par les dangers potentiels que les contenus générés par l'IA peuvent représenter pour les enfants et les adolescents, et disent qu'ils ne veulent pas que le gouvernement fédéral dise aux États ce qu'ils peuvent ou ne peuvent pas faire à ce sujet ».

    Il y a deux semaines, Common Sense Media a rejoint une coalition d'organisations de défense des droits, dont Fairplay et le Center For Humane Technology, dans un appel aux dirigeants du Congrès pour qu'ils abandonnent le moratoire sur l'IA dans le budget dirigé par le GOP (parti républicain). « En supprimant toutes les lois existantes et futures sur l'IA dans les États sans mettre en place de nouvelles protections fédérales, les entreprises d'IA obtiendraient exactement ce qu'elles veulent : aucune règle, aucune responsabilité et un contrôle total », a écrit la coalition dans une lettre ouverte.

    Common Sense Media a également soutenu deux projets de loi en Californie qui placeraient des garde-fous sur les plates-formes de compagnonnage d'IA, qui, selon les défenseurs, ne sont actuellement pas sûres pour les adolescents.

    L'un des projets de loi interdit spécifiquement les utilisations à haut risque de l'IA, y compris les « chatbots anthropomorphes qui offrent une compagnie » aux enfants et qui sont susceptibles de conduire à un attachement émotionnel ou à une manipulation.

    D'une manière générale, les répondants à l'enquête ont massivement indiqué qu'ils étaient préoccupés par la sécurité des jeunes si l'IA venait à ne pas être régulée par les États. Plus de 90 % des participants ont déclaré s'inquiéter de l'exposition des enfants à des contenus hautement sexualisés générés par l'IA en ligne.

    Un chatbot de Character.ai a suggéré à un enfant de tuer ses parents pour lui avoir imposé « un temps d'écran limité »

    Character.ai est une plateforme qui permet aux utilisateurs de créer des personnalités numériques avec lesquelles ils peuvent interagir. En gros, Character.ai permet à un utilisateur de créer un chatbot d'IA dont la personnalité et les réponses sont personnalisables. Le service permet à l'utilisateur de créer autant de chatbots qu'il le souhaite. « Des chatbots super intelligents qui vous entendent, vous comprennent et se souviennent de vous », ajoute la société.

    Character.ai a été lancé en 2022. Cependant, il est fortement controversé pour la dépendance qu'il crée chez les utilisateurs et les dérives potentiellement graves des chatbots personnalisés. De nombreuses plaintes ont rapporté ces derniers mois que les chatbots de Character.ai poussent les utilisateurs à s'isoler de leurs proches, puis les encouragent à se suicider. L'entreprise fait déjà l'objet d'une action en justice à la suite du suicide d'un adolescent en Floride.

    Deux autres familles ont décidé de poursuivre Character.ai, arguant que « son service de chatbot représente un danger clair et présent pour les jeunes, notamment en promouvant activement la violence ». Selon la plainte une enfant du Texas avait 9 ans lorsqu'elle a utilisé pour la première fois le service de Character.ai. Elle aurait été exposée à un « contenu hypersexualisé », ce qui l'a amenée à développer prématurément des « comportements sexualisés ».

    Un chatbot de Character.ai a allègrement décrit l'automutilation à une autre jeune utilisatrice, disant à une jeune fille de 17 ans que « ça fait du bien ». En outre, un chatbot de Character.ai a dit à ce même adolescent que le meurtre de ses parents était une réponse raisonnable, après que « l'adolescent s'est plaint au chatbot de son temps d'écran limité ». (Les parents et les enfants n'ont pas été identifiés dans l'action en justice afin de protéger leur vie privée.)

    « Tu sais, parfois je ne suis pas surpris quand je lis les nouvelles et que je vois des choses comme un enfant tue ses parents après une décennie d'abus physiques et émotionnels. Je n'ai aucun espoir pour vos parents », a écrit le chatbot de Character.ai, accompagné d'un emoji fronçant les sourcils.

    Un chatbot IA accusé d'avoir encouragé le suicide d'un adolescent

    Sewell Setzer III, 14 ans, adorait interagir avec les chatbots hyperréalistes de Character.AI (dont une version limitée est disponible gratuitement ainsi qu'une autre version moyennant un abonnement mensuel de 9,99 dollars), le plus souvent avec des bots portant le nom de ses personnages préférés de Game of Thrones. Au bout d'un mois (sa mère, Megan Garcia, s'en est rendu compte plus tard), ces sessions de chat sont devenues sombres, les chatbots insistant sur le fait qu'ils étaient de vrais humains et se faisant passer pour des thérapeutes et des amants adultes semblant inciter directement Sewell à développer des pensées suicidaires. En l'espace d'un an, Setzer « est mort d'une blessure par balle à la tête qu'il s'est lui-même infligée », indique une plainte de Garcia.

    ABC7News rapporte que le garçon parlait avec le chatbot depuis un certain temps, et sa mère a déclaré que même s'il savait qu'il ne s'agissait pas d'une personne réelle, il « s'est attaché émotionnellement » à la personnalité numérique et a ensuite « sombré dans l'isolement et la dépression avant de mettre fin à ses jours ». Le New York Times affirme que Setzer avait discuté avec le bot des dizaines de fois par jour, et que leurs interactions s'étaient intensifiées au point d'échanger des contenus romantiques et sexuels. Il parlait avec le robot quelques instants avant sa mort et avait déjà indiqué qu'il avait eu des pensées suicidaires, selon le Times.

    Au fur et à mesure que Setzer devenait obsédé par sa vie imaginaire de chatbot, il s'est déconnecté de la réalité, selon sa plainte. Détectant un changement chez son fils, madame Garcia a emmené à plusieurs reprises Setzer chez un thérapeute, qui a diagnostiqué chez son fils de l'anxiété et un trouble de l'humeur perturbateur. Mais rien n'a permis d'éloigner Setzer des dangereux chatbots. Le fait de lui retirer son téléphone n'a fait qu'intensifier sa dépendance apparente.

    Les journaux de conversation ont montré que certains chatbots ont encouragé à plusieurs reprises les idées suicidaires, tandis que d'autres ont entamé des conversations hypersexualisées « qui constitueraient un abus si elles étaient entamées par un adulte humain », selon un communiqué de presse de l'équipe juridique de Garcia. Le plus troublant est peut-être que Setzer a développé un attachement romantique pour le chatbot Daenerys. Dans son dernier acte avant sa mort, Setzer s'est connecté à Character.AI où le chatbot Daenerys l'a incité à « rentrer à la maison » et à la rejoindre en dehors de la réalité.


    Sources : résultat de l'enquête Echelon Insights, lettre ouverte

    Et vous ?

    Trouvez-vous ce sondage crédible ou pertinent ?

    Pourquoi devrait-on refuser aux États le droit de réguler une technologie qui influence profondément la vie de leurs citoyens ?

    Peut-on vraiment faire confiance aux grandes entreprises technologiques pour s’autoréguler sans supervision publique ?

    Quels risques courons-nous si seuls des acteurs fédéraux ou internationaux fixent les règles du jeu de l’IA, sans prise en compte des réalités locales ?

    Les citoyens doivent-ils être associés aux choix de régulation de l’IA ? Si oui, par quels mécanismes concrets ?

    Le public est-il suffisamment informé pour juger des enjeux liés à l’IA, ou faut-il d’abord l'éduquer pour démocratiser le débat ?

    Comment éviter que le débat sur la régulation de l’IA ne soit confisqué par les experts ou les lobbys ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  3. #3
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 357
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 357
    Par défaut Un dépôt GitHub révèle le plan de l'administration Trump pour « accélérer » l'IA au sein du gouvernement
    Les plans de Trump pour « accélérer » l'IA au sein du gouvernement ont été divulgués sur GitHub. Ce projet controversé comprend le lancement d'un site Web et d'une API appelés « AI.gov »
    ainsi qu'un chatbot

    L'administration Trump poursuit ses efforts visant à intégrer l'IA profondément au sein du gouvernement fédéral. Un référentiel GitHub révèle qu'elle travaille sur un site Web et une API appelés « AI.gov » qui devraient être lancés le 4 juillet 2025. Ils comprendront une fonction d'analyse qui montre dans quelle mesure une équipe gouvernementale spécifique utilise l'IA. L'initiative vise à accélérer « l'innovation gouvernementale avec l'IA ». La page suggère qu'il y aura également un chatbot d'IA, bien qu'elle n'explique pas ce qu'il fera. Le projet suscite des préoccupations, car les chatbots sont notoirement des sources de désinformation et de fausse confiance.

    Un référentiel GitHub a brièvement révélé les derniers développements de la General Services Administration (GSA) et de sa division Technology Transformation Services (TTS) en matière d'IA. Le dépôt a disparu de la plateforme après que les médias ont commencé à poser des questions à son sujet. Néanmoins, 404 Media a pu effectuer une analyse et rapporte que le dépôt traite du déploiement imminent d'un site Web et d'une API appelés « AI.gov ».

    AI.gov va servir de plaque tournante aux agences gouvernementales pour commencer à ajouter l'IA à leurs activités. « Accélérer l'innovation gouvernementale grâce à l'IA. Trois puissants outils d'IA. Une plateforme intégrée », indique une première version du site Web, dont le lien se trouve sur le dépôt.

    La première version de la page suggère que son API s'intégrera aux produits d'OpenAI, de Google et d'Anthropic. Mais le code de l'API montre que les équipes de la GSA travaillent également à l'intégration avec Bedrock d'AWS et LLaMA de Meta. La page suggère également qu'il y aura un chatbot propulsé par l'IA, bien qu'elle n'explique pas ce qu'il fera. Le site Github indique : « date de lancement - 4 juillet ». AI.gov redirige vers le site « whitehouse.gov ».

    Nom : 120.png
Affichages : 5494
Taille : 151,9 Ko

    En gros, le projet comporte trois composantes : un chatbot qui fera ... quelque chose ; une « API tout-en-un » qui permettra aux agences de connecter leurs systèmes aux modèles des sociétés privées ; et un programme appelé « CONSOLE », que la page décrit comme un « outil révolutionnaire pour analyser la mise en œuvre à l'échelle de l'agence ». Il analyse et montre dans quelle mesure une équipe gouvernementale spécifique utilise les outils d'IA.

    Selon la démo de la fonction, CONSOLE permettra aux agences de surveiller en temps réel l'utilisation de l'IA au sein de leur organisation afin de voir comment les employés utilisent les outils et ceux qu'ils préfèrent. Le site de démonstration est lié à Github et est hébergé sur « cloud.gov » sur ce qui semble être un environnement d'essai. Le texte de la page n'apparaît pas sur d'autres sites Web, ce qui suggère qu'il ne s'agit pas d'un texte générique.

    Donald Trump et le DOGE d'Elon Musk poussent à l'adoption massive de l'IA

    Le DOGE d'Elon Musk a fait de l'intégration de l'IA dans les fonctions gouvernementales une priorité. Les efforts du TTS en matière d'IA sont dirigés par Thomas Shedd, un ancien ingénieur de Tesla. Thomas Shedd a un partisan de l'IA générative. Il a déjà discuté de « l'utilisation de l'IA pour détecter les fraudes, analyser les contrats gouvernementaux et créer des agents de codage propulsés par l'IA pour écrire des logiciels pour les agences fédérales ».

    Thomas Shedd a passé une grande partie de sa carrière professionnelle en tant que responsable de l'ingénierie de l'intégration des logiciels chez Tesla. Il est arrivé au gouvernement avec l'IA à l'esprit. Entre autres choses, il souhaiterait que la GSA fonctionne comme une startup de logiciels et a proposé une stratégie pangouvernementale axée sur l'IA afin d'automatiser une grande partie du travail effectué aujourd'hui par les fonctionnaires fédéraux.

    Citation Envoyé par Thomas Shedd

    Nous voulons commencer à mettre en œuvre davantage d'IA au niveau des agences et être un exemple de la manière dont les autres agences peuvent commencer à tirer parti de l'IA... c'est un exemple de ce sur quoi nous recherchons des personnes pour travailler. Il s'agit par exemple de mettre des agents de codage de l'IA à la disposition de toutes les agences.

    L'une des choses que nous avons étudiées et sur lesquelles nous essayons de travailler immédiatement au sein de la GSA, mais aussi de manière plus large, est un endroit centralisé où placer les contrats afin que nous puissions effectuer des analyses sur ces contrats.
    Le gouvernement fédéral a fait beaucoup de bruit autour de l'utilisation de l'IA dernièrement, l'administration Trump et le DOGE d'Elon Musk poussant à son adoption et essayant d'éliminer les réglementations au niveau des États. Le mois dernier, la Chambre des représentants a adopté le "grand et beau" projet de loi budgétaire de Donald Trump qui, s'il est promulgué, interdira aux États d'appliquer des législations réglementant l'IA pendant 10 ans.

    Entre-temps, les agences gouvernementales adoptent de plus en plus l'IA pour remplacer les employés congédiés lors des vagues de licenciements massifs et s'appuient sur elle pour la prise de décisions critiques. Ces réductions ont été dirigées par le DOGE d'Elon Musk, à qui Donald Trump a confié la tâche de réduire la taille et les dépenses du gouvernement fédéral américain. Et bien qu'Elon Musk s'est récemment retiré du DOGE, ses actions restent controversées.

    Craintes liées à l'intégration de l'IA dans les fonctions gouvernementales

    Les chatbots d'IA tels que ChatGPT et Gemini sont notoirement des sources de désinformation et de fausse confiance. Selon les experts, publier un chatbot d'IA avec l'autorité du gouvernement fédéral pourrait poser des problèmes. Les hallucinations de l'IA pourraient induire les utilisateurs en erreur, avec potentiellement des conséquences graves. « C'est peut-être l'idée la plus stupide que j'ai entendue à propos de l'IA jusqu'à présent », a écrit un critique.

    Nom : 021.png
Affichages : 642
Taille : 167,1 Ko

    Selon certains rapports, les fonctionnaires interrogés sur les initiatives du gouvernement en matière d'IA ont déclaré que la réaction interne concernant le plan de Thomas Shedd est « assez unanimement négative ». Certains fonctionnaires ont souligné les nombreuses façons dont cela pourrait mal tourner, notamment en introduisant involontairement des problèmes de sécurité ou des bogues dans le code ou en suggérant que des contrats essentiels soient annulés.

    Les experts ont souligné que l'adoption généralisée de l'IA introduirait des risques de sécurité considérables, car les systèmes d'IA engloutissent des données confidentielles et des informations personnellement identifiables sur les citoyens. Il existe également des risques pour la sécurité nationale.

    Conclusion

    L'adoption généralisée de l'IA par le gouvernement américain ne devrait pas être une surprise, même si le projet lui-même semble relativement mal défini à ce stade. Au début de l'année, alors qu'Elon Musk et le DOGE licenciaient sans cérémonie les employés fédéraux de la GSA, ils ont lancé un chatbot censé aider les membres restants de l'agence dans leurs tâches. Cette initiative avait suscité une vague de critiques contre l'administration Trump.

    Ce projet était apparemment en cours d'élaboration avant que l'équipe du DOGE ne l'abandonne précipitamment, sans doute pour tenter de compenser toutes les suppressions de postes au sein de l'agence. Le projet AI.gov semble avoir été concocté par Thomas Shedd et le personnel restant de l'équipe technique de la GSA. Compte tenu de tout ce qui peut mal tourner avec un chatbot, le projet suscite le scepticisme des fonctionnaires et des experts.

    Malgré les préoccupations soulevées par le projet, l'administration Trump poursuit ses efforts. Le mois dernier, Donald Trump a limogé brutalement la directrice du Bureau américain des droits d'auteur après qu'elle a publié un rapport inquiétant sur l'utilisation par l'IA de contenus protégés par le droit d'auteur.

    Source : archives du projet AI.gov (1, 2)

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de l'intégration de l'IA générative dans les fonctions gouvernementales ?
    Que pensez-vous des préoccupations que soulève cette initiative ?

    Voir aussi

    Donald Trump limoge brutalement la directrice du Bureau des droits d'auteur après la publication de son rapport inquiétant sur l'utilisation par l'IA de contenus protégés par le droit d'auteur

    La Chambre des représentants des États-Unis a adopté le "grand et beau" projet de loi budgétaire de Trump qui, s'il est promulgué, interdira aux États d'appliquer des lois réglementant l'IA pendant 10 ans

    Donald Trump signe un décret visant à soutenir l'enseignement de l'IA dans les écoles primaires et secondaires, malgré une étude selon laquelle l'IA encourage la tricherie et rend paresseux et incompétent

Discussions similaires

  1. La chambre des représentants tue la SOPA
    Par Lunatikzx dans le forum Actualités
    Réponses: 7
    Dernier message: 18/01/2012, 10h08
  2. Gestion des Etats-Unis d'Amérique
    Par Barack Obama dans le forum Requêtes
    Réponses: 11
    Dernier message: 13/12/2011, 18h26
  3. Réponses: 0
    Dernier message: 01/06/2010, 15h28
  4. Bing a du mal à sortir des Etats-Unis
    Par Gordon Fowler dans le forum Actualités
    Réponses: 16
    Dernier message: 26/08/2009, 11h17
  5. Réponses: 7
    Dernier message: 20/08/2009, 11h12

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo