IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 396
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 396
    Par défaut La DOGE transforme et rebaptise un logiciel militaire de licenciement pour des licenciements massifs
    Le DOGE d'Elon Musk recrute un étudiant sans diplôme et sans expérience pour l'aider à réécrire la réglementation sur le logement à l'aide de l'IA,
    lui donnant accès à des bases de données confidentielles

    Elon Musk a beau quitter Washington D.C., son initiative DOGE continue de sévir au sein du gouvernement, semant le chaos partout où elle passe. En voici un exemple : DOGE a embauché un « jeune homme sans expérience gouvernementale » pour aider à réviser les réglementations fédérales au sein du ministère du logement et du développement urbain. Cet homme, Christopher Sweet, n'a même pas encore obtenu son diplôme de premier cycle.

    Contexte

    Dans le détail, DOGE a donné à l’étudiant un accès en lecture à des bases de données critiques du HUD (bases sur le logement public et la vérification des revenus). Son rôle principal est de piloter un projet d’analyse algorithmique des règlements : le modèle d’IA parcourt le Code of Federal Regulations (eCFR) pour repérer des passages jugés excessifs par rapport aux lois qui sous-tendent ces règles.

    En pratique, l’IA génère un rapport (sous forme de tableur) listant plus d’un millier d’entrées : pour chaque règlement visé, elle met en évidence le texte actuel, propose une formulation alternative et calcule des métriques (nombre de mots à supprimer, « taux de non-conformité » estimé, etc.). Ensuite, le personnel du HUD est invité à valider ou contester ces propositions : les équipes en charge du logement public (PIH) doivent examiner les suggestions de l’IA et expliquer tout désaccord, avant soumission finale au bureau du conseiller juridique de l’agence.

    Nom : elon.png
Affichages : 9594
Taille : 485,6 Ko

    Embaucher de jeunes nerds de la technologie qui ne savent pas ce qu'ils font

    Un jeune homme sans expérience gouvernementale qui n'a même pas encore obtenu son diplôme de premier cycle travaille pour le soi-disant Département de l'efficacité gouvernementale (DOGE) d'Elon Musk au sein du Département du logement et du développement urbain (HUD) et a été chargé d'utiliser l'intelligence artificielle pour réécrire les règles et réglementations de l'agence.

    Christopher Sweet a été présenté aux employés du HUD comme étant originaire de San Francisco et plus récemment en troisième année à l'Université de Chicago, où il étudiait l'économie et la science des données, dans un courriel envoyé aux employés au début du mois d'avril.

    « J'aimerais vous annoncer que Chris Sweet a rejoint l'équipe du HUD DOGE en tant qu'assistant spécial, bien qu'un meilleur titre pourrait être “analyste quantique en programmation informatique” », a écrit Scott Langmack, un employé du DOGE et directeur d'exploitation d'une société immobilière d'IA, dans un courriel largement partagé au sein de l'agence. « Avec des racines familiales brésiliennes, Chris parle couramment le portugais. Veuillez vous joindre à moi pour souhaiter la bienvenue à Chris au HUD ! »

    Le rôle principal de Chris Sweet semble être de diriger un effort visant à tirer parti de l'intelligence artificielle pour examiner les réglementations du HUD, les comparer aux lois sur lesquelles elles sont basées et identifier les domaines dans lesquels les règles peuvent être assouplies ou supprimées complètement. Selon des sources au sein de l'agence, il a également reçu un accès en lecture à la base de données du HUD sur les logements publics, connue sous le nom de Centre d'information sur les logements publics et indiens, ainsi qu'à ses systèmes de vérification des revenus des entreprises.

    Le recrutement de Sweet est tout à fait conforme au modus operandi général de DOGE, qui semble être le suivant : embaucher de jeunes nerds de la technologie qui ne savent pas ce qu'ils font, les lancer dans des activités juridiquement douteuses qui impliquent des processus gouvernementaux complexes, les regarder s'agiter et dire au public qu'ils font du bon travail.

    Utilisation de l’IA dans le processus réglementaire

    L’IA intervient ici à chaque étape de l’analyse des textes réglementaires. Les sources internes décrivent le processus suivant :
    • Indexation du eCFR : le modèle parcourt automatiquement le Code of Federal Regulations, qui compile les règlements fédéraux, afin d’identifier les dispositions susceptibles d’être révisées.
    • Comparaison avec la loi : chaque section réglementaire est comparée au texte législatif (loi-cadre) associé. L’IA cherche des cas de « sur-régulation » (overreach), c’est-à-dire des règles allant au-delà des objectifs de la loi sous-jacente.
    • Génération de suggestions : pour chaque paragraphe ciblé, le modèle propose un langage alternatif ou des suppressions de phrases jugées superflues. Par exemple, il suggère de supprimer des mots ou phrases pour alléger le texte réglementaire, et formule un nouveau libellé plus concis lorsque c’est pertinent.
    • Rapport automatisé : l’IA compile ces résultats dans un tableau structuré. Ce document indique le contenu original, la recommandation de l’IA et des indicateurs (nombre de mots supprimables, pourcentage de non-conformité estimé). WIRED a examiné un tel tableur : on y voit en colonnes le texte à ajuster, la suggestion de reformulation et divers calculs de conformité.
    • Revue humaine : les équipes du HUD (notamment le bureau du logement public et indien) doivent relire ces suggestions et « justifier leurs objections » pour les modifications rejetées. Le processus s’achève après examen par le conseiller juridique du HUD qui valide les changements finals

    Cette collaboration IA–humain est présentée comme un moyen d’augmenter l’efficacité (« openAI programming quant analyst » selon un courriel interne). Elle repose vraisemblablement sur un grand modèle de langage (LLM) avancé (par exemple GPT-4 ou modèle équivalent), adapté par des ingénieurs pour traiter de longs documents légaux. Le modèle doit pouvoir « creuser » les textes officiels et générer du langage réglementaire pertinent. En l’état, nous ne disposons pas d’informations publiques sur le modèle exact utilisé, mais la méthode semble combiner récupération d’informations (indexation du CFR) et génération de texte. L’IA produit un brouillon de révisions qui sert de base, puis l’expertise humaine oriente le résultat final.

    Nom : gulf.png
Affichages : 1293
Taille : 557,4 Ko

    Analyse technique

    Puissance des LLM

    Les grands modèles de langage peuvent gérer des requêtes complexes. On imagine que DOGE a utilisé un système permettant de poser decs questions ciblées au CFR (par exemple « Quels règlements se rattachent au Public Housing Act ?») et d’obtenir des réponses synthétiques. Des analyses récentes montrent que les GPT peuvent aider les législateurs à naviguer dans des textes volumineux : par exemple, on a suggéré d’interroger un GPT sur des références spécifiques du CFR pour en extraire les dispositions pertinentes. Ces outils peuvent accélérer la recherche de texte clé et la compréhension d’un cadre réglementaire étendu.

    Approches complémentaires

    Au-delà des LLM, des méthodes plus structurées existent. Des chercheurs de l’université du Maryland (UMBC) ont développé une IA fondée sur un graphe de connaissances sémantique pour analyser le CFR. Leur approche stocke les concepts et relations du code (lois, réglementations, termes-clés) dans une base ontologique (OWL), permettant d’interroger automatiquement les règles en langage naturel. Cela montre qu’on peut coupler IA et technologies Web sémantiques pour faciliter l’accès aux textes juridiques.

    Limites des modèles génératifs

    Les LLM ont des inconvénients notables. Leur « fenêtre de contexte » est finie (ils peinent à gérer de très longs documents en une seule requête) et ils peuvent produire des résultats erronés (« hallucinations »). Sans instructions et validation appropriées, un GPT peut générer des informations incorrectes ou hors sujet. En l’absence de certitude juridique, toute suggestion de l’IA doit être soigneusement vérifiée par des experts. De plus, ces modèles sont basés sur des données d’entraînement hétérogènes : un biais dans les sources (ou dans le mode d’entraînement) pourrait orienter leurs recommandations (par exemple favoriser la déréglementation ou refléter des préjugés inconscients).

    Données et sécurité

    Techniquement, intégrer un LLM dans des flux de travail gouvernementaux soulève des questions pratiques. Comment assure-t-on la confidentialité des données d’entrée (documents règlementaires, informations sensibles) tout en utilisant un service d’IA souvent externe ? Dans le cas DOGE, l’étudiant a lu des bases de données du HUD contenant des informations personnelles (revenus des locataires, etc.). Il faut garantir que l’IA respecte les règles de sécurité du gouvernement (stockage privé, réseaux internes, etc.).

    Outil d'évaluation

    Enfin, commenter et mesurer la « non-conformité » qu’affiche l’outil dans le tableur pose question. Les indicateurs automatiques (pourcentages, mots à éliminer) sont probablement définis par le développeur. Sans transparence sur leur calcul, on ne sait pas exactement ce qu’ils signifient, ce qui peut affecter la confiance dans les résultats.

    En résumé, sur le plan technologique le projet DOGE est faisable avec les moyens actuels : des logiciels existent pour indexer de gros volumes de texte légal et y appliquer des modèles de langage. Mais il exige un montage technique sophistiqué (intégration du CFR, prompts précis, interface d’export et de révision), et reste soumis aux faiblesses connues des IA génératives. Les professionnels de l'informatique pourront souligner qu’un outil ainsi conçu peut être utile pour éplucher rapidement des règlements, à condition d’être utilisé comme une aide à la décision plutôt que comme un arbitre final.

    Cette initiative soulève aussi de nombreuses questions

    L’algorithme employé et le processus exact de décision ne sont pas rendus publics. Les agents du HUD ne peuvent qu’espérer comprendre comment l’IA produit ses suggestions. Cela complique la contestation ou la révision indépendante de ses recommandations. De plus, faire retravailler les règlements en dehors du processus normal de consultation (APA) remet en cause la légitimité du résultat final. Un employé du HUD a d’ailleurs noté que cette refonte est « redondante », car l’agence avait déjà passé ces règles au « crible multipartite » exigé par la loi avant leur adoption initiale. Remettre en cause a posteriori le travail long et public de rédaction réglementaire pose question.

    De plus, si une modification induite par l’IA devait entraîner un dysfonctionnement (par exemple une perte de protection pour les locataires), qui en porterait la responsabilité ? Le développeur de l’algorithme ? Le stagiaire ? Les cadres du HUD ? La question est d’autant plus sensible que l’IA n’est pas (encore) un acteur légal : seul un humain peut légalement promulguer une norme. En l’espèce, ce sont les managers du HUD qui valident les changements, mais ils s’appuieraient alors sur du texte suggéré par une machine.

    De plus, tout algorithme est biaisé par ses données et instructions. Ici, l’IA est explicitement chargée de cibler la « déréglementation » – c’est son objectif politique. Elle ne cherche pas l’équilibre mais l’allègement des règles. Des critiques y voient un outil au service d’une idéologie : on « chasse les règlements » d’un coup de baguette technologique. Les textes revus pourraient favoriser des intérêts privés (promoteurs immobiliers, investisseurs) au détriment de la protection des citoyens, surtout si l’algorithme ne prend pas en compte les valeurs sociales ou économiques encadrant chaque règlement.

    Ensuite, le fait qu’un étudiant ait accès à des bases de données confidentielles (logements assistés, revenus des ménages) inquiète du point de vue de la vie privée. Des élus, tel que la représentante démocrate Maxine Waters, ont dénoncé publiquement ces pratiques. Elle accuse le DOGE d’avoir « infiltré » les agences du logement, « volant » des fonds publics, licenciant illégalement du personnel et accédant à des données confidentielles (notamment sur des victimes d’agressions).

    Enfin, la pratique ici consiste à contourner les voies parlementaires et administratives habituelles. Au lieu de passer par des consultations publiques, ce sont des outils algorithmiques internes qui suggèrent des changements. Cela pose la question de la place des citoyens et des élus dans l’élaboration de la loi. Un membre du HUD s’interrogeait si les propositions de l’IA seraient soumises à une nouvelle « notice and comment » (consultation publique) – essentiel pour respecter l’Administrative Procedure Act. Sans cela, on outrepasse les garde-fous démocratiques.

    Conclusion

    S'adressant aux journalistes à la Maison Blanche mercredi, Elon Musk a admis que l'initiative était loin d'avoir tenu sa promesse de réduire les dépenses de 2 000 milliards de dollars et qu'elle avait commis de nombreuses erreurs. « Je pense que nous faisons les choses correctement dans 70 à 80 % des cas », a-t-il déclaré. Ce n'est pas un très bon taux de réussite lorsque la vie de millions de personnes dépend de programmes gouvernementaux.

    Tout cela semble confirmer une théorie selon laquelle DOGE n'est pas vraiment intéressée par l'amélioration de l'efficacité du gouvernement, mais essaie en fait de détruire un grand nombre d'agences. Un tel mandat l'alignerait mieux sur le projet politique défini pendant la campagne de Trump : le projet libertaire de droite 2025, qui a cherché à réduire tous les besoins de l'État, sauf le strict nécessaire.

    Sources : UMBC, Wired

    Et vous ?

    Y a-t-il des modèles d’IA qui vous semblent adaptés à la réécriture réglementaire ? Si oui, lesquels ? Peut-on faire confiance à des LLM généralistes comme GPT-4, ou faut-il des modèles spécialisés entraînés sur des corpus juridiques ?

    Quelles méthodes de validation technique peuvent garantir la fiabilité des suggestions générées ?

    Comment s’assurer que l’IA n’introduit pas de biais invisibles ou « d'hallucinations » réglementaires dans des textes aussi sensibles ?

    Peut-on confier des décisions réglementaires à une IA, même partiellement ? Quelle place donner à la machine dans un processus qui engage des droits humains fondamentaux ?

    Qui est responsable juridiquement en cas d’erreur issue d’un texte modifié par une IA ? Le développeur, l’utilisateur ou l’administration ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre confirmé
    Homme Profil pro
    autre
    Inscrit en
    Juin 2014
    Messages
    288
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Aveyron (Midi Pyrénées)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Juin 2014
    Messages : 288
    Par défaut
    « J'aimerais vous annoncer que Chris Sweet a rejoint l'équipe du HUD DOGE en tant qu'assistant spécial, bien qu'un meilleur titre pourrait être “analyste quantique en programmation informatique” », a écrit Scott Langmack, un employé du DOGE et directeur d'exploitation d'une société immobilière d'IA

  3. #3
    Membre éclairé
    Homme Profil pro
    autre
    Inscrit en
    Septembre 2015
    Messages
    358
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Yvelines (Île de France)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Septembre 2015
    Messages : 358
    Par défaut
    Je suppose que la première chose que demande un analyste quantique est un ordinateur quantique... il faut au moins cela.

    ET j'espère qu'il pourra utiliser mieux que Grok. La dernière fois qu'il s'entêtait à mal appliquer ses sources (qu'il a au moins cité) lors d'une de mes requêtes était pathétique.

  4. #4
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 396
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 396
    Par défaut Des IA dans tous les ministères pour gérer le pays ? Le plan controversé d'un recruteur de la DOGE d'Elon Musk
    Des IA dans tous les ministères pour gérer le pays ? Le plan controversé d'un recruteur de la DOGE d'Elon Musk,
    qui mène une campagne discrète de recrutement pour automatiser l’administration américaine

    Un jeune entrepreneur qui a été l'un des premiers recruteurs connus du « Department of Government Efficiency » (DOGE) d'Elon Musk a une nouvelle mission connexe (et il recrute). Anthony Jancso, cofondateur d'AcclerateX, une startup spécialisée dans la technologie gouvernementale, recherche des professionnels de l'informatique pour travailler sur un projet visant à confier à l'intelligence artificielle des tâches qui incombent actuellement à des dizaines de milliers de fonctionnaires fédéraux.

    Jancso, un ancien employé de Palantir, a écrit dans un Slack contenant environ 2000 anciens de Palantir qu'il recrutait pour un « projet orthogonal DOGE visant à concevoir des repères et à déployer des agents d'intelligence artificielle dans les flux de travail des agences fédérales », selon un message daté du 21 avril. Les agents sont des programmes capables d'effectuer un travail de manière autonome.


    Contexte

    Le Department of Government Efficiency (DOGE) vient de franchir une nouvelle étape dans sa course à la modernisation de l’État. Selon plusieurs sources internes, un recruteur du DOGE mène actuellement une opération de grande envergure pour déployer des agents d’intelligence artificielle à travers l’ensemble des agences fédérales. Objectif affiché : renforcer l’efficacité administrative.

    Une situation qui intervient après que le DOGE a embauché un « jeune homme sans expérience gouvernementale » pour aider à réviser les réglementations fédérales au sein du ministère du logement et du développement urbain... à l'aide de l'IA.

    L'IA à toutes les sauces

    Au ministère du logement et du développement urbain, un étudiant de premier cycle a été chargé d'utiliser l'intelligence artificielle pour trouver les domaines dans lesquels les règlements du HUD peuvent aller au-delà de l'interprétation la plus stricte des lois sous-jacentes.

    Il s'agit d'une tâche qui a du sens pour l'IA, qui peut synthétiser des informations à partir de documents volumineux bien plus rapidement qu'un être humain. Il existe un certain risque d'hallucination (plus précisément, de voir le modèle ressortir des citations qui n'existent pas en réalité), mais un être humain doit approuver ces recommandations de toute façon. C'est, d'une certaine manière, ce que l'IA générative fait de mieux à l'heure actuelle : effectuer un travail fastidieux de manière systématique.

    Il y a cependant quelque chose de pernicieux à demander à un modèle d'IA d'aider à démanteler l'État administratif.

    L'IA ne « sait » rien des réglementations et ne sait pas si elles sont conformes à la lecture la plus stricte possible des lois, ce sur quoi même des juristes très expérimentés ne seront pas d'accord. Elle a besoin d'être alimentée par une invite détaillant ce qu'elle doit rechercher, ce qui signifie que vous pouvez non seulement travailler avec les arbitres, mais aussi rédiger le règlement pour eux. Elle est aussi exceptionnellement désireuse de plaire, au point d'inventer des choses plutôt que de refuser de répondre.

    Au moins, il s'agit d'un cas d'utilisation compréhensible. On ne peut pas en dire autant d'un autre effort d'IA associé à la DOGE.

    Un des premiers recruteurs de la DOGE est à nouveau à la recherche d'ingénieurs, cette fois pour « concevoir des benchmarks et déployer des agents d'IA dans des flux de travail réels au sein d'agences fédérales ». Son objectif est de supprimer des dizaines de milliers de postes dans l'administration, en les remplaçant par des agents d'IA et en « libérant » des travailleurs pour des tâches prétendument « plus importantes ».

    La DOGE n'a pas introduit l'IA au sein du gouvernement américain. Dans certains cas, elle a accéléré ou relancé des programmes d'IA qui lui étaient antérieurs. La General Services Administration travaillait déjà sur un chatbot interne depuis des mois ; la DOGE a simplement accéléré le calendrier de déploiement. Le département de la défense a conçu un logiciel pour aider à automatiser les réductions d'effectifs il y a plusieurs décennies ; les ingénieurs de la DOGE ont mis à jour AutoRIF à leurs propres fins.

    Cependant, même ces projets préexistants témoignent des préoccupations que suscite l'utilisation de l'IA par DOGE. Le problème n'est pas l'intelligence artificielle en elle-même. C'est son déploiement à plein régime dans des contextes où les erreurs peuvent avoir des conséquences dévastatrices. C'est le manque de clarté quant aux données qui sont introduites, où et avec quelles garanties.

    L'IA n'est ni un croquemitaine ni une panacée. Elle est bonne dans certains domaines et mauvaise dans d'autres. Mais la DOGE l'utilise comme un moyen imparfait pour parvenir à des fins destructrices. Il se dirige vers un gouvernement américain vidé de sa substance, dont les fonctions essentielles devront presque inévitablement être assumées par des sous-traitants de la Silicon Valley.

    Une campagne de recrutement

    « Nous avons identifié plus de 300 rôles avec une normalisation presque complète des processus, libérant au moins 70 000 ETP pour un travail à plus fort impact au cours de l'année prochaine », a indiqué Jancso, affirmant essentiellement que des dizaines de milliers d'employés fédéraux pourraient voir de nombreux aspects de leur travail automatisés et remplacés par ces agents d'IA. Les travailleurs du projet, a-t-il écrit, seraient basés sur le site de Washington, DC, et ne nécessiteraient pas d'habilitation de sécurité ; il n'est pas clair pour qui ils travailleraient.

    Sa proposition n'a pas été bien accueillie. Huit personnes ont réagi avec des emojis de visage de clown, trois ont réagi avec un emoji personnalisé d'un homme léchant une botte, deux ont réagi avec un emoji personnalisé de Joaquin Phoenix donnant un pouce vers le bas dans le film Gladiator, et trois ont réagi avec un emoji personnalisé avec le mot « Fasciste ». Trois ont réagi avec un emoji de cœur.

    « La DOGE ne semble pas intéressée par la recherche d'un "travail à plus fort impact" pour les employés fédéraux », a déclaré une personne dans un commentaire qui a suscité 11 réactions avec l'emoji en cœur. « Vous êtes complice du licenciement de 70 000 employés fédéraux et de leur remplacement par un système de correction automatique de merde ».

    « Tbf [ndlr. To be fair (pour être juste)] nous allons tous être remplacés par un autocorrecteur de merde (écrit par chatgpt) », a commenté une autre personne, qui a reçu une réaction « +1 ».

    « A quel point est-ce orthogonal ? Est-ce que cela nécessite toujours une surveillance du Kremlin ? », a déclaré une autre personne dans un commentaire qui a reçu cinq réactions avec un emoji de feu. « Ou utilisent-ils simplement vos informations d'identification pour se connecter plus tard ? » Pour mémoire, la référence au Kremlin vient du fait qu'un lanceur d'alerte a accusé des ingénieurs du DOGE de Musk d'avoir exfiltré environ 10 Go de données sensibles, précisant que des tentatives de connexion suspectes à partir d'une adresse IP en Russie ont été détectées.

    Nom : acce.png
Affichages : 4755
Taille : 226,3 Ko

    AccelerateX

    AccelerateX s'appelait à l'origine AccelerateSF, une entreprise qui a il y a quelques années le soutien d'OpenAI et d'Anthropic. Dans sa première incarnation, AccelerateSF a organisé un hackathon pour les développeurs d'IA visant à utiliser la technologie pour résoudre les problèmes sociaux de San Francisco. Selon un article paru dans Mission Local en 2023, Jancso a par exemple proposé que l'utilisation de grands modèles de langage pour aider les entreprises à remplir les formulaires de permis afin de rationaliser le processus administratif de la construction puisse contribuer à faire baisser les prix de l'immobilier.

    En 2024, la mission a changé, l'entreprise devenant AccelerateX. Dans un message sur X annonçant le changement, l'entreprise a indiqué : « Une technologie dépassée entraîne le gouvernement américain dans sa chute. Les fournisseurs traditionnels vendent des systèmes défectueux à des prix de plus en plus élevés. Cela nuit à tous les citoyens américains ».

    Selon des sources directement informées, Jancso a révélé qu'AccelerateX avait signé un accord de partenariat avec Palantir en 2024. Selon le site LinkedIn d'une personne décrite comme l'un des cofondateurs d'AccelerateX, Rachel Yee, l'entreprise semble avoir reçu un financement de l'accélérateur Converge 2 d'OpenAI. Un autre cofondateur d'AccelerateSF, Kay Sorin, travaille aujourd'hui pour OpenAI, qu'il a rejoint plusieurs mois après le hackathon.

    « Le gouvernement est-il vraiment l'endroit où nous voulons expérimenter l'IA de pointe ? »

    Depuis sa création dans les premiers jours de la deuxième administration Trump, la DOGE a encouragé l'utilisation de l'IA dans les agences, même si elle a cherché à supprimer des dizaines de milliers d'emplois fédéraux. Au ministère des anciens combattants, un associé de la DOGE a suggéré d'utiliser l'IA pour écrire le code du site web de l'agence ; à la General Services Administration, la DOGE a déployé le chatbot GSAi ; le groupe a cherché à automatiser le processus de licenciement des employés du gouvernement avec un outil appelé AutoRIF ; et un agent de la DOGE au ministère du logement et du développement urbain utilise des outils d'IA pour examiner et proposer des modifications aux réglementations. Toutefois, les experts affirment qu'il serait difficile, voire impossible, de déployer des agents d'IA pour faire le travail de 70 000 personnes.

    Un employé fédéral connaissant les contrats gouvernementaux, qui a parlé sous couvert d'anonymat parce qu'il n'était pas autorisé à parler à la presse, a déclaré : « De nombreuses agences ont des procédures qui peuvent varier considérablement en fonction de leurs propres règles et réglementations, et il serait donc probablement très difficile de déployer des agents d'IA à l'échelle des agences. »

    Oren Etzioni, cofondateur de la startup Vercept, spécialisée dans l'IA, explique que si les agents d'IA sont capables de faire certaines choses - comme utiliser un navigateur internet pour effectuer des recherches - leurs résultats peuvent encore varier considérablement et être très peu fiables. Par exemple, les agents d'IA du service clientèle ont inventé des politiques inexistantes lorsqu'ils essayaient de répondre aux préoccupations des utilisateurs. Même la recherche, dit-il, nécessite un humain pour s'assurer que ce que l'IA est en train de faire n'est pas faux.

    « Nous voulons que notre gouvernement soit quelque chose sur lequel nous pouvons compter, par opposition à quelque chose qui est à la pointe de la technologie », déclare Etzioni. « Nous n'avons pas besoin qu'il soit bureaucratique et lent, mais si les entreprises ne l'ont pas encore adopté, le gouvernement est-il vraiment l'endroit où nous voulons expérimenter l'IA de pointe ? »

    Etzioni affirme que les agents d'IA ne sont pas non plus des remplaçants idéaux pour les emplois. L'IA est plutôt capable d'effectuer certaines tâches ou d'en rendre d'autres plus efficaces, mais l'idée que la technologie puisse faire le travail de 70 000 employés n'est pas envisageable. « À moins de faire de drôles de calculs, il n'en est pas question ».

    Source : AccelerateX, Anthony Jancso

    Et vous ?

    Quelle lecture en faites-vous ? Que pensez-vous de cette initiative ?

    Que pensez-vous de l'expérimentation de l'IA au niveau d'un gouvernement ?

    Le recours à l’IA peut-il vraiment rendre l’État plus efficace, ou est-ce une illusion technocratique ?

    Faut-il un organe de contrôle indépendant pour superviser l’usage de l’IA dans la sphère publique ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  5. #5
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 396
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 396
    Par défaut La DOGE transforme et rebaptise un logiciel militaire de licenciement pour des licenciements massifs
    La DOGE d'Elon Musk met à jour AutoRIF, un logiciel militaire de suppression d'emploi, qu'elle renomme « Outil de remodelage des effectifs »,
    pour lui conférer une image moins dystopique après 260 000 licenciements

    Le Département de l'Efficacité Gouvernementale (DOGE), dirigé par Elon Musk, travaillerait à la mise à jour d'un logiciel controversé destiné à automatiser les licenciements massifs dans la fonction publique américaine. Initialement développé par le Pentagone sous le nom d'AutoRIF (Automated Reduction in Force), ce programme est désormais rebaptisé "Workforce Reshaping Tool" afin de lui conférer une image plus positive et moins dystopique.

    Contexte

    Selon des informations rapportées par Reuters, le DOGE a supervisé la transformation d'AutoRIF en une plateforme web accessible, permettant une identification plus rapide et plus efficace des employés à licencier, en se basant sur des critères tels que l'ancienneté et la performance. Cette initiative s'inscrit dans une politique de réduction drastique de l'effectif fédéral, avec déjà 260 000 employés ayant accepté des départs volontaires ou ayant été licenciés depuis le début de l'année 2025. Des agences majeures, telles que le Département des Anciens Combattants et l'IRS, prévoient des suppressions d'emplois pouvant atteindre 80 000 et 40 % de leurs effectifs respectifs.

    Une transformation technico-politique

    AutoRIF a vu le jour initialement au sein du Département de la Défense pour rationaliser les processus de réduction d’effectifs. Le logiciel utilise des critères standardisés (ancienneté, notation de performance, statut contractuel) pour hiérarchiser les employés selon leur « vulnérabilité » à un plan de compression des effectifs.

    Développé il y a plus de vingt ans, l'AutoRIF (abréviation de automated reductions in force) a été jugé trop « lourd » pour être utilisé dans l'ensemble du gouvernement, ont déclaré des sources à Reuters. Dans un audit réalisé en 2003, le bureau de l'inspecteur général du ministère de la défense a noté, par exemple, que « les procédures spécialisées de réduction des effectifs nécessaires aux techniciens de la Garde nationale rendaient le module impraticable ». En fait, chaque ministère devait évaluer ses réductions différemment pour éviter de se priver d'un personnel essentiel. Malgré plusieurs mises à jour du logiciel depuis lors, a rapporté Wired, l'outil reste sujet à des erreurs, ont déclaré des sources à Reuters, ce qui oblige la plupart des agences fédérales à continuer à effectuer les licenciements manuellement plutôt que de risquer des arrêts de travail ou d'autres conséquences négatives dues à des licenciements bâclés.

    Sous l’impulsion du DOGE, ce système a été réécrit en tant qu’application web centralisée, dotée d’une interface plus accessible pour les départements gouvernementaux, et surtout capable de traiter des volumes bien plus importants.

    Ce nouvel outil s’inscrit dans une politique de restructuration agressive de l’administration fédérale. Selon les données officielles, plus de 260 000 employés ont été soit licenciés, soit poussés vers des départs volontaires depuis janvier 2025. Certaines agences, comme l’IRS ou le Département des Anciens Combattants, prévoient des réductions d’effectifs atteignant jusqu’à 40 %.

    Nom : un.png
Affichages : 5236
Taille : 465,0 Ko

    Une interface froide pour des décisions humaines

    Ce qui suscite l’inquiétude dans les milieux professionnels (qu’ils soient en RH, en informatique ou en droit administratif) n’est pas tant l’usage d’outils numériques dans le traitement des données du personnel, mais l’automatisation quasi-totale de décisions à forte charge humaine. La fonction publique est ainsi confrontée à un paradoxe : d’un côté, une injonction à moderniser et rationaliser, de l’autre, le risque de désincarnation et d’opacité algorithmique dans des décisions souvent douloureuses.

    « Vous avez un outil qui, sur papier, optimise la performance des structures publiques. Mais dans les faits, il s’agit aussi de décider, parfois de façon semi-automatisée, que tel ou tel agent doit perdre son emploi », alerte un internaute. « Et lorsqu’on l’habille d’un nom comme 'Workforce Reshaping Tool', on choisit de maquiller la réalité. »

    En février, Wired a tiré pour la première fois la sonnette d'alarme sur le fait que les travailleurs pourraient bientôt être licenciés par un algorithme, et aujourd'hui des sources ont révélé à Reuters beaucoup plus d'informations sur l'effort mené par le ministère de l'Emploi et des Affaires sociales. Selon ces sources, l'AutoRIF a été rebaptisé « Workforce Reshaping Tool » (outil de remodelage de la main-d'œuvre). Il s'agit apparemment d'une tentative du gouvernement de trouver un nom plus « anodin » que l'AutoRIF, qui a une consonance quelque peu dystopique.

    La mise à jour du Workforce Reshaping Tool a probablement été dirigée par un ancien ingénieur de Tesla, Riccardo Biasini, dont le nom est attaché à un dépôt GitHub que Wired a découvert. Des sources ont déclaré à Reuters que les mises à jour comprenaient la création d'une version web conviviale de l'outil, qui peut fournir « des cibles pour les licenciements beaucoup plus rapidement que le processus manuel actuel, qui nécessite beaucoup de main-d'œuvre ».

    Parmi les autres améliorations, citons une fonction qui permet de télécharger des données sur les salariés que les employés des ressources humaines devaient auparavant saisir manuellement. De plus, alors qu'auparavant AutoRIF n'était accessible qu'à un seul utilisateur pour gérer les licenciements d'une agence entière, les mises à jour comprennent également l'activation de l'accès multi-utilisateurs, ce qui devrait accélérer les approbations pour accélérer encore les licenciements.

    Dans les semaines à venir, les agences auront accès à cette version web pour des démonstrations et des tests, a rapporté Reuters, tout en notant que l'outil semble être le « seul exemple connu » de la DOGE dans le cadre de sa mission de modernisation du gouvernement fédéral.

    Qu'est-ce qui pourrait mal tourner ?

    La DOGE a été frappée par d'immenses réactions pour ses coupes budgétaires précipitées, déclenchant des protestations après avoir vidé de leur substance des agences populaires et licencié par erreur des travailleurs en période d'essai qui ont dû être réembauchés, soit parce qu'un tribunal a ordonné l'annulation des licenciements illégaux, soit parce que les chefs de service ont par la suite signalé que les travailleurs licenciés étaient essentiels à la mission de l'entreprise.

    L'agence fait également l'objet de poursuites judiciaires visant à mettre fin aux licenciements massifs, dont beaucoup citent toujours Musk comme défendeur, malgré sa récente décision de s'éloigner du DOGE pour éteindre les incendies chez Tesla. En particulier, les efforts visant à démolir le Consumer Protection Financial Bureau, qui, selon certains critiques, serait un cadeau pour Musk, ont suscité des protestations, tandis que les démocrates se sont plaints que la DOGE semblait cibler des agences pour des coupes qui pourraient épargner à Musk des milliards de dollars de pénalités. Et certainement parmi les plus récentes atteintes à l'image publique du DOGE, Bill Gates a critiqué, dans une interview annonçant aujourd'hui la disparition de la Fondation Gates, les coupes opérées par le DOGE à l'Agence des États-Unis pour le développement international (USAID) pour avoir « tué des enfants ».

    Il semble peu probable que le Workforce Reshaping Tool, quel que soit son nom, puisse résoudre le problème de popularité de la DOGE, surtout si l'outil continue à faire des erreurs, mais à un rythme beaucoup plus rapide, ont averti des experts.

    Nom : auto.png
Affichages : 597
Taille : 16,9 Ko

    « L'automatisation des licenciements peut perpétuer les préjugés, accroître la surveillance des travailleurs et éroder la transparence »

    Abigail Kunkler, collaboratrice juridique de l'organisation à but non lucratif Electronic Privacy Information Center, a mis en garde dans un blog du mois de mars contre la nécessité d'une plus grande transparence concernant les mises à jour de l'AutoRIF.

    « On ne sait pas exactement comment l'AutoRIF a été modifié ni si l'IA est impliquée dans le mandat de RIF (par l'intermédiaire de l'AutoRIF ou indépendamment) », a écrit Kunkler. « Cependant, les craintes de licenciements massifs de travailleurs fédéraux par l'IA ne sont pas infondées. Elon Musk et l'administration Trump n'ont pas caché leur affection pour cette technologie douteuse et leur intention de l'utiliser pour procéder à des coupes budgétaires. Et, en fait, ils ont déjà essayé d'ajouter l'IA aux décisions relatives à la main-d'œuvre. »

    L'automatisation des licenciements peut perpétuer les préjugés, accroître la surveillance des travailleurs et éroder la transparence au point que les travailleurs ne savent pas pourquoi ils ont été licenciés, a déclaré Kunkler. Pour les fonctionnaires, ces systèmes imparfaits risquent d'entraîner une confusion sur les droits des travailleurs ou d'occulter les licenciements illégaux.

    « Souvent, on ne sait pas comment l'outil fonctionne, quelles sont les données qu'il reçoit ou comment il pondère les différentes données dans son analyse », a déclaré Kunkler. « La logique qui sous-tend une décision donnée n'est pas accessible au travailleur et, dans le contexte gouvernemental, il est pratiquement impossible de savoir comment ou si l'outil respecte les exigences statutaires et réglementaires qu'un outil d'emploi fédéral devrait suivre ».

    Gouvernance, transparence et responsabilité

    Du point de vue des professionnels de la tech, plusieurs questions demeurent. Quel est le degré d’intervention humaine permis par le système ? Quels sont les garde-fous mis en place pour éviter les erreurs ? Et surtout, le code source de ce logiciel – pourtant déterminant dans la vie de milliers d’agents publics – est-il audité par des entités indépendantes ?

    Pour les défenseurs des droits des travailleurs, cette transformation soulève des enjeux de redevabilité algorithmique. « Qui porte la responsabilité en cas de licenciement abusif si la décision s’appuie sur un outil informatique ? », interroge un avocat en droit du travail fédéral.

    La situation est encore plus grave si l'on imagine des erreurs à grande échelle. Don Moynihan, professeur de politique publique à l'université du Michigan, a déclaré à Reuters que « si l'on automatise les mauvaises hypothèses dans un processus, l'ampleur de l'erreur devient bien plus grande que ce qu'un individu pourrait entreprendre ».

    « Cela ne les aidera pas nécessairement à prendre de meilleures décisions et ne rendra pas ces décisions plus populaires », a ajouté Moynihan.

    Selon Kunkler, la seule façon de protéger les travailleurs contre des licenciements potentiellement illégaux est de soutenir les syndicats qui défendent les droits des travailleurs tout en poussant les législateurs à intervenir. Appelant le Congrès à interdire l'utilisation d'outils obscurs reposant sur des points de données inconnus pour vider les agences fédérales « sans exiger de tests et d'audits externes rigoureux, de notifications et de divulgations robustes, et d'examen des décisions humaines », Kunkler a déclaré que la mise en œuvre du nouvel outil du DOGE sans plus de transparence devrait être largement condamnée comme étant inacceptable.

    « Nous devons protéger les travailleurs fédéraux de ces outils nuisibles », a déclaré Kunkler, ajoutant que « si le gouvernement ne peut pas ou ne veut pas atténuer efficacement les risques liés à l'utilisation de la technologie de prise de décision automatisée, il ne devrait pas l'utiliser du tout ».

    Effets collatéraux et vision à long terme

    Par-delà les effets immédiats sur l’emploi public, ce virage technocratique a des implications plus larges. Le gouvernement affirme avoir économisé plus de 160 milliards de dollars grâce à la réduction de contrats et de personnel. Mais à quel prix ? Des agences entières – telles que USAID ou le Consumer Financial Protection Bureau (CFPB) – ont été réduites à l’état de coquilles vides, voire supprimées, entraînant des pertes de savoir-faire critiques.

    Les experts s’interrogent également sur la possibilité d’un effet domino dans d’autres secteurs. « Ce que l’on observe ici, c’est une tentative d’introduire un modèle start-up de la gestion RH dans la bureaucratie étatique, avec un vocabulaire et des outils issus de la Silicon Valley », analyse un professeur en gouvernance algorithmique. « Mais les logiques d’optimisation économique s’opposent parfois frontalement aux principes du service public. »

    Sources : Electronic Privacy Information Center, audit d'AutoRIF

    Et vous ?

    Quelle lecture en faites-vous ?

    Peut-on déléguer une décision aussi humaine que le licenciement à un algorithme, même partiellement ?

    Comment garantir que l’automatisation ne renforce pas des biais existants dans les processus de ressources humaines ?

    Le changement de nom du logiciel atténue-t-il réellement son impact social ou s'agit-il simplement d'un exercice de communication ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  6. #6
    Membre confirmé
    Homme Profil pro
    autre
    Inscrit en
    Juin 2014
    Messages
    288
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Aveyron (Midi Pyrénées)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Juin 2014
    Messages : 288
    Par défaut
    Beaucoup de choses me viennent en tête après la lecture de cet article.
    Je vais essayer de faire bref et de ne pas trop m'étaler :
    Nous ne sommes pas des machines.

    Cette phrase a l'air bête mais je vous assure qu'elle est pleine de sens. On a l'impression que ce qu'on connaît a toujours été mais ce n'est pas le cas.

    Penser que gouverner un pays ça se résume à gérer des comptes, licencier des gens pour rétablir une balance budgétaire ? Peut-être. Je sais pas. Mais en tout cas c'est pas ma vision.

    Ce qui est sûr, c'est que refuser de penser notre société autrement que par un aspect économique, c'est dur. C'est refuser l'humain. Comment tu peux espérer construire une société en retirant l'humain de l'équation ?
    Je suis pas naïf même si je suis en train de faire un discours de Bisounours. Je sais que notre société est complexe (une putain de planète entière quoi !). Mais une pensée me vient forcément en tête : on a passé quelques siècles (une paille dans notre histoire) a développer et perfectionner tout un tas de technologies qui étaient censées nous libérer de l'asservissement du travail. Pour quoi faire ? Je vous le donne en mille : vivre. Hé bah maintenant que c'est fait, on peut passer à autre chose et utiliser notre savoir faire pour faire évoluer collectivement notre société ? Chercher des réponses à nos problèmes plutôt que d'essayer de se les cacher parce que c'est plus rentable à court terme ?
    Ha bah nan, c'est vrai, on peut pas. C'est plus simple et plus rentable d'ouvrir des conflits pour protéger ses intérêts que d'ouvrir le dialogue et ouvrir la voie à un projet commun*.

    Finalement c'était pas moi l'antisocial.



    * : malgré le ton je ne fais de leçon à personne, ce que je constate à l'échelle globale on le retrouve facilement dans notre quotidien.

    PS : j'ai pris le temps de lire l'article, j'ai bien vu que c'était une "mise à jour logicielle", pas un nouveau décret de Trump.

  7. #7
    Membre très actif

    Profil pro
    Inscrit en
    Mai 2003
    Messages
    327
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Mai 2003
    Messages : 327
    Billets dans le blog
    1
    Par défaut
    Quand on atteint des niveaux d'organisation qui gère des dizaines de milliers de personnes, voire des centaines de milliers, et que l'on veut entreprendre de grands changements, alors ce genre de programme me semble adapté. Il est plus simple de ne rien entreprendre de grand, c'est sûr.

    Et autre point, personnellement je préfère être viré par un algorithme 'aveugle' plutôt que par un humain qui ne m'apprécie pas mon travail. Question de goût !

Discussions similaires

  1. Réponses: 159
    Dernier message: 11/05/2025, 11h01
  2. Réponses: 4
    Dernier message: 10/04/2025, 12h12
  3. Réponses: 0
    Dernier message: 03/03/2025, 13h16
  4. Réponses: 58
    Dernier message: 13/05/2020, 15h20
  5. Réponses: 47
    Dernier message: 08/08/2018, 12h24

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo