Le DOGE d'Elon Musk recrute un étudiant sans diplôme et sans expérience pour l'aider à réécrire la réglementation sur le logement à l'aide de l'IA,
lui donnant accès à des bases de données confidentielles
Elon Musk a beau quitter Washington D.C., son initiative DOGE continue de sévir au sein du gouvernement, semant le chaos partout où elle passe. En voici un exemple : DOGE a embauché un « jeune homme sans expérience gouvernementale » pour aider à réviser les réglementations fédérales au sein du ministère du logement et du développement urbain. Cet homme, Christopher Sweet, n'a même pas encore obtenu son diplôme de premier cycle.
Contexte
Dans le détail, DOGE a donné à l’étudiant un accès en lecture à des bases de données critiques du HUD (bases sur le logement public et la vérification des revenus). Son rôle principal est de piloter un projet d’analyse algorithmique des règlements : le modèle d’IA parcourt le Code of Federal Regulations (eCFR) pour repérer des passages jugés excessifs par rapport aux lois qui sous-tendent ces règles.
En pratique, l’IA génère un rapport (sous forme de tableur) listant plus d’un millier d’entrées : pour chaque règlement visé, elle met en évidence le texte actuel, propose une formulation alternative et calcule des métriques (nombre de mots à supprimer, « taux de non-conformité » estimé, etc.). Ensuite, le personnel du HUD est invité à valider ou contester ces propositions : les équipes en charge du logement public (PIH) doivent examiner les suggestions de l’IA et expliquer tout désaccord, avant soumission finale au bureau du conseiller juridique de l’agence.
Embaucher de jeunes nerds de la technologie qui ne savent pas ce qu'ils font
Un jeune homme sans expérience gouvernementale qui n'a même pas encore obtenu son diplôme de premier cycle travaille pour le soi-disant Département de l'efficacité gouvernementale (DOGE) d'Elon Musk au sein du Département du logement et du développement urbain (HUD) et a été chargé d'utiliser l'intelligence artificielle pour réécrire les règles et réglementations de l'agence.
Christopher Sweet a été présenté aux employés du HUD comme étant originaire de San Francisco et plus récemment en troisième année à l'Université de Chicago, où il étudiait l'économie et la science des données, dans un courriel envoyé aux employés au début du mois d'avril.
« J'aimerais vous annoncer que Chris Sweet a rejoint l'équipe du HUD DOGE en tant qu'assistant spécial, bien qu'un meilleur titre pourrait être “analyste quantique en programmation informatique” », a écrit Scott Langmack, un employé du DOGE et directeur d'exploitation d'une société immobilière d'IA, dans un courriel largement partagé au sein de l'agence. « Avec des racines familiales brésiliennes, Chris parle couramment le portugais. Veuillez vous joindre à moi pour souhaiter la bienvenue à Chris au HUD ! »
Le rôle principal de Chris Sweet semble être de diriger un effort visant à tirer parti de l'intelligence artificielle pour examiner les réglementations du HUD, les comparer aux lois sur lesquelles elles sont basées et identifier les domaines dans lesquels les règles peuvent être assouplies ou supprimées complètement. Selon des sources au sein de l'agence, il a également reçu un accès en lecture à la base de données du HUD sur les logements publics, connue sous le nom de Centre d'information sur les logements publics et indiens, ainsi qu'à ses systèmes de vérification des revenus des entreprises.
Le recrutement de Sweet est tout à fait conforme au modus operandi général de DOGE, qui semble être le suivant : embaucher de jeunes nerds de la technologie qui ne savent pas ce qu'ils font, les lancer dans des activités juridiquement douteuses qui impliquent des processus gouvernementaux complexes, les regarder s'agiter et dire au public qu'ils font du bon travail.
Utilisation de l’IA dans le processus réglementaire
L’IA intervient ici à chaque étape de l’analyse des textes réglementaires. Les sources internes décrivent le processus suivant :
- Indexation du eCFR : le modèle parcourt automatiquement le Code of Federal Regulations, qui compile les règlements fédéraux, afin d’identifier les dispositions susceptibles d’être révisées.
- Comparaison avec la loi : chaque section réglementaire est comparée au texte législatif (loi-cadre) associé. L’IA cherche des cas de « sur-régulation » (overreach), c’est-à-dire des règles allant au-delà des objectifs de la loi sous-jacente.
- Génération de suggestions : pour chaque paragraphe ciblé, le modèle propose un langage alternatif ou des suppressions de phrases jugées superflues. Par exemple, il suggère de supprimer des mots ou phrases pour alléger le texte réglementaire, et formule un nouveau libellé plus concis lorsque c’est pertinent.
- Rapport automatisé : l’IA compile ces résultats dans un tableau structuré. Ce document indique le contenu original, la recommandation de l’IA et des indicateurs (nombre de mots supprimables, pourcentage de non-conformité estimé). WIRED a examiné un tel tableur : on y voit en colonnes le texte à ajuster, la suggestion de reformulation et divers calculs de conformité.
- Revue humaine : les équipes du HUD (notamment le bureau du logement public et indien) doivent relire ces suggestions et « justifier leurs objections » pour les modifications rejetées. Le processus s’achève après examen par le conseiller juridique du HUD qui valide les changements finals
Cette collaboration IA–humain est présentée comme un moyen d’augmenter l’efficacité (« openAI programming quant analyst » selon un courriel interne). Elle repose vraisemblablement sur un grand modèle de langage (LLM) avancé (par exemple GPT-4 ou modèle équivalent), adapté par des ingénieurs pour traiter de longs documents légaux. Le modèle doit pouvoir « creuser » les textes officiels et générer du langage réglementaire pertinent. En l’état, nous ne disposons pas d’informations publiques sur le modèle exact utilisé, mais la méthode semble combiner récupération d’informations (indexation du CFR) et génération de texte. L’IA produit un brouillon de révisions qui sert de base, puis l’expertise humaine oriente le résultat final.
Analyse technique
Puissance des LLM
Les grands modèles de langage peuvent gérer des requêtes complexes. On imagine que DOGE a utilisé un système permettant de poser decs questions ciblées au CFR (par exemple « Quels règlements se rattachent au Public Housing Act ?») et d’obtenir des réponses synthétiques. Des analyses récentes montrent que les GPT peuvent aider les législateurs à naviguer dans des textes volumineux : par exemple, on a suggéré d’interroger un GPT sur des références spécifiques du CFR pour en extraire les dispositions pertinentes. Ces outils peuvent accélérer la recherche de texte clé et la compréhension d’un cadre réglementaire étendu.
Approches complémentaires
Au-delà des LLM, des méthodes plus structurées existent. Des chercheurs de l’université du Maryland (UMBC) ont développé une IA fondée sur un graphe de connaissances sémantique pour analyser le CFR. Leur approche stocke les concepts et relations du code (lois, réglementations, termes-clés) dans une base ontologique (OWL), permettant d’interroger automatiquement les règles en langage naturel. Cela montre qu’on peut coupler IA et technologies Web sémantiques pour faciliter l’accès aux textes juridiques.
Limites des modèles génératifs
Les LLM ont des inconvénients notables. Leur « fenêtre de contexte » est finie (ils peinent à gérer de très longs documents en une seule requête) et ils peuvent produire des résultats erronés (« hallucinations »). Sans instructions et validation appropriées, un GPT peut générer des informations incorrectes ou hors sujet. En l’absence de certitude juridique, toute suggestion de l’IA doit être soigneusement vérifiée par des experts. De plus, ces modèles sont basés sur des données d’entraînement hétérogènes : un biais dans les sources (ou dans le mode d’entraînement) pourrait orienter leurs recommandations (par exemple favoriser la déréglementation ou refléter des préjugés inconscients).
Données et sécurité
Techniquement, intégrer un LLM dans des flux de travail gouvernementaux soulève des questions pratiques. Comment assure-t-on la confidentialité des données d’entrée (documents règlementaires, informations sensibles) tout en utilisant un service d’IA souvent externe ? Dans le cas DOGE, l’étudiant a lu des bases de données du HUD contenant des informations personnelles (revenus des locataires, etc.). Il faut garantir que l’IA respecte les règles de sécurité du gouvernement (stockage privé, réseaux internes, etc.).
Outil d'évaluation
Enfin, commenter et mesurer la « non-conformité » qu’affiche l’outil dans le tableur pose question. Les indicateurs automatiques (pourcentages, mots à éliminer) sont probablement définis par le développeur. Sans transparence sur leur calcul, on ne sait pas exactement ce qu’ils signifient, ce qui peut affecter la confiance dans les résultats.
En résumé, sur le plan technologique le projet DOGE est faisable avec les moyens actuels : des logiciels existent pour indexer de gros volumes de texte légal et y appliquer des modèles de langage. Mais il exige un montage technique sophistiqué (intégration du CFR, prompts précis, interface d’export et de révision), et reste soumis aux faiblesses connues des IA génératives. Les professionnels de l'informatique pourront souligner qu’un outil ainsi conçu peut être utile pour éplucher rapidement des règlements, à condition d’être utilisé comme une aide à la décision plutôt que comme un arbitre final.
Cette initiative soulève aussi de nombreuses questions
L’algorithme employé et le processus exact de décision ne sont pas rendus publics. Les agents du HUD ne peuvent qu’espérer comprendre comment l’IA produit ses suggestions. Cela complique la contestation ou la révision indépendante de ses recommandations. De plus, faire retravailler les règlements en dehors du processus normal de consultation (APA) remet en cause la légitimité du résultat final. Un employé du HUD a d’ailleurs noté que cette refonte est « redondante », car l’agence avait déjà passé ces règles au « crible multipartite » exigé par la loi avant leur adoption initiale. Remettre en cause a posteriori le travail long et public de rédaction réglementaire pose question.
De plus, si une modification induite par l’IA devait entraîner un dysfonctionnement (par exemple une perte de protection pour les locataires), qui en porterait la responsabilité ? Le développeur de l’algorithme ? Le stagiaire ? Les cadres du HUD ? La question est d’autant plus sensible que l’IA n’est pas (encore) un acteur légal : seul un humain peut légalement promulguer une norme. En l’espèce, ce sont les managers du HUD qui valident les changements, mais ils s’appuieraient alors sur du texte suggéré par une machine.
De plus, tout algorithme est biaisé par ses données et instructions. Ici, l’IA est explicitement chargée de cibler la « déréglementation » – c’est son objectif politique. Elle ne cherche pas l’équilibre mais l’allègement des règles. Des critiques y voient un outil au service d’une idéologie : on « chasse les règlements » d’un coup de baguette technologique. Les textes revus pourraient favoriser des intérêts privés (promoteurs immobiliers, investisseurs) au détriment de la protection des citoyens, surtout si l’algorithme ne prend pas en compte les valeurs sociales ou économiques encadrant chaque règlement.
Ensuite, le fait qu’un étudiant ait accès à des bases de données confidentielles (logements assistés, revenus des ménages) inquiète du point de vue de la vie privée. Des élus, tel que la représentante démocrate Maxine Waters, ont dénoncé publiquement ces pratiques. Elle accuse le DOGE d’avoir « infiltré » les agences du logement, « volant » des fonds publics, licenciant illégalement du personnel et accédant à des données confidentielles (notamment sur des victimes d’agressions).
Enfin, la pratique ici consiste à contourner les voies parlementaires et administratives habituelles. Au lieu de passer par des consultations publiques, ce sont des outils algorithmiques internes qui suggèrent des changements. Cela pose la question de la place des citoyens et des élus dans l’élaboration de la loi. Un membre du HUD s’interrogeait si les propositions de l’IA seraient soumises à une nouvelle « notice and comment » (consultation publique) – essentiel pour respecter l’Administrative Procedure Act. Sans cela, on outrepasse les garde-fous démocratiques.
Conclusion
S'adressant aux journalistes à la Maison Blanche mercredi, Elon Musk a admis que l'initiative était loin d'avoir tenu sa promesse de réduire les dépenses de 2 000 milliards de dollars et qu'elle avait commis de nombreuses erreurs. « Je pense que nous faisons les choses correctement dans 70 à 80 % des cas », a-t-il déclaré. Ce n'est pas un très bon taux de réussite lorsque la vie de millions de personnes dépend de programmes gouvernementaux.
Tout cela semble confirmer une théorie selon laquelle DOGE n'est pas vraiment intéressée par l'amélioration de l'efficacité du gouvernement, mais essaie en fait de détruire un grand nombre d'agences. Un tel mandat l'alignerait mieux sur le projet politique défini pendant la campagne de Trump : le projet libertaire de droite 2025, qui a cherché à réduire tous les besoins de l'État, sauf le strict nécessaire.
Sources : UMBC, Wired
Et vous ?
Y a-t-il des modèles d’IA qui vous semblent adaptés à la réécriture réglementaire ? Si oui, lesquels ? Peut-on faire confiance à des LLM généralistes comme GPT-4, ou faut-il des modèles spécialisés entraînés sur des corpus juridiques ?
Quelles méthodes de validation technique peuvent garantir la fiabilité des suggestions générées ?
Comment s’assurer que l’IA n’introduit pas de biais invisibles ou « d'hallucinations » réglementaires dans des textes aussi sensibles ?
Peut-on confier des décisions réglementaires à une IA, même partiellement ? Quelle place donner à la machine dans un processus qui engage des droits humains fondamentaux ?
Qui est responsable juridiquement en cas d’erreur issue d’un texte modifié par une IA ? Le développeur, l’utilisateur ou l’administration ?
Partager