Le Texas commence à examiner l'impact potentiel de l'utilisation de l'IA dans son gouvernement.
Plus d'un tiers des agences publiques au Texas utilisent déjà une forme d’IA, selon un rapport du Département des ressources d’information (DIR) du Texas

Face aux craintes que l’IA puisse accroître les préjugés ou affecter la vie privée, l’État forme un comité consultatif pour recommander la manière dont la technologie est déployée. « Il va falloir établir des règles », a déclaré le fondateur du comité.

Lorsque la Texas Workforce Commission a été inondée de demandes d’allocations de chômage en mars 2020, elle s’est tournée vers l’intelligence artificielle.

Affectueusement nommé en l'honneur de l'ancien directeur de l'agence, Larry Temple, décédé un an plus tôt, le chatbot « Larry » a été conçu pour aider les Texans à s'inscrire aux allocations de chômage.

À l'instar d'une page FAQ de nouvelle génération, Larry répondrait aux questions générées par les utilisateurs sur les cas de chômage. À l’aide du traitement de langage de l’IA, le chatbot déterminerait quelle réponse pré-écrite par le personnel humain correspondrait le mieux à la formulation unique de la question par l’utilisateur. Le chatbot a répondu à plus de 21 millions de questions avant d'être remplacé par Larry 2.0 en mars dernier.

Larry est un exemple de la manière dont l’intelligence artificielle a été utilisée par les agences d’État. L'adaptation de la technologie au sein du gouvernement des États s'est développée ces dernières années. Mais cette accélération a également fait craindre des conséquences imprévues telles que des préjugés, une perte de confidentialité ou une perte de contrôle de la technologie. Cette année, le Parlement s’est engagé à jouer un rôle plus actif dans la surveillance de la manière dont l’État utilise l’IA.

« Cela va révolutionner totalement notre façon de gouverner », a déclaré le représentant de l'État Giovanni Capriglione, Républicain de Southlake, qui a rédigé un projet de loi visant à aider l'État à mieux utiliser la technologie de l'IA.

La création d'un conseil consultatif sur l'IA

En juin 2023, le gouverneur du Texas, Greg Abbott, a signé une loi créant un conseil consultatif sur l'intelligence artificielle, chargé de surveiller le développement, l'achat et l'utilisation de la technologie de l'IA au sein du gouvernement de l'État.

Créé par le projet de loi HB 2060, le conseil sera composé de sept membres et va évaluer la nécessité d'un code d'éthique national pour l'IA au sein du gouvernement de l'État, examiner les systèmes de décision automatisés, évaluer les avantages et les risques et recommander des mesures administratives. Le projet de loi demande que les membres du comité soient issus du monde universitaire, des forces de l’ordre et du domaine juridique.

Amanda Crawford, directrice de l'information de l'État et directrice du Département des ressources informationnelles, ou sa déléguée, fera également partie du conseil.

« Alors que l'IA devient de plus en plus répandue en tant qu'outil révolutionnaire dans nos vies et au sein de notre main-d'œuvre, nous devons garantir que cette technologie est développée de manière responsable et éthique au Texas pour contribuer à stimuler l'économie en croissance de notre État », a déclaré le gouverneur Abbott. « Pour protéger la vie privée et les libertés civiles fondamentales des Texans, j'ai signé une loi créant le Conseil consultatif sur l'intelligence artificielle pour étudier et surveiller les systèmes d'intelligence artificielle développés ou utilisés par nos agences d'État. Le Conseil contribuera à consolider la position du Texas en tant que leader national en matière de technologie innovante, en garantissant que notre État continue de concevoir et d’utiliser la technologie d’IA la plus récente et la plus performante tout en donnant la priorité à la sécurité de tous les Texans ».

Nom : gouverneur.png
Affichages : 928
Taille : 227,5 Ko

Plus d'un tiers des agences de l'État du Texas utilisent déjà une forme d'intelligence artificielle

L'intelligence artificielle décrit une classe de technologie qui émule et s'appuie sur le raisonnement humain via des systèmes informatiques. Le chatbot utilise le traitement du langage pour comprendre les questions des utilisateurs et les faire correspondre à des réponses prédéterminées. Les nouveaux outils tels que ChatGPT sont classés comme IA générative car la technologie génère une réponse unique basée sur une invite de l'utilisateur. L’IA est également capable d’analyser de grands ensembles de données et d’utiliser ces informations pour automatiser des tâches auparavant effectuées par des humains. La prise de décision automatisée est au centre de HB 2060.

Plus d’un tiers des agences de l’État du Texas utilisent déjà une forme d’intelligence artificielle, selon un rapport de 2022 du Département des ressources d’information du Texas. La commission de l'emploi dispose également d'un outil d'IA pour les demandeurs d'emploi qui fournit des recommandations personnalisées sur les offres d'emploi. Diverses agences utilisent l'IA pour traduire des langues vers l'anglais et des outils de centres d'appels tels que la synthèse vocale. L’IA est également utilisée pour améliorer la cybersécurité et la détection des fraudes.

L'automatisation est également utilisée pour les travaux chronophages afin « d'augmenter le rendement et l'efficacité du travail », selon un communiqué du Département des ressources informationnelles (DIR). Un exemple de ceci pourrait être le suivi des dépenses budgétaires et des factures. En 2020, le DIR a lancé un centre d'excellence en IA visant à aider les agences publiques à mettre en œuvre davantage de technologies d'IA. La participation au centre du DIR est volontaire et chaque agence dispose généralement de sa propre équipe technologique, de sorte que l’étendue de l’automatisation et du déploiement de l’IA dans les agences publiques n’est pas suivie de près.

À l’heure actuelle, les agences de l’État du Texas doivent vérifier que la technologie qu’elles utilisent répond aux exigences de sécurité fixées par la loi de l’État, mais il n’existe aucune exigence spécifique en matière de divulgation sur les types de technologies ou la manière dont elles sont utilisées. HB 2060 exigera que chaque agence fournisse ces informations au conseil consultatif sur l’IA d’ici juillet 2024.

Nom : juillet.png
Affichages : 559
Taille : 15,6 Ko

Des inquiétudes au sujet des hallucinations de l'IA, d'un renforcement des biais...

« Nous voulons que les agences soient créatives », a déclaré Capriglione. Il est favorable à la recherche de davantage de cas d’utilisation de l’IA qui vont bien au-delà des chatbots, mais reconnaît qu’il existe des inquiétudes concernant la mauvaise qualité des données qui empêchent le système de fonctionner comme prévu : « Nous allons devoir définir certaines règles. »

À mesure que l’adoption de l’IA s’est développée, les inquiétudes concernant l’éthique et la fonctionnalité de la technologie ont également augmenté. Le conseil consultatif sur l’IA constitue la première étape vers la surveillance de la manière dont la technologie est déployée. Le conseil, composé de sept membres, comprendra un membre de la Chambre des représentants et du Sénat, un directeur exécutif et quatre personnes nommées par le gouverneur et possédant une expertise en matière d'IA, d'éthique, d'application de la loi et de droit constitutionnel.

Samantha Shorey est professeure adjointe à l'Université du Texas à Austin et a étudié les implications sociales de l'intelligence artificielle, en particulier celle conçue pour une automatisation accrue. Elle craint que si la technologie est habilitée à prendre davantage de décisions, elle risque de reproduire et d’exacerber les inégalités sociales : « Cela pourrait nous amener plus rapidement vers l’objectif final. Mais est-ce que cela nous amène vers un objectif final que nous souhaitons ? »

Les partisans d’une utilisation accrue de l’IA considèrent l’automatisation comme un moyen de rendre le travail du gouvernement plus efficace. L’exploitation des dernières technologies pourrait contribuer à accélérer la gestion des dossiers pour les services sociaux, à fournir des résumés immédiats de longues analyses politiques ou à rationaliser le processus d’embauche et de formation des nouveaux employés du gouvernement.

Cependant, Shorey se montre prudent quant à la possibilité que l'intelligence artificielle soit introduite dans les processus décisionnels, tels que la détermination des personnes éligibles aux prestations sociales ou la durée de la libération conditionnelle d'une personne. Plus tôt cette année, le ministère américain de la Justice a commencé à enquêter sur des allégations selon lesquelles le modèle d’IA d’un comté de Pennsylvanie destiné à contribuer à améliorer la protection de l’enfance était discriminatoire à l’égard des parents handicapés et entraînait le retrait de leurs enfants.

Les systèmes d’IA « ont tendance à absorber les biais présents dans les données passées », a déclaré Suresh Venkatasubramanian, directeur du Center for Technology Responsibility de l’Université Brown. L’intelligence artificielle formée sur des données incluant tout type de préjugé sexiste, religieux, racial ou autre risque d’apprendre à discriminer.

...mais aussi d'un problème de confidentialité

Outre le problème des données erronées reproduisant les inégalités sociales, il existe également des problèmes de confidentialité liés à la dépendance de la technologie à la collecte de grandes quantités de données. Ce que l’IA pourrait faire avec ces données au fil du temps fait également craindre que les humains perdent un certain contrôle sur la technologie.

« Alors que l'IA devient de plus en plus complexe, il est très difficile de comprendre comment ces systèmes fonctionnent et pourquoi ils prennent des décisions comme ils le font », a déclaré Venkatasubramanian.

Cette crainte est partagée par Jason Green-Lowe, directeur exécutif du Center for AI Policy, un groupe qui a fait pression pour une sécurité plus stricte de l'IA à Washington DC. Avec le rythme accéléré de la technologie et le manque de surveillance réglementaire, a déclaré Green-Lowe, « nous pourrions bientôt nous retrouver dans un monde où l’IA dirige principalement. … Et le monde commence à se réorienter pour servir les intérêts de l'IA plutôt que ceux de l'humanité.»

Certains experts techniques sont cependant plus convaincus que les humains resteront aux commandes du déploiement croissant de l’IA. Alex Dimakis, professeur de génie électrique et d'informatique à l'Université du Texas à Austin, a travaillé au sein de la commission sur l'intelligence artificielle de la Chambre de commerce des États-Unis.

Selon Dimakis, les systèmes d’IA devraient être transparents et soumis à une évaluation indépendante connue sous le nom d’équipe rouge, un processus dans lequel les données sous-jacentes et le processus décisionnel de la technologie sont examinés par plusieurs experts pour déterminer si des mesures de sécurité plus robustes sont nécessaires.

« Vous ne pouvez pas vous cacher derrière l'IA », a déclaré Dimakis. Au-delà de la transparence et de l’évaluation, Dimakis a déclaré que l’État devrait appliquer les lois existantes contre quiconque a créé l’IA dans tous les cas où la technologie produit un résultat qui viole la loi : « appliquer les lois existantes sans se tromper sur le fait qu’un système d’IA se trouve au milieu ».

Le conseil consultatif sur l’IA soumettra ses conclusions et recommandations au Parlement d’ici décembre 2024. Entre-temps, l’intérêt pour le déploiement de l’IA à tous les niveaux de gouvernement augmente. Par exemple, le DIR gère un groupe d'utilisateurs de l'intelligence artificielle composé de représentants d'agences d'État, de l'enseignement supérieur et du gouvernement local intéressés par la mise en œuvre de l'IA.

Sources : gouverneur du Texas, HB 2060 (1, 2, 3), Texas Department of Information Resources

Et vous ?

Que pensez-vous de l'initiative de créer un conseil consultatif sur l'IA ? Une mesure inutile ou pertinente ?
Quels sont les avantages et les inconvénients de l’utilisation de l’IA dans le gouvernement ?
Quels sont les principes qui devraient guider le développement et le déploiement de l’IA dans le gouvernement ?
Quels sont les risques et les opportunités de l’IA pour la démocratie, les droits de l’homme et l’État de droit ?
Comment assurer la transparence, la responsabilité et la participation des citoyens dans les processus de décision impliquant l’IA dans le gouvernement ?
Comment renforcer la coopération et la coordination entre les acteurs nationaux et internationaux sur les questions liées à l’IA dans le gouvernement ?