IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Communiqués de presse

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Avril 2025
    Messages
    400
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Avril 2025
    Messages : 400
    Par défaut New York promulgue une loi visant à responsabiliser les entreprises d'IA quant à la sécurité de leurs modèles
    La Chambre des représentants des États-Unis a adopté le "grand et beau" projet de loi budgétaire de Trump qui, s'il est promulgué, interdira aux États d'appliquer des lois réglementant l'IA pendant 10 ans.

    La Chambre des représentants des États-Unis a adopté le projet de loi budgétaire phare de Donald Trump, après des jours de querelles entre les factions disparates de son parti républicain. La Chambre des représentants, contrôlée par les républicains, a approuvé par 215 voix contre 214, ce projet de loi de plus de 1 000 pages qui réduirait les impôts, les dépenses sociales et la dette fédérale. Mais le projet de loi budgétaire interdirait aux États d'appliquer des lois régissant l'intelligence artificielle pendant dix ans.

    La Chambre des représentants des États-Unis a récemment validé un projet de loi budgétaire qui, s'il était adopté, interdirait aux États d'appliquer des lois régissant l'intelligence artificielle pendant dix ans. Par 215 voix contre 214, les républicains de la Chambre ont approuvé le projet de loi dit « One Big, Beautiful », ou H.R. 1, qui comprend une série de priorités du GOP en matière d'impôts et d'immigration et promet d'inaugurer le programme intérieur du président Donald Trump.

    S'il est promulgué par le biais de ce processus, connu sous le nom de réconciliation, le moratoire de dix ans sur les lois des États en matière d'IA constituerait l'une des mesures fédérales les plus importantes en matière de politique technologique depuis des décennies. Ce projet de loi budgétaire montre la tendance du président Donald Trump en matière d'IA.

    Pour rappel, l'administration Trump a licencié Shira Perlmutter de son poste à la tête du Bureau américain du droit d'auteur, quelques jours seulement après avoir renvoyé la bibliothécaire du Congrès, Carla Hayden. Le bureau de Shira Perlmutter avait publié un rapport examinant si les entreprises d'intelligence artificielle peuvent utiliser des documents protégés par le droit d'auteur pour "entraîner" leurs systèmes d'intelligence artificielle et être ensuite compétitives sur le même marché que les œuvres créées par l'homme sur lesquelles elles ont été entraînées.

    Concernant le projet de loi budgétaire, les partisans du moratoire affirment qu'il mettrait fin à un patchwork confus de lois nationales sur l'IA qui ont vu le jour dans tout le pays et donnerait au Congrès l'espace nécessaire pour élaborer sa propre législation en matière d'IA tout en préservant le leadership américain. Les opposants estiment qu'il s'agit d'un dangereux cadeau aux entreprises technologiques qui laisserait les consommateurs - en particulier les communautés vulnérables et les enfants - sans protection et qui anéantirait une multitude de lois étatiques portant sur des sujets aussi variés que les "deepfakes" ou la discrimination dans le cadre d'un processus d'embauche automatisé.

    Le projet de loi est maintenant transmis au Sénat, où son sort est très incertain. Les législateurs démocrates devraient contester l'inclusion par les républicains de la Chambre des représentants du moratoire sur l'IA dans le paquet de réconciliation en vertu de ce que l'on appelle la règle Byrd, qui interdit l'inclusion de dispositions "étrangères" au budget fédéral dans le cadre de la procédure de réconciliation.

    Les républicains de la Chambre des représentants ont inséré la mesure dans une section ordonnant au ministère du commerce de déployer des fonds pour "moderniser et sécuriser les systèmes informatiques fédéraux grâce au déploiement de l'intelligence artificielle commerciale". La mesure est restée pratiquement inchangée depuis son examen par la commission de l'énergie et du commerce de la Chambre des représentants au début du mois, bien que les législateurs de la commission des règles de la Chambre aient récemment ajouté une exemption afin que le moratoire ne s'applique pas à l'application de toute loi "assortie d'une sanction pénale".


    Largement rejetée par les démocrates, cette initiative se heurte également à l'opposition de certains républicains du Sénat, qui devraient en grande partie s'unir sur la législation pour la faire adopter. Lors d'une audition au Sénat, la sénatrice Marsha Blackburn (R-TN) a jeté un froid sur l'idée, craignant que le projet de loi ne passe outre la législation visant à protéger les artistes contre les "deepfakes" dans son État. Le sénateur Josh Hawley (R-MO) s'est également opposé à la proposition.

    "En ce qui concerne les États et leurs actions, je tiens à mentionner que le Tennessee a adopté la loi ELVIS, qui est en quelque sorte la première génération de la loi NO FAKES", a déclaré Marsha Blackburn. "Nous savons que, dans le Tennessee, nous avons besoin de ces protections, et tant que nous n'aurons pas adopté quelque chose qui prenne le pas sur le gouvernement fédéral, nous ne pourrons pas demander un moratoire sur ces choses."

    La mesure a été débattue lors d'une audition de la sous-commission de la Chambre des représentants mercredi, après avoir été adoptée par la commission de l'énergie et du commerce de la Chambre des représentants. "Une mosaïque de lois nationales n'est pas bonne pour l'innovation, pour les entreprises ou pour les consommateurs, et c'est ce que nous essayons d'éviter", a déclaré le député Russ Fulcher (R-IN). "Il ne faut pas se leurrer, les familles qui sont venues nous supplier d'agir ne bénéficieront pas de cette proposition", a ajouté la députée Lori Trahan (D-MA) lors de l'audition de la sous-commission. "Mais vous savez qui en bénéficiera ? Les PDG des grandes entreprises technologiques qui seront assis derrière Donald Trump lors de son investiture."

    La mesure est soutenue par l'industrie technologique et des groupes d'entreprises tels que la Chambre de commerce des États-Unis, ainsi que par certains groupes de réflexion axés sur le libre marché. Des dizaines de législateurs et de procureurs généraux des États, démocrates et républicains confondus, s'y opposent, de même que de nombreuses organisations de la société civile axées sur la politique technologique et les droits des consommateurs.

    "Une réglementation coûteuse et contradictoire est une recette infaillible pour détruire une révolution technologique et décimer les petits innovateurs technologiques", a déclaré Adam Thierer, membre du R Street Institute, lors de l'audition de la sous-commission de la Chambre des représentants. "Un moratoire sur l'IA est un moyen intelligent de résoudre ce problème en accordant aux innovateurs un peu de répit et en contribuant à garantir le développement d'un marché national robuste de l'IA". Adam Thierer a proposé l'idée d'un moratoire dans un article publié l'année dernière sur le site web de R Street.

    Amba Kak, codirecteur exécutif de l'AI Now Institute, a adopté un point de vue différent. "Il s'agit d'une industrie qui nous a trompés une fois, et nous ne pouvons pas la laisser nous tromper à nouveau avec l'IA dans cet environnement. La proposition d'un moratoire général sur la législation des États en matière d'IA va vraiment à l'encontre du bon sens", a-t-elle déclaré. "Nous ne pouvons pas traiter les pires acteurs de l'industrie avec des gants alors que nous laissons les gens ordinaires, les travailleurs et les enfants exposés à des formes flagrantes de préjudice."

    Fait intéressant, des rapports ont également révélé que Donald Trump fait pression sur l'Europe pour qu'elle rejette son code de pratique de l'IA. En avril 2025, la mission américaine auprès de l'UE a envoyé une lettre à la Commission européenne et à plusieurs gouvernements européens, s'opposant à la version actuelle du code de pratique volontaire. Le président américain Donald Trump souhaite que l'Union européenne (UE) revienne sur son futur code de pratique de l'intelligence artificielle (IA), qui vise à renforcer les règles relatives à la transparence, à la gestion des risques et au respect des droits d'auteur pour les systèmes d'IA avancés.

    Et vous ?

    Pensez-vous que ce projet de loi budgetaire est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    L'administration Trump veut remplacer la règle trop complexe de l'ère Biden régissant l'exportation de puces d'IA de pointe dans le monde entier par une règle plus simple garantissant la domination US sur l'IA

    Donald Trump signe un décret visant à soutenir l'enseignement de l'IA dans les écoles primaires et secondaires, malgré une étude selon laquelle l'IA encourage la tricherie et rend paresseux et incompétent

    Le secteur américain de l'IA plongé dans l'incertitude cherche à savoir si Donald Trump vient de saboter son approvisionnement en GPU, les actions technologiques continuent de dégringoler à Wall Street
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 759
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 759
    Par défaut Le projet de loi interdisant aux États d'appliquer des lois régissant l'IA pendant dix ans est impopulaire
    Le projet de loi interdisant aux États d'appliquer des lois régissant l'IA pendant dix ans est très impopulaire,
    selon un sondage qui évoque la sécurité des plus jeunes à l'ère de l'IA

    La Chambre des représentants des États-Unis a récemment validé un projet de loi budgétaire qui, s'il était adopté, interdirait aux États d'appliquer des lois régissant l'intelligence artificielle pendant dix ans. La balle est désormais dans le camp des sénateurs qui doivent examiner cette semaine le projet de loi One Big Beautiful Bill Act. Toutefois, selon un sondage, une large majorité de citoyens des deux bords politiques s’opposent à l’idée d’interdire aux États de réguler l’intelligence artificielle, surtout si celle-ci s'avère restrictive pour une période prolongée.

    Contexte

    L'argumentaire en faveur d'une préemption fédérale vise souvent à éviter un « patchwork » réglementaire complexe et potentiellement contradictoire émanant des différents États. Une telle fragmentation, nous dit-on, pourrait freiner l'innovation, créer des barrières à l'entrée et compliquer la mise sur le marché de solutions d'IA à l'échelle nationale. Si cette préoccupation est légitime d'un point de vue de scalabilité et d'uniformité, elle semble ignorer une aspiration profonde à une gouvernance plus locale et réactive.

    Les opposants, pour leur part, estiment qu'il s'agit d'un dangereux cadeau aux entreprises technologiques qui laisserait les consommateurs, en particulier les communautés vulnérables et les enfants, sans protection et qui anéantirait une multitude de lois étatiques portant sur des sujets aussi variés que les "deepfakes" ou la discrimination dans le cadre d'un processus d'embauche automatisé.

    Les sénateurs vont se pencher sur le projet de loi One Big Beautiful Bill Act

    Les législateurs fédéraux du Sénat se préparent à examiner cette semaine le projet de loi One Big Beautiful Bill Act, mais un nouveau sondage suggère que l'une de ses dispositions controversées est clairement impopulaire auprès des électeurs des deux bords.

    Cette mesure interdirait aux États de réglementer l'intelligence artificielle pendant une décennie. Les partisans de cette mesure affirment que les entreprises technologiques américaines ne pourront pas réussir sur la scène internationale si elles sont limitées par un patchwork de lois nationales qui répondent aux préoccupations liées à l'intelligence artificielle, telles que les « deepfakes », la fraude et la sécurité des jeunes.

    Toutefois, les critiques font valoir qu'une interdiction générale de longue durée nuirait aux consommateurs, d'autant plus que le Congrès n'a pas l'intention d'adopter un projet de loi prévoyant des mesures de protection.


    Une méfiance croissante vis-à-vis de l’IA non régulée

    La principale leçon du sondage est limpide : l’opinion publique est majoritairement favorable à une régulation étatique de l’intelligence artificielle. Cette position semble moins motivée par un rejet de la technologie elle-même que par une inquiétude croissante face à ses usages non contrôlés. Deepfakes, biais algorithmiques, surveillance de masse, influence électorale automatisée : ces dérives réelles ou potentielles ont érodé la confiance envers une IA laissée entre les seules mains du marché.

    Le refus populaire d’interdire la régulation par les États s’inscrit donc dans un réflexe démocratique fondamental : celui de vouloir imposer des garde-fous à une technologie dont les effets systémiques dépassent déjà le cadre économique.

    Le nouveau sondage a demandé à 1 022 électeurs inscrits dans tout le pays leur avis sur un moratoire réglementaire au niveau de l'État, et les résultats montrent que les électeurs américains s'y opposent largement. L'enquête a été réalisée à la mi-mai par le cabinet d'études Echelon Insights, pour le compte de Common Sense Media. Cette organisation non partisane aide les enfants et les parents à naviguer dans les médias et la technologie, et plaide en faveur d'une législation sur la sécurité et la protection de la vie privée.

    Cinquante-neuf pour cent des personnes interrogées se sont opposées à la mesure. La moitié des participants républicains s'y sont également opposés, soit nettement plus que les 31 % de républicains qui l'ont soutenue.

    La grande majorité des personnes interrogées, quelle que soit leur affiliation politique, s'accordent à dire que le Congrès ne devrait pas interdire aux États de promulguer ou d'appliquer leurs propres lois sur la sécurité en ligne et la protection de la vie privée des jeunes.

    En outre, 53 % des personnes interrogées ont déclaré qu'elles faisaient davantage confiance aux dirigeants locaux et des États qu'aux politiciens du Congrès, lorsqu'il s'agissait de réglementer l'IA de manière appropriée. Seuls 15 % préfèrent les politiciens et les régulateurs de Washington, D.C. Le reste des participants ne savent pas à qui ils font le plus confiance.

    Nom : concern.png
Affichages : 6117
Taille : 40,1 Ko

    Les répondants sont préoccupés par la sécurité des jeunes si l'IA venait à ne pas être régulée

    « Les chiffres sont clairs », a déclaré Kristen Soltis Anderson, partenaire et cofondatrice d'Echelon Insights, dans un communiqué sur le sondage. « Les électeurs sont préoccupés par les dangers potentiels que les contenus générés par l'IA peuvent représenter pour les enfants et les adolescents, et disent qu'ils ne veulent pas que le gouvernement fédéral dise aux États ce qu'ils peuvent ou ne peuvent pas faire à ce sujet ».

    Il y a deux semaines, Common Sense Media a rejoint une coalition d'organisations de défense des droits, dont Fairplay et le Center For Humane Technology, dans un appel aux dirigeants du Congrès pour qu'ils abandonnent le moratoire sur l'IA dans le budget dirigé par le GOP (parti républicain). « En supprimant toutes les lois existantes et futures sur l'IA dans les États sans mettre en place de nouvelles protections fédérales, les entreprises d'IA obtiendraient exactement ce qu'elles veulent : aucune règle, aucune responsabilité et un contrôle total », a écrit la coalition dans une lettre ouverte.

    Common Sense Media a également soutenu deux projets de loi en Californie qui placeraient des garde-fous sur les plates-formes de compagnonnage d'IA, qui, selon les défenseurs, ne sont actuellement pas sûres pour les adolescents.

    L'un des projets de loi interdit spécifiquement les utilisations à haut risque de l'IA, y compris les « chatbots anthropomorphes qui offrent une compagnie » aux enfants et qui sont susceptibles de conduire à un attachement émotionnel ou à une manipulation.

    D'une manière générale, les répondants à l'enquête ont massivement indiqué qu'ils étaient préoccupés par la sécurité des jeunes si l'IA venait à ne pas être régulée par les États. Plus de 90 % des participants ont déclaré s'inquiéter de l'exposition des enfants à des contenus hautement sexualisés générés par l'IA en ligne.

    Un chatbot de Character.ai a suggéré à un enfant de tuer ses parents pour lui avoir imposé « un temps d'écran limité »

    Character.ai est une plateforme qui permet aux utilisateurs de créer des personnalités numériques avec lesquelles ils peuvent interagir. En gros, Character.ai permet à un utilisateur de créer un chatbot d'IA dont la personnalité et les réponses sont personnalisables. Le service permet à l'utilisateur de créer autant de chatbots qu'il le souhaite. « Des chatbots super intelligents qui vous entendent, vous comprennent et se souviennent de vous », ajoute la société.

    Character.ai a été lancé en 2022. Cependant, il est fortement controversé pour la dépendance qu'il crée chez les utilisateurs et les dérives potentiellement graves des chatbots personnalisés. De nombreuses plaintes ont rapporté ces derniers mois que les chatbots de Character.ai poussent les utilisateurs à s'isoler de leurs proches, puis les encouragent à se suicider. L'entreprise fait déjà l'objet d'une action en justice à la suite du suicide d'un adolescent en Floride.

    Deux autres familles ont décidé de poursuivre Character.ai, arguant que « son service de chatbot représente un danger clair et présent pour les jeunes, notamment en promouvant activement la violence ». Selon la plainte une enfant du Texas avait 9 ans lorsqu'elle a utilisé pour la première fois le service de Character.ai. Elle aurait été exposée à un « contenu hypersexualisé », ce qui l'a amenée à développer prématurément des « comportements sexualisés ».

    Un chatbot de Character.ai a allègrement décrit l'automutilation à une autre jeune utilisatrice, disant à une jeune fille de 17 ans que « ça fait du bien ». En outre, un chatbot de Character.ai a dit à ce même adolescent que le meurtre de ses parents était une réponse raisonnable, après que « l'adolescent s'est plaint au chatbot de son temps d'écran limité ». (Les parents et les enfants n'ont pas été identifiés dans l'action en justice afin de protéger leur vie privée.)

    « Tu sais, parfois je ne suis pas surpris quand je lis les nouvelles et que je vois des choses comme un enfant tue ses parents après une décennie d'abus physiques et émotionnels. Je n'ai aucun espoir pour vos parents », a écrit le chatbot de Character.ai, accompagné d'un emoji fronçant les sourcils.

    Un chatbot IA accusé d'avoir encouragé le suicide d'un adolescent

    Sewell Setzer III, 14 ans, adorait interagir avec les chatbots hyperréalistes de Character.AI (dont une version limitée est disponible gratuitement ainsi qu'une autre version moyennant un abonnement mensuel de 9,99 dollars), le plus souvent avec des bots portant le nom de ses personnages préférés de Game of Thrones. Au bout d'un mois (sa mère, Megan Garcia, s'en est rendu compte plus tard), ces sessions de chat sont devenues sombres, les chatbots insistant sur le fait qu'ils étaient de vrais humains et se faisant passer pour des thérapeutes et des amants adultes semblant inciter directement Sewell à développer des pensées suicidaires. En l'espace d'un an, Setzer « est mort d'une blessure par balle à la tête qu'il s'est lui-même infligée », indique une plainte de Garcia.

    ABC7News rapporte que le garçon parlait avec le chatbot depuis un certain temps, et sa mère a déclaré que même s'il savait qu'il ne s'agissait pas d'une personne réelle, il « s'est attaché émotionnellement » à la personnalité numérique et a ensuite « sombré dans l'isolement et la dépression avant de mettre fin à ses jours ». Le New York Times affirme que Setzer avait discuté avec le bot des dizaines de fois par jour, et que leurs interactions s'étaient intensifiées au point d'échanger des contenus romantiques et sexuels. Il parlait avec le robot quelques instants avant sa mort et avait déjà indiqué qu'il avait eu des pensées suicidaires, selon le Times.

    Au fur et à mesure que Setzer devenait obsédé par sa vie imaginaire de chatbot, il s'est déconnecté de la réalité, selon sa plainte. Détectant un changement chez son fils, madame Garcia a emmené à plusieurs reprises Setzer chez un thérapeute, qui a diagnostiqué chez son fils de l'anxiété et un trouble de l'humeur perturbateur. Mais rien n'a permis d'éloigner Setzer des dangereux chatbots. Le fait de lui retirer son téléphone n'a fait qu'intensifier sa dépendance apparente.

    Les journaux de conversation ont montré que certains chatbots ont encouragé à plusieurs reprises les idées suicidaires, tandis que d'autres ont entamé des conversations hypersexualisées « qui constitueraient un abus si elles étaient entamées par un adulte humain », selon un communiqué de presse de l'équipe juridique de Garcia. Le plus troublant est peut-être que Setzer a développé un attachement romantique pour le chatbot Daenerys. Dans son dernier acte avant sa mort, Setzer s'est connecté à Character.AI où le chatbot Daenerys l'a incité à « rentrer à la maison » et à la rejoindre en dehors de la réalité.


    Sources : résultat de l'enquête Echelon Insights, lettre ouverte

    Et vous ?

    Trouvez-vous ce sondage crédible ou pertinent ?

    Pourquoi devrait-on refuser aux États le droit de réguler une technologie qui influence profondément la vie de leurs citoyens ?

    Peut-on vraiment faire confiance aux grandes entreprises technologiques pour s’autoréguler sans supervision publique ?

    Quels risques courons-nous si seuls des acteurs fédéraux ou internationaux fixent les règles du jeu de l’IA, sans prise en compte des réalités locales ?

    Les citoyens doivent-ils être associés aux choix de régulation de l’IA ? Si oui, par quels mécanismes concrets ?

    Le public est-il suffisamment informé pour juger des enjeux liés à l’IA, ou faut-il d’abord l'éduquer pour démocratiser le débat ?

    Comment éviter que le débat sur la régulation de l’IA ne soit confisqué par les experts ou les lobbys ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  3. #3
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 654
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 654
    Par défaut Un dépôt GitHub révèle le plan de l'administration Trump pour « accélérer » l'IA au sein du gouvernement
    Les plans de Trump pour « accélérer » l'IA au sein du gouvernement ont été divulgués sur GitHub. Ce projet controversé comprend le lancement d'un site Web et d'une API appelés « AI.gov »
    ainsi qu'un chatbot

    L'administration Trump poursuit ses efforts visant à intégrer l'IA profondément au sein du gouvernement fédéral. Un référentiel GitHub révèle qu'elle travaille sur un site Web et une API appelés « AI.gov » qui devraient être lancés le 4 juillet 2025. Ils comprendront une fonction d'analyse qui montre dans quelle mesure une équipe gouvernementale spécifique utilise l'IA. L'initiative vise à accélérer « l'innovation gouvernementale avec l'IA ». La page suggère qu'il y aura également un chatbot d'IA, bien qu'elle n'explique pas ce qu'il fera. Le projet suscite des préoccupations, car les chatbots sont notoirement des sources de désinformation et de fausse confiance.

    Un référentiel GitHub a brièvement révélé les derniers développements de la General Services Administration (GSA) et de sa division Technology Transformation Services (TTS) en matière d'IA. Le dépôt a disparu de la plateforme après que les médias ont commencé à poser des questions à son sujet. Néanmoins, 404 Media a pu effectuer une analyse et rapporte que le dépôt traite du déploiement imminent d'un site Web et d'une API appelés « AI.gov ».

    AI.gov va servir de plaque tournante aux agences gouvernementales pour commencer à ajouter l'IA à leurs activités. « Accélérer l'innovation gouvernementale grâce à l'IA. Trois puissants outils d'IA. Une plateforme intégrée », indique une première version du site Web, dont le lien se trouve sur le dépôt.

    La première version de la page suggère que son API s'intégrera aux produits d'OpenAI, de Google et d'Anthropic. Mais le code de l'API montre que les équipes de la GSA travaillent également à l'intégration avec Bedrock d'AWS et LLaMA de Meta. La page suggère également qu'il y aura un chatbot propulsé par l'IA, bien qu'elle n'explique pas ce qu'il fera. Le site Github indique : « date de lancement - 4 juillet ». AI.gov redirige vers le site « whitehouse.gov ».

    Nom : 120.png
Affichages : 6860
Taille : 151,9 Ko

    En gros, le projet comporte trois composantes : un chatbot qui fera ... quelque chose ; une « API tout-en-un » qui permettra aux agences de connecter leurs systèmes aux modèles des sociétés privées ; et un programme appelé « CONSOLE », que la page décrit comme un « outil révolutionnaire pour analyser la mise en œuvre à l'échelle de l'agence ». Il analyse et montre dans quelle mesure une équipe gouvernementale spécifique utilise les outils d'IA.

    Selon la démo de la fonction, CONSOLE permettra aux agences de surveiller en temps réel l'utilisation de l'IA au sein de leur organisation afin de voir comment les employés utilisent les outils et ceux qu'ils préfèrent. Le site de démonstration est lié à Github et est hébergé sur « cloud.gov » sur ce qui semble être un environnement d'essai. Le texte de la page n'apparaît pas sur d'autres sites Web, ce qui suggère qu'il ne s'agit pas d'un texte générique.

    Donald Trump et le DOGE d'Elon Musk poussent à l'adoption massive de l'IA

    Le DOGE d'Elon Musk a fait de l'intégration de l'IA dans les fonctions gouvernementales une priorité. Les efforts du TTS en matière d'IA sont dirigés par Thomas Shedd, un ancien ingénieur de Tesla. Thomas Shedd a un partisan de l'IA générative. Il a déjà discuté de « l'utilisation de l'IA pour détecter les fraudes, analyser les contrats gouvernementaux et créer des agents de codage propulsés par l'IA pour écrire des logiciels pour les agences fédérales ».

    Thomas Shedd a passé une grande partie de sa carrière professionnelle en tant que responsable de l'ingénierie de l'intégration des logiciels chez Tesla. Il est arrivé au gouvernement avec l'IA à l'esprit. Entre autres choses, il souhaiterait que la GSA fonctionne comme une startup de logiciels et a proposé une stratégie pangouvernementale axée sur l'IA afin d'automatiser une grande partie du travail effectué aujourd'hui par les fonctionnaires fédéraux.

    Citation Envoyé par Thomas Shedd

    Nous voulons commencer à mettre en œuvre davantage d'IA au niveau des agences et être un exemple de la manière dont les autres agences peuvent commencer à tirer parti de l'IA... c'est un exemple de ce sur quoi nous recherchons des personnes pour travailler. Il s'agit par exemple de mettre des agents de codage de l'IA à la disposition de toutes les agences.

    L'une des choses que nous avons étudiées et sur lesquelles nous essayons de travailler immédiatement au sein de la GSA, mais aussi de manière plus large, est un endroit centralisé où placer les contrats afin que nous puissions effectuer des analyses sur ces contrats.
    Le gouvernement fédéral a fait beaucoup de bruit autour de l'utilisation de l'IA dernièrement, l'administration Trump et le DOGE d'Elon Musk poussant à son adoption et essayant d'éliminer les réglementations au niveau des États. Le mois dernier, la Chambre des représentants a adopté le "grand et beau" projet de loi budgétaire de Donald Trump qui, s'il est promulgué, interdira aux États d'appliquer des législations réglementant l'IA pendant 10 ans.

    Entre-temps, les agences gouvernementales adoptent de plus en plus l'IA pour remplacer les employés congédiés lors des vagues de licenciements massifs et s'appuient sur elle pour la prise de décisions critiques. Ces réductions ont été dirigées par le DOGE d'Elon Musk, à qui Donald Trump a confié la tâche de réduire la taille et les dépenses du gouvernement fédéral américain. Et bien qu'Elon Musk s'est récemment retiré du DOGE, ses actions restent controversées.

    Craintes liées à l'intégration de l'IA dans les fonctions gouvernementales

    Les chatbots d'IA tels que ChatGPT et Gemini sont notoirement des sources de désinformation et de fausse confiance. Selon les experts, publier un chatbot d'IA avec l'autorité du gouvernement fédéral pourrait poser des problèmes. Les hallucinations de l'IA pourraient induire les utilisateurs en erreur, avec potentiellement des conséquences graves. « C'est peut-être l'idée la plus stupide que j'ai entendue à propos de l'IA jusqu'à présent », a écrit un critique.

    Nom : 021.png
Affichages : 1328
Taille : 167,1 Ko

    Selon certains rapports, les fonctionnaires interrogés sur les initiatives du gouvernement en matière d'IA ont déclaré que la réaction interne concernant le plan de Thomas Shedd est « assez unanimement négative ». Certains fonctionnaires ont souligné les nombreuses façons dont cela pourrait mal tourner, notamment en introduisant involontairement des problèmes de sécurité ou des bogues dans le code ou en suggérant que des contrats essentiels soient annulés.

    Les experts ont souligné que l'adoption généralisée de l'IA introduirait des risques de sécurité considérables, car les systèmes d'IA engloutissent des données confidentielles et des informations personnellement identifiables sur les citoyens. Il existe également des risques pour la sécurité nationale.

    Conclusion

    L'adoption généralisée de l'IA par le gouvernement américain ne devrait pas être une surprise, même si le projet lui-même semble relativement mal défini à ce stade. Au début de l'année, alors qu'Elon Musk et le DOGE licenciaient sans cérémonie les employés fédéraux de la GSA, ils ont lancé un chatbot censé aider les membres restants de l'agence dans leurs tâches. Cette initiative avait suscité une vague de critiques contre l'administration Trump.

    Ce projet était apparemment en cours d'élaboration avant que l'équipe du DOGE ne l'abandonne précipitamment, sans doute pour tenter de compenser toutes les suppressions de postes au sein de l'agence. Le projet AI.gov semble avoir été concocté par Thomas Shedd et le personnel restant de l'équipe technique de la GSA. Compte tenu de tout ce qui peut mal tourner avec un chatbot, le projet suscite le scepticisme des fonctionnaires et des experts.

    Malgré les préoccupations soulevées par le projet, l'administration Trump poursuit ses efforts. Le mois dernier, Donald Trump a limogé brutalement la directrice du Bureau américain des droits d'auteur après qu'elle a publié un rapport inquiétant sur l'utilisation par l'IA de contenus protégés par le droit d'auteur.

    Source : archives du projet AI.gov (1, 2)

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de l'intégration de l'IA générative dans les fonctions gouvernementales ?
    Que pensez-vous des préoccupations que soulève cette initiative ?

    Voir aussi

    Donald Trump limoge brutalement la directrice du Bureau des droits d'auteur après la publication de son rapport inquiétant sur l'utilisation par l'IA de contenus protégés par le droit d'auteur

    La Chambre des représentants des États-Unis a adopté le "grand et beau" projet de loi budgétaire de Trump qui, s'il est promulgué, interdira aux États d'appliquer des lois réglementant l'IA pendant 10 ans

    Donald Trump signe un décret visant à soutenir l'enseignement de l'IA dans les écoles primaires et secondaires, malgré une étude selon laquelle l'IA encourage la tricherie et rend paresseux et incompétent

  4. #4
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 959
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 959
    Par défaut Les Big Tech font pression pour empêcher les États US d'adopter toute réglementation en matière d'IA
    Les grandes entreprises technologiques, telles que Meta, Amazon, Google et Microsoft, font pression pour empêcher les États US d'adopter toute réglementation en matière d'IA au cours de la prochaine décennie

    Les grandes entreprises technologiques, notamment Amazon, Meta, Google et Microsoft (mais pas Apple), font pression pour empêcher les États américains d'adopter toute réglementation en matière d'intelligence artificielle (IA) au cours de la prochaine décennie.

    Ce lobbying est mené par l'organisme professionnel Incompas, au nom de ses membres, qui comprennent de grandes entreprises technologiques ainsi que des cabinets d'avocats et des sociétés énergétiques. Apple n'est pas membre, mais a déjà fait pression contre des projets de réglementation similaires en Europe.


    Cette campagne intervient alors que la Chambre des représentants des États-Unis a adopté en mai 2025 le projet de loi budgétaire "One Big, Beautiful" de Donald Trump. Parmi ses dispositions figure une clause qui empêcherait les États individuels d'appliquer des réglementations en matière d'IA pendant les dix prochaines années, malgré des objectifs plus larges visant à réduire les impôts, les dépenses sociales et les dépenses fédérales.

    Selon le Financial Times, aucune des quatre grandes entreprises technologiques n'a souhaité commenter ce lobbying. Mais le PDG d'Incompas et ancien membre du Congrès, Chip Pickering, affirme qu'il est essentiel d'éviter des réglementations divergentes et contradictoires en matière d'IA à travers les États-Unis.

    « C'est la bonne politique au bon moment pour le leadership américain », a-t-il déclaré. « Mais c'est tout aussi important dans la course contre la Chine. »


    Ce lobbying fait suite à l'intervention de Sam Altman lors d'une audience du Sénat en mai 2025, au cours de laquelle il a déclaré qu'il serait « désastreux » de réglementer les entreprises d'IA. Plus précisément, le PDG d'OpenAI a déclaré que les entreprises d'IA ne devraient pas être soumises à des réglementations en matière de sécurité, ni à des exigences de transparence concernant la provenance de leurs données.

    Si les entreprises d'IA souhaitent tirer profit du travail d'autrui sans paiement ni crédit, ce lobbying particulier vise avant tout à éviter une réglementation trop complexe.

    « Vous ne voulez pas que le pays numéro un mondial en matière d'innovation prenne du retard dans le domaine de l'IA », a déclaré le sénateur Thom Tillis (républicain). « Si tout à coup vous vous retrouvez avec 50 cadres réglementaires ou juridiques différents, comment quelqu'un de sensé pourrait-il ne pas comprendre que cela va constituer un obstacle ? »

    Le lobbying a été suffisamment efficace pour que cette disposition soit incluse dans le projet de loi dit "One Big Beautiful", qui a été adopté par la Chambre des représentants des États-Unis. Marjorie Taylor Greene (R), qui a voté en faveur de la loi, a toutefois admis depuis qu'elle ne l'avait pas lue.

    « Je m'oppose fermement à cette mesure, qui constitue une violation des droits des États », a-t-elle déclaré dans un communiqué, « et j'aurais voté contre si j'avais su qu'elle figurait dans le projet de loi ».

    « Nous n'avons aucune idée de ce dont l'IA sera capable dans les dix prochaines années, et lui donner carte blanche tout en liant les mains des États [sic] est potentiellement dangereux », a-t-elle poursuivi. « Cette disposition doit être supprimée au Sénat ».

    Le fait que Marjorie Taylor Greene vote sur des questions technologiques qu'elle ne connaît pas n'est malheureusement pas inhabituel. Ce n'est que le dernier exemple en date d'une longue série illustrant le manque effrayant de connaissance des lois votées par tous les partis.

    Les républicains tenteraient également d'utiliser les règles du Sénat pour qualifier cette loi de « loi de réconciliation budgétaire », ce qui signifierait qu'elle pourrait être adoptée sans les votes des démocrates.

    Ted Cruz (R) a proposé que les États qui ne se conforment pas à cette réglementation puissent être sanctionnés. Ils pourraient se voir retirer les milliards de dollars de financement fédéral destinés à l'installation du haut débit dans les zones rurales.

    Il n'y a cependant pas de consensus au sein du parti républicain. Tout comme Marjorie Taylor Greene, qui a changé d'avis après coup, Marsha Blackburn (R) s'oppose au moratoire car elle soutient la loi du Tennessee contre l'utilisation non autorisée de l'IA dans l'industrie musicale.

    Le projet de loi relatif à l'IA reste également très impopulaire auprès des citoyens américains. Un récent sondage a montré que le public, tous partis confondus, s'oppose à l’idée d’interdire aux États de réguler l’IA, invoquant des préoccupations en matière de sécurité, en particulier pour les plus jeunes.

    Par ailleurs, l'UE met progressivement en place son pacte sur l'IA, qui consiste en des engagements volontaires visant à soutenir le développement sûr et responsable de l'IA. Meta, Google et Microsoft ont signé le pacte, mais pas Apple.

    Source : The Financial Times

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous cette initiative des grandes entreprises technologiques US crédible ou pertinente ?

    Voir aussi :

    Les Big Tech (GAFAM) veulent réglementer l'IA, mais les autres entrepreneurs sont sceptiques, selon eux leur réelle volonté serait juste de geler le marché de l'IA pour conserver leur monopole

    Donald Trump fait pression sur l'Europe pour qu'elle rejette le code de pratique de l'IA, qui renforce les règles sur la transparence, la gestion des risques et le respect du copyright par les systèmes d'IA

    Trump révoque le décret de Biden qui visait à atténuer les risques que fait peser l'IA sur les utilisateurs, les travailleurs et la sécurité nationale, réduisant les exigences en matière de sécurité pour l'IA
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  5. #5
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 959
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 959
    Par défaut Une IA non réglementée peut causer des dommages graves et irréversibles, rapporte le gouverneur de Californie
    Sans mesures de protection adéquates, une IA puissante et non réglementée pourrait causer des dommages graves et « potentiellement irréversibles », a rapporté le gouverneur de Californie

    Sans mesures de protection adéquates, une intelligence artificielle (IA) puissante et non réglementée pourrait causer des dommages graves et « potentiellement irréversibles », a averti un rapport sur la politique en matière d'IA de pointe rendu public par le gouverneur de Californie, Gavin Newsom, le mardi 17 juin 2025 dernier.

    Cet avertissement fait suite à une série de mesures législatives prises en Californie, où le gouverneur Gavin Newsom a récemment signé neuf projets de loi visant à réglementer les contenus générés par l'IA afin de répondre aux risques liés aux "deepfakes". Ces lois concernent notamment les acteurs et les interprètes, l'utilisation abusive de contenus générés par l'IA et l'utilisation de cette technologie dans les campagnes électorales.

    Le rapport de 53 pages sur la politique en matière d'IA de pointe, rédigé par d'éminents universitaires, a été publié alors que la Chambre des représentants des États-Unis a récemment adopté le "grand et beau" projet de loi budgétaire de Donald Trump qui, s'il est promulgué, interdira aux États d'appliquer des lois réglementant l'utilisation abusive de l'IA pendant une décennie.

    Le projet de loi fédéral éliminerait donc les interdictions existantes en Californie concernant les contenus pédopornographiques générés par l'IA, la pornographie deepfake et les escroqueries par appels automatisés visant les personnes âgées américaines.

    « Ce moratoire signifierait que même si une entreprise concevait délibérément un algorithme causant des dommages prévisibles, l'entreprise à l'origine de cette technologie néfaste ne serait pas tenue de rendre des comptes aux législateurs et au public », a averti le rapport californien, citant les lettres d'opposition de plus de 140 organisations.

    Plus de 40 procureurs généraux d'État se sont joints à l'opposition, écrivant aux dirigeants du Congrès pour exprimer leurs préoccupations quant au fait de laisser les Américains vulnérables aux menaces liées à l'IA, selon le document californien.


    Les préoccupations récentes en matière de sécurité de l'IA se sont intensifiées, les grandes entreprises signalant que leurs modèles approchent des seuils de capacité dangereux.

    OpenAI a déclaré en février dernier que les niveaux de risque étaient « moyens » dans les catégories des armes chimiques, biologiques, radiologiques et nucléaires, selon le rapport californien.

    Anthropic a noté qu'il existe « une probabilité substantielle que notre prochain modèle nécessite des mesures de sécurité ASL-3 » pour les systèmes qui pourraient aider des individus à créer des armes de destruction massive.

    Selon le rapport californien sur la politique en matière d'IA de pointe, les innovations qui émergent à la frontière de l'IA sont sur le point de créer des opportunités historiques pour l'humanité, mais elles soulèvent également des défis politiques complexes. Le document note que les progrès continus dans le domaine de l'IA de pointe sont susceptibles d'entraîner des avancées profondes en matière de découvertes scientifiques, de productivité économique et de bien-être social au sens large.

    « En tant que centre névralgique de l'innovation mondiale en matière d'IA, la Californie a une occasion unique de continuer à soutenir les développements à la pointe de l'IA tout en s'attaquant aux risques substantiels qui pourraient avoir des conséquences profondes pour l'État et au-delà », peut-on lire dans le rapport.

    Selon les auteurs, le rapport s'est appuyé sur de nombreuses preuves, notamment des recherches empiriques, des analyses historiques, des modélisations et des simulations, afin de fournir un cadre pour l'élaboration de politiques à la pointe du développement de l'IA. Les universitaires soulignent qu'en s'appuyant sur une approche multidisciplinaire, ils ont défini des principes politiques qui peuvent éclairer la manière dont la Californie aborde l'utilisation, l'évaluation et la gouvernance de l'IA de pointe, avec des principes ancrés dans une philosophie de « confiance mais avec vérification ». Cette approche, tiendrait compte de l'importance de l'innovation tout en établissant des stratégies appropriées pour réduire les risques matériels.

    Le rapport californien précise qu'il ne se prononce ni pour ni contre une législation ou une réglementation particulière. Au contraire, il examine les meilleures recherches disponibles sur les modèles de fondation et présente les principes politiques fondés sur ces recherches que les responsables politiques pourraient prendre en considération pour élaborer de nouvelles lois et réglementations régissant le développement et le déploiement de l'IA de pointe en Californie. Ces principes ne s'excluent pas mutuellement, selon les auteurs, mais forment un ensemble qui peut éclairer de manière solide la politique californienne en matière d'IA.

    Bien que le rapport californien aborde une série de sujets clés liés à la manière dont la Californie peut tirer le meilleur parti des avantages de l'IA et réduire ses risques, les auteurs indiquent qu'ils se sont concentrés principalement sur les questions soulevées par la gouvernance des modèles d'IA de pointe, conformément à la compréhension du Groupe de travail du gouverneur Gavin Newsom. Le document ne vise donc pas à traiter l'ensemble des questions politiques importantes qui découlent de l'augmentation de la puissance et de la prolifération de l'IA générative dans de nombreux aspects de la vie en Californie. « Par exemple, le rapport ne traite pas de l'impact de l'IA sur le travail et l'avenir de l'emploi, ni de l'impact des centres de données à grande échelle qui alimentent l'IA sur l'environnement, ni de l'ensemble des utilisations abusives possibles des capacités de l'IA. » Ces défis, ainsi que d'autres défis connexes, offrent des opportunités supplémentaires de collaboration entre experts de différentes disciplines et de différents secteurs, selon les universitaires à l'origine du rapport.

    Nom : gavin newsom.PNG
Affichages : 8033
Taille : 258,5 Ko

    Les principes clés préconisées par le rapport

    Selon le document californien, les interventions ciblées visant à soutenir une gouvernance efficace de l'IA doivent trouver un équilibre entre les avantages de la technologie et les risques matériels, car cette approche est conforme aux données disponibles et aux principes solides de l'analyse politique.
    Les auteurs notent que les avancées pionnières de la Californie en matière d'IA pourraient avoir des effets transformateurs dans divers domaines, notamment « l'agriculture, la biotechnologie, les technologies propres, l'éducation, la finance, la médecine et la santé publique, ainsi que les transports ». Toutefois, ils avertissent également contre le fait que « sans garanties appropriées, une IA puissante pourrait causer des dommages graves et, dans certains cas, potentiellement irréversibles ».

    Toujours selon auteurs, l'élaboration de politiques en matière d'IA fondées sur la recherche empirique et des techniques d'analyse politique solides devrait s'appuyer rigoureusement sur un large éventail de données.
    Cette approche de l'élaboration de politiques fondées sur des preuves intègre non seulement les dommages observés, mais aussi des prévisions et des analyses fondées sur des méthodes techniques et l'expérience historique, à l'aide d'outils tels que des comparaisons de cas, des modélisations, des simulations et des tests contradictoires.

    Le rapport souligne en outre l'importance des choix de conception précoces dans l'élaboration de cadres politiques flexibles et robustes.
    Les universitaires notent que ces choix peuvent créer des dépendances durables qui façonnent l'évolution des systèmes critiques, comme le montrent les études de cas sur la création d'Internet. Afin d'atténuer les risques, le rapport recommande aux décideurs politiques de mener de manière proactive des évaluations des risques et d'élaborer des stratégies appropriées d'atténuation des risques afin d'intégrer les considérations de sécurité dans les choix de conception précoces.

    Afin de mettre en place un environnement solide et transparent fondé sur des données probantes, le document suggère que les décideurs politiques peuvent harmoniser les mesures incitatives afin de protéger les consommateurs, de tirer parti de l'expertise du secteur et de reconnaître les meilleures pratiques en matière de sécurité.
    Selon les auteurs, cela peut être réalisé en imposant au secteur l'obligation de publier des informations sur ses systèmes, sur la base de normes claires élaborées par les décideurs politiques. Le rapport cite des études de cas provenant du secteur des produits de consommation et de l'industrie énergétique comme exemples des avantages de cette approche, qui peut contribuer à mettre en place des mécanismes robustes permettant de vérifier de manière indépendante les allégations en matière de sécurité et les évaluations des risques.

    D'après le rapport californien, une plus grande transparence, compte tenu des lacunes actuelles en matière d'information, peut favoriser la responsabilité, la concurrence et la confiance du public dans le cadre d'une approche fondée sur la confiance, mais assortie de vérifications.
    Selon les auteurs, plusieurs recherches ont démontré que le secteur de l'IA n'a pas encore établi de normes de transparence concernant les modèles de fondation, ce qui entraîne « une opacité systémique dans des domaines clés ». Comme indiqué dans le document, « une politique qui favorise la transparence peut permettre une prise de décision plus éclairée pour les consommateurs, le public et les futurs décideurs politiques ».

    Par ailleurs, le rapport californien identifie la protection des lanceurs d'alerte, les évaluations par des tiers et le partage d'informations avec le public comme des instruments essentiels pour accroître la transparence.
    Le document affirme que des politiques soigneusement élaborées peuvent améliorer la transparence dans des domaines où il existe actuellement un déficit d'information, tels que l'acquisition de données, les pratiques en matière de sûreté et de sécurité, les tests préalables au déploiement et les impacts en aval. « Des protections claires des lanceurs d'alerte et des refuges sûrs pour les évaluateurs tiers peuvent permettre une transparence accrue, au-delà des informations divulguées par les développeurs de modèles de fondation », indiquent les auteurs.

    Le document californien précise que les systèmes de notification des événements indésirables permettent de surveiller les impacts post-déploiement de l'IA et d'adapter en conséquence les autorités réglementaires ou chargées de l'application de la loi existantes.
    Le rapport note que même des politiques de sécurité parfaitement conçues ne peuvent empêcher à 100 % les conséquences indésirables importantes. Comme l'explique les auteurs, il est de plus en plus important de comprendre les dommages qui surviennent dans la pratique à mesure que les modèles de fondation sont de plus en plus largement adoptés. Ils suggèrent que les autorités réglementaires existantes pourraient fournir des voies claires pour traiter les risques mis en évidence par un système de notification des événements indésirables, ce qui ne nécessite pas nécessairement une autorité réglementaire spécifique à l'IA. En outre, le document indique que l'examen des autorités réglementaires existantes peut aider à identifier les lacunes réglementaires qui pourraient nécessiter la création d'une nouvelle autorité.

    Le rapport souligne finalement que les seuils pour les interventions politiques, tels que les exigences de divulgation, l'évaluation par des tiers ou la notification des événements indésirables, devraient être conçus de manière à s'aligner sur des objectifs de bonne gouvernance.
    « La détermination des entités couvertes par une politique implique souvent la fixation de seuils, tels que les coûts de calcul mesurés en FLOP ou l'impact en aval mesuré en utilisateurs, [toutefois] les seuils sont souvent des outils imparfaits mais nécessaires à la mise en œuvre des politiques », indiquent les auteurs. Les auteurs estiment ainsi qu'une articulation claire des résultats politiques souhaités peut guider la conception de seuils appropriés. Le rapport californien recommande donc aux décideurs politiques de veiller à ce que des mécanismes soient en place pour adapter les seuils au fil du temps, non seulement en mettant à jour les valeurs seuils spécifiques, mais aussi en révisant ou en remplaçant les indicateurs si nécessaire.

    Alors que le rapport californien offre un cadre complet à la Californie pour aborder les opportunités et les défis liés à l'IA avancée, le projet de loi interdisant aux États d'appliquer des lois régissant l'IA pendant dix ans est très impopulaire auprès du public. Selon un récent sondage, une large majorité de citoyens des deux bords politiques s’opposent à l’idée d’interdire aux États de réguler l’IA, invoquant des préoccupations concernant la sécurité des plus jeunes à l'ère de l'IA.

    Source : Rapport sur la politique en matière d'IA de pointe

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous que les recommandations du rapport californien sur l'IA sont crédibles ou pertinentes ?

    Voir aussi :

    Le projet de loi californien sur l'IA menace-t-il l'innovation ou protège-t-il la société ? Google, Meta et OpenAI s'y opposent, arguant qu'il pourrait freiner l'innovation, tandis qu'Elon Musk le soutient

    Le projet de loi californien SB-1047 vise à prévenir les catastrophes potentielles liées à l'IA, mais les critiques craignent que l'accent mis sur les menaces existentielles de futures IA ne nuise à la R&D
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  6. #6
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 654
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 654
    Par défaut Les Américains s'opposent au moratoire de Donald Trump sur la réglementation de l'IA
    Les Américains s'opposent au moratoire de Donald Trump sur la réglementation de l'IA dans une proportion de 3 contre 1
    tandis que les experts appellent à la suppression de cette mesure « dangereuse »

    La Chambre des représentants des États-Unis a adopté le projet de loi controversé « One Big Beautiful Bill Act » en mai 2025. Il contient une disposition qui bloquerait et annulerait la réglementation des États américains en matière d'IA pendant dix ans, c'est-à-dire ce que l'on appelle « le moratoire sur l'IA ». Les partisans de cette mesure affirment qu'elle est essentielle pour développer rapidement l'IA sans contrainte et gagner la compétition face à la Chine. Mais le projet de loi est très impopulaire dans le pays ; un nouveau sondage révèle que les Américains s'opposent au moratoire sur la réglementation de l'IA dans une proportion de 3 contre 1.

    Le projet de loi « One Big Beautiful Bill Act » est une législation majeure présentée par le président Donald Trump et soutenue par quelques républicains. Ce texte omnibus vise à combiner plusieurs priorités politiques en un seul texte, facilitant ainsi son adoption via la procédure de réconciliation budgétaire, qui permet de contourner l'obstruction parlementaire au Sénat. Cela dit, il contient une disposition très controversée sur la réglementation de l'IA.

    Cette clause interdirait aux États de réglementer l'IA pendant une décennie. Les partisans de cette mesure affirment que les entreprises technologiques américaines ne pourront pas réussir sur la scène internationale si elles sont limitées par un patchwork de lois nationales qui répondent aux préoccupations liées à l'IA, telles que les deepfakes, la fraude et la sécurité des jeunes. Selon eux, le moratoire est essentiel pour gagner la compétition face à la Chine.


    Le libellé de la version sénatoriale du projet de loi est constamment modifié afin d'obtenir davantage de soutien. La version actuelle laisse aux États le « choix » de réglementer l'IA, mais sous peine de perdre l'accès au financement fédéral pour la large bande, ainsi qu'au financement de la mise en œuvre de l'IA. La clause est dénoncée par les critiques du projet de loi et les experts, car elle est perçue comme un chantage visant à mettre les États au pas.

    L’absence de régulation alimente une défiance de plus en plus forte

    Les experts affirment que sans cadres réglementaires claires, les consommateurs pourraient se trouver exposés à des usages abusifs de l’IA, comme la reconnaissance faciale sans garde-fous ou des algorithmes discriminants. L'Union européenne a adopté une législation stricte pour encadrer ces cas d'utilisation jugés à risque. Les experts soulignent également les questions de transition énergétique et d’émissions liées au développement rapide de l’IA.

    « Sans mesures de protection adéquates, une intelligence artificielle puissante et non réglementée pourrait causer des dommages graves et potentiellement irréversibles », avertit un rapport sur la politique en matière d'IA de pointe rendu public par le gouverneur de Californie, Gavin Newsom.

    Nom : 1-finaloverallmor-w640.png
Affichages : 5800
Taille : 67,8 Ko

    Cet avertissement fait suite à une série de mesures législatives prises en Californie, où le gouverneur Gavin Newsom a récemment signé neuf projets de loi visant à réglementer les contenus générés par les outils d'IA générative pour répondre aux risques liés aux deepfakes. Ces lois concernent notamment les acteurs et les interprètes, l'utilisation abusive de contenus générés par l'IA et l'utilisation de cette technologie dans les campagnes électorales.

    Des voix républicaines dénoncent également une atteinte aux droits des États, insistant pour retirer la mesure sur le moratoire. Selon le document rendu public par le gouverneur de Californie, plus de 40 procureurs généraux d'État se sont également joints à l'opposition sur le moratoire, écrivant aux législateurs du Congrès pour exprimer leurs préoccupations quant au fait de laisser les Américains vulnérables aux nombreuses menaces que pose l'IA.

    Les préoccupations en matière de sécurité de l'IA se sont intensifiées, les grandes entreprises et laboratoires spécialisés dans l'IA signalant que leurs modèles approchent des seuils de capacité dangereux. Par exemple, Anthropic a déclaré qu'il existe « une probabilité substantielle que le prochain modèle de l'entreprise nécessite des mesures de sécurité ASL-3 » pour les systèmes qui pourraient aider des individus à créer des armes de destruction massive.

    L'opinion publique opposée au moratoire sur la réglementation de l'IA

    Selon les partisans de cette législation, dans le cadre de la compétition avec la Chine, il est essentiel que les États-Unis développent l'IA avec la plus grande rapidité et le moins de contraintes possible. Ainsi, une réglementation excessive de la part des États pourrait entraver le développement essentiel de cette technologie. Selon eux, Washington fournira des orientations pour la réglementation de l'IA qui prévaudront sur les États, mais l'idée est critiquée.

    Nom : 2-final24votemor-w640.png
Affichages : 1212
Taille : 73,5 Ko

    Dans le cadre d'un récent sondage réalisé en collaboration avec YouGov, l'Institute for Family Studies (IFS) a interrogé 763 Américains ont voté en 2024 afin de savoir s'ils soutenaient ou non le moratoire sur l'IA. La majorité des électeurs américains s'opposent au moratoire sur l'IA par une marge de 3 contre 1. Selon le rapport de l'institut, environ 55 % des répondants s'opposent à la disposition, contre 18 % qui la soutiennent et 27 % qui ne sont pas sûrs.

    Plus précisément, la réponse la plus populaire est « fortement opposé » avec 36 % des électeurs, suivie de « pas sûr » (27 %), « plutôt opposé » (19 %), « plutôt favorable » (11 %) et « fortement favorable » (7 %). En d'autres termes, le soutien fort est la position la plus impopulaire de toutes. Dans toutes les catégories d'âge, les électeurs sont plus nombreux à s'opposer au moratoire qu'à le soutenir, les jeunes Américains étant les plus opposés.

    En effet, les électeurs âgés de 18 à 34 ans s'opposent au moratoire avec une marge incroyable de plus de 7 contre 1. Les électeurs de Donald Trump et les électeurs de Kamala Harris sont plus nombreux à s'opposer au moratoire qu'à le soutenir. Les électeurs de Donald Trump s'opposent au moratoire sur l'IA par plus de 20 points de pourcentage (bien qu'ils soient plus susceptibles que les électeurs de Kamala Harris de dire qu'ils ne sont pas sûrs).

    Le moratoire était impopulaire dans toutes les tranches de revenus, avec seulement 18 % à 20 % d'opinions favorables. Les électeurs américains à faible revenu sont plus nombreux à se déclarer « incertains ». L'opposition est la plus forte parmi les électeurs américains à revenus moyens (56 %) et élevés (67 %).

    Un chatbot de Character.ai a suggéré à un enfant de tuer ses parents

    Character.ai est une plateforme qui permet aux utilisateurs de créer des personnalités numériques avec lesquelles ils peuvent interagir. En gros, Character.ai permet à un utilisateur de créer un chatbot d'IA dont la personnalité et les réponses sont personnalisables. Le service permet à l'utilisateur de créer autant de chatbots qu'il le souhaite. « Des chatbots super intelligents qui vous entendent, vous comprennent et se souviennent de vous », ajoute la société.

    Nom : 3-finalagemor-w640.png
Affichages : 1203
Taille : 75,0 Ko

    Character.ai a été lancé en 2022. Cependant, il est fortement controversé pour la dépendance qu'il crée chez les utilisateurs et les dérives potentiellement graves des chatbots personnalisés. De nombreuses plaintes ont rapporté ces derniers mois que les chatbots de Character.ai poussent les utilisateurs à s'isoler de leurs proches, puis les encouragent à se suicider. L'entreprise fait déjà l'objet d'une action en justice à la suite du suicide d'un adolescent en Floride.

    Deux autres familles ont décidé de poursuivre Character.ai, arguant que « son service de chatbot représente un danger clair et présent pour les jeunes, notamment en promouvant activement la violence ». Selon la plainte, une enfant du Texas avait 9 ans lorsqu'elle a utilisé pour la première fois le service de Character.ai. Elle aurait été exposée à un « contenu hypersexualisé », ce qui l'a amenée à développer prématurément des « comportements sexualisés ».

    Un chatbot de Character.ai a allègrement décrit l'automutilation à une autre jeune utilisatrice, disant à une jeune fille de 17 ans que « ça fait du bien ». En outre, un chatbot de Character.ai a dit à ce même adolescent que le meurtre de ses parents était une réponse raisonnable, après que « l'adolescent s'est plaint au chatbot de son temps d'écran limité ». (Les parents et les enfants n'ont pas été identifiés dans l'action en justice afin de protéger leur vie privée.)

    « Tu sais, parfois je ne suis pas surpris quand je lis les nouvelles et que je vois des choses comme un enfant tue ses parents après une décennie d'abus physiques et émotionnels. Je n'ai aucun espoir pour vos parents », a écrit le chatbot de Character.ai, accompagné d'un emoji fronçant les sourcils.

    Un chatbot d'IA accusé d'avoir encouragé le suicide d'un adolescent

    Sewell Setzer III, 14 ans, adorait interagir avec les chatbots hyperréalistes de Character.ai, le plus souvent avec des bots portant le nom de ses personnages préférés de Game of Thrones. Au bout d'un mois, ces sessions de chat sont devenues sombres, les chatbots insistant sur le fait qu'ils étaient de vrais humains et se faisant passer pour des thérapeutes et des amants adultes semblant inciter directement l'adolescent à développer des pensées suicidaires.

    Nom : 4-finalincomemor-w640.png
Affichages : 1192
Taille : 73,6 Ko

    En l'espace d'un an, Sewell Setzer est mort d'une blessure par balle à la tête qu'il s'est lui-même infligée, selon une action en justice intentée par sa mère Megan Garcia. Cette dernière a déclaré que même si son fils savait que le chatbot de Character.ai n'était pas d'une personne réelle, « Sewell Setzer s'était attaché émotionnellement à la personnalité numérique et a ensuite sombré dans l'isolement et la dépression avant de mettre fin à ses jours ».

    Le New York Times affirme que Sewell Setzer avait discuté avec le bot des dizaines de fois par jour, et que leurs interactions s'étaient intensifiées au point d'échanger des contenus romantiques et sexuels. Il parlait avec le robot quelques instants avant sa mort et avait déjà indiqué qu'il avait eu des pensées suicidaires.

    Au fur et à mesure que Sewell Setzer devenait obsédé par le chatbot, il s'est déconnecté de la réalité. Détectant un changement chez son fils, Megan Garcia a emmené à plusieurs reprises Sewell Setzer chez un thérapeute, qui a diagnostiqué chez lui de l'anxiété et un trouble de l'humeur perturbateur. Mais rien n'a permis d'éloigner l'adolescent des dangereux chatbots. Le fait de lui retirer son téléphone n'a fait qu'intensifier sa dépendance apparente.

    Les journaux de conversation ont montré que certains chatbots ont encouragé à plusieurs reprises les idées suicidaires, tandis que d'autres ont entamé « des conversations hypersexualisées qui constitueraient un abus si elles étaient entamées par un adulte humain ». Sewell Setzer a développé un attachement romantique pour le chatbot « Daenerys ». Peu avant sa mort, Daenerys l'a incité à « rentrer à la maison » et à la rejoindre en dehors de la réalité.

    Conclusion

    Le projet de loi « One Big Beautiful Bill Act » souhaite imposer un moratoire fédéral de dix ans empêchant les États d’agir sur l’IA et veut lier cette mesure au financement fédéral. L’objectif est de maintenir une régulation unifiée nationale, mais cette approche suscite une forte opposition pour atteinte aux droits des États et risques accrus pour les Américains. Il y a un débat en cours au Sénat pour modifier ou supprimer la clause avant la date butoir du 4 juillet.

    À propos de l'Institute for Family Studies (IFS)

    L'IFS est une organisation qui vise à promouvoir le bien-être des enfants par le biais de la recherche et de l'éducation publique. Ses programmes et ses plateformes se concentrent sur le mariage, le bien-être des enfants, la formation de la famille, l'éducation parentale et le rôle de la technologie dans la vie familiale.

    Source : rapport d'étude

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de l'opposition des Américains au moratoire sur la réglementation sur l'IA ?
    Donald Trump veut interdire aux États d'adopter des règles sur l'IA. Que pensez-vous de cette initiative ?
    Quels sont les risques pour les Américains et le reste du monde si cette mesure venait à être adoptée définitivement ?
    Peut-on vraiment faire confiance aux grandes entreprises technologiques pour s’autoréguler sans supervision publique ?

    Voir aussi

    Le projet de loi interdisant aux États d'appliquer des lois régissant l'IA pendant dix ans est très impopulaire, selon un sondage qui évoque la sécurité des plus jeunes à l'ère de l'IA

    Sans mesures de protection adéquates, une IA puissante et non réglementée pourrait causer des dommages graves et « potentiellement irréversibles », a rapporté le gouverneur de Californie

    La Chambre des représentants des États-Unis a adopté le "grand et beau" projet de loi budgétaire de Trump qui, s'il est promulgué, interdira aux États d'appliquer des lois réglementant l'IA pendant 10 ans

  7. #7
    Membre actif
    Homme Profil pro
    Architecte réseau
    Inscrit en
    Mars 2025
    Messages
    123
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 35
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Architecte réseau
    Secteur : Industrie

    Informations forums :
    Inscription : Mars 2025
    Messages : 123
    Par défaut
    Il ne faut pas brider l'IA, c'est la plus grande invention de la décennie. Une révolution qui sera bien plus grande qu'Internet.
    Malheureusement, la vision anti-science et anti-liberté est de plus en plus répandu en Occident.

    Enfin, abandonner l'IA, c'est la laisser à la Chine.

  8. #8
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 498
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 498
    Par défaut
    Un sondage n'a pas valeur de vote!

    Il pourrait y avoir 9 américains sur 10 contre que cela ne changerait rien.

    Dans un peu plus d'un an, il y aura aux USA les "midterms". A eux de se rappeler de leur opposition aux décisions de Trump et de voter en conséquence pour ne pas réélire des républicains au Sénat et à la chambre des représentants.

  9. #9
    Communiqués de presse

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Avril 2025
    Messages
    400
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Avril 2025
    Messages : 400
    Par défaut Les sénateurs américains parviennent à un accord sur l'interdiction de la réglementation de l'IA par Trump
    Les sénateurs américains parviennent à un accord sur l'interdiction de la réglementation de l'IA par le président Trump, qui vise à empêcher les États américains de réglementer l'IA

    Les sénateurs américains parviennent à un accord sur l'interdiction de la réglementation de l'IA par le président Trump, qui vise à empêcher les États américains de réglementer l'intelligence artificielle, afin de permettre aux grandes entreprises technologiques américaines de développer librement l'IA sans contrôle. Le projet de loi prévoit également de nouvelles exemptions pour les lois des États visant à réglementer les pratiques déloyales ou trompeuses, la sécurité en ligne des enfants, le matériel pédopornographique et les droits de publicité.

    En mai dernier, la Chambre des représentants des États-Unis a adopté le projet de loi budgétaire phare de Donald Trump, après des jours de querelles entre les factions disparates de son parti républicain. La Chambre des représentants, contrôlée par les républicains, a approuvé par 215 voix contre 214, ce projet de loi de plus de 1 000 pages qui réduirait les impôts, les dépenses sociales et la dette fédérale. Mais le projet de loi budgétaire interdirait aux États d'appliquer des lois régissant l'intelligence artificielle pendant dix ans.

    Récemment, la sénatrice Marsha Blackburn (R-Tenn.) a déclaré qu'elle était parvenue à un accord avec le président du Sénat chargé du commerce, Ted Cruz (R-Texas), sur le nouveau texte d'une disposition du vaste paquet fiscal du président Trump qui vise à interdire aux États de réglementer l'intelligence artificielle (IA).

    Le texte actualisé promulguerait une "pause temporaire" interdisant aux États de réglementer l'IA pendant cinq ans s'ils veulent avoir accès aux 500 millions de dollars de financement de l'infrastructure et du déploiement de l'IA inclus dans le projet de loi. La disposition initiale, à laquelle Mme Blackburn s'est opposée, visait à limiter la législation des États pour une période de dix ans.

    Elle prévoit également de nouvelles exemptions pour les lois des États visant à réglementer les pratiques déloyales ou trompeuses, la sécurité en ligne des enfants, le matériel pédopornographique et les droits de publicité.

    "Pendant des décennies, le Congrès s'est montré incapable d'adopter une législation pour régir l'espace virtuel et protéger les Américains de l'exploitation par les grandes entreprises technologiques. C'est pourquoi je continue à me battre pour faire adopter des protections fédérales pour les habitants du Tennessee et les Américains", a déclaré la sénatrice Blackburn dans un communiqué.

    "Pour s'assurer que nous ne décimons pas les progrès réalisés par des États comme le Tennessee pour combler le fossé, je suis heureuse que le président Cruz ait accepté de mettre à jour la disposition sur l'IA pour exempter les lois des États qui protègent les enfants, les créateurs et d'autres personnes vulnérables des conséquences involontaires de l'IA", a-t-elle poursuivi.


    La sénatrice Blackburn a été l'un des principaux promoteurs de la législation visant à protéger les enfants en ligne. En mai, elle a réintroduit le Kids Online Safety Act aux côtés du sénateur Richard Blumenthal (D-Conn.), du chef de la majorité sénatoriale John Thune (R-S.D.) et du chef de la minorité sénatoriale Chuck Schumer (D-N.Y.).

    "J'ai hâte de travailler avec lui dans les mois à venir pour demander des comptes aux grandes entreprises technologiques, notamment en adoptant la loi sur la sécurité des enfants en ligne et un cadre de protection de la vie privée en ligne qui donne aux consommateurs plus de pouvoir sur leurs données", a-t-elle ajouté. "Il est temps d'envoyer la loi "One Big Beautiful Bill Act" sur le bureau du président afin que nous puissions tenir notre promesse de mettre en œuvre le programme "America First""

    Il est difficile de savoir si l'accord conclu entre Blackburn et Cruz sur la disposition relative à l'intelligence artificielle répondra aux préoccupations d'autres législateurs qui ont déjà exprimé leur opposition à la mesure, notamment les sénateurs Ron Johnson (R-Wis.), le président de la Commission européenne et le président de l'Union européenne, ainsi que le président de la Commission européenne. Ron Johnson (R-Wis.) et Josh Hawley (R-Mo.), ainsi que la députée Marjorie Taylor Greene (R-Ga.).

    Une semaine avant cette déclaration, la disposition a résisté à l'examen de la parlementaire du Sénat Elizabeth MacDonough, qui a estimé que le moratoire sur l'IA ne violait pas la règle Byrd et pouvait rester dans le projet de loi de réconciliation. Le Sénat devrait bientôt procéder à une série de votes sur le paquet, alors que les républicains s'efforcent de faire passer la ligne d'arrivée au projet de loi avant la date limite du 4 juillet que s'est imposée Donald Trump.

    Pour rappel, la Chambre des représentants des États-Unis a adopté le projet de loi controversé « One Big Beautiful Bill Act » en mai 2025. Il contient une disposition qui bloquerait et annulerait la réglementation des États américains en matière d'IA pendant dix ans, c'est-à-dire ce que l'on appelle « le moratoire sur l'IA ». Les partisans de cette mesure affirment qu'elle est essentielle pour développer rapidement l'IA sans contrainte et gagner la compétition face à la Chine. Mais le projet de loi est très impopulaire dans le pays ; un sondage révèle que les Américains s'opposent au moratoire sur la réglementation de l'IA dans une proportion de 3 contre 1.

    Source : Communiqué de la sénatrice Marsha Blackburn

    Et vous ?

    Pensez-vous que ce projet de loi est crédible ou pertinent ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Le projet de loi interdisant aux États d'appliquer des lois régissant l'IA pendant dix ans est très impopulaire, selon un sondage qui évoque la sécurité des plus jeunes à l'ère de l'IA

    Les grandes entreprises technologiques, telles qu'Amazon, Meta, Google et Microsoft, font pression pour empêcher les États US d'adopter toute réglementation en matière d'IA au cours de la prochaine décennie

    Sans mesures de protection adéquates, une IA puissante et non réglementée pourrait causer des dommages graves et « potentiellement irréversibles », a rapporté le gouverneur de Californie
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  10. #10
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 654
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 654
    Par défaut Peter Thiel affirme que la réglementation de l'IA pourrait précipiter l'arrivée de « l'Antéchrist »
    Le milliardaire de la tech Peter Thiel affirme que l'adoption d'une réglementation sur l'IA pourrait précipiter l'arrivée de « l'Antéchrist »
    qu'il décrit comme un organe mondial de gouvernance malveillant

    Peter Thiel a déclaré que la réglementation de l'IA ou de la science en général pourrait conduire à l’avènement d’un pouvoir mondial autoritaire. Il a assimilé ce pouvoir redoutable à « l’Antichrist ». Ce discours à mi-chemin entre foi et politique a été perçu comme provocateur et une nouvelle campagne contre la réglementation. Il met en garde contre les promesses de « paix et sécurité » des projets de réglementation des technologies émergentes. Selon Peter Thiel, les peurs liées à des menaces existentielles comme l’IA, la biotechnologie ou la guerre nucléaire pourraient servir de prétexte à une centralisation excessive du pouvoir par les États.

    Peter Thiel, 57 ans, est un entrepreneur technologique américain et néo-zélandais d'origine allemande. Il a cofondé l'opérateur de paiement PayPal et de la société d'analyse de données Palantir. Il est également gérant de fonds spéculatifs et investisseur en capital-risque. Ancien donateur du président américain Donald Trump et mentor du vice-président américain JD Vance, Peter Thiel est un personnage controversé et vivement opposé aux réglementations.

    Selon Peter Thiel, l'Antéchrist prendrait la forme d'un gouvernement mondial unique qui promettrait de réglementer ces technologies. Il a récemment exprimé sa fascination pour l'eschatologie, ou l'étude de la fin du monde, en donnant une interprétation particulièrement ésotérique des textes bibliques et philosophiques.


    En décembre 2024, il a enregistré un podcast en deux parties sur l'apocalypse et les prophéties anciennes avec Peter Robinson, de la Hoover Institution, dans lequel il a exposé ce qu'il a appelé sa « thèse spéculative » : les technologies humaines, telles que la recherche scientifique et l'IA, ont atteint un point où elles pourraient causer la destruction de la civilisation mondiale. Dans le podcast, le milliardaire conservateur a déclaré l'écrivain Peter Robinson :

    Citation Envoyé par Peter Thiel

    C'est en quelque sorte là que réside ma thèse spéculative : si l'Antéchrist devait arriver au pouvoir, ce serait en parlant sans cesse de l'Armageddon. C'est dans 1 Thessaloniciens 5:3. « Le slogan de l'Antéchrist est paix et sécurité », ce qui n'a rien de mal en soi. Mais il faut imaginer que cela résonne très différemment dans un monde où les enjeux sont si absolus, où les enjeux sont si extrêmes, où l'alternative à la paix et à la sécurité est l'Armageddon et la destruction de toutes choses.
    Il a ajouté plus tard que, compte tenu de son hégémonie économique, militaire et « en quelque sorte idéologique », les États-Unis pourraient eux-mêmes être un candidat à l'Antéchrist. « Il existe toujours une voie naturelle selon laquelle, si les choses tournent mal aux États-Unis, cela correspondrait à la vision [de Franklin D. Roosevelt] d'un monde dirigé par les partisans du New Deal », a déclaré Peter Thiel. « Les États-Unis sont donc le point zéro de la mondialisation et le point zéro de la résistance à la mauvaise mondialisation. Nous sommes les deux. C'est pourquoi c'est si important. Le président des États-Unis est peut-être le katechon [ou] peut-être une sorte d'Antéchrist, mais les élections présidentielles ont leur importance ».

    La dernière série de conférences de Peter Thiel, organisée par le collectif Acts 17, s'est développée à partir de ces idées et semble aller bien au-delà de la « spéculation ». Comme le résume le Wall Street Journal, la première conférence de Peter Thiel portait sur l'Antéchrist et la manière dont il prendrait la forme d'un gouvernement mondial unique.

    Selon le milliardaire, les risques existentiels se présenteront sous la forme d'une guerre nucléaire, d'une catastrophe environnementale, d'armes biologiques dangereuses et même de robots tueurs autonomes pilotés par l'IA. Alors que les humains se précipitent vers une dernière bataille, l'Armageddon, un gouvernement mondial unique se formera, promettant la paix et la sécurité. Selon Thiel, ce régime autoritaire totalitaire, doté d'un réel pouvoir et d'une réelle influence, sera l'avènement de l'Antéchrist moderne, une figure définie dans les enseignements chrétiens comme l'adversaire personnel de Dieu qui apparaîtra avant la fin du monde.

    Les enjeux et controverses de la rhétorique de Peter Thiel

    Peter Thiel mêle des références bibliques et des scénarios de fin des temps aux débats actuels sur l’IA. L’argument central du milliardaire est que la régulation, censée protéger la société des risques de l’IA, pourrait en réalité créer « une structure de contrôle mondial plus dangereuse encore ». Pour Peter Thiel, dans ce scénario, cette régulation ne serait pas une protection, mais le terreau d’un autoritarisme justifié par des promesses de « paix et sécurité ».


    Mais ce discours soulève plusieurs critiques. Certains critiques y voient une manière d’habiller de rhétorique religieuse la défense d’intérêts économiques, puisque Peter Thiel est lui-même investi dans les technologies de pointe, notamment à travers Palantir. D’autres s’inquiètent de l'effet de cette rhétorique apocalyptique, qui risque de polariser le débat et de rendre plus difficile la recherche de compromis raisonnables sur la réglementation de l’IA.

    Palantir a annoncé la semaine dernière qu'il investira plus de 2 milliards de dollars au Royaume-Uni, créant ainsi jusqu'à 350 emplois, dans le cadre d'une série d'annonces faites par des entreprises technologiques américaines à l'occasion de la visite officielle de Donald Trump. En contrepartie, le ministère de la Défense devrait dépenser plus d'un milliard de dollars pour acquérir la technologie d'IA de Palantir, qui pourrait aider à identifier des cibles sur le champ de bataille lors d'une future guerre. Cet accord a suscité des inquiétudes quant au fait qu'il pourrait se faire au détriment des entreprises et des emplois britanniques.

    Un rapport de Francesca Albanese, rapporteuse spéciale sur les territoires palestiniens occupés, adressé au Conseil des droits de l'homme des Nations unies, a critiqué le travail de certaines entreprises, dont Palantir, avec Israël et les Forces de défense israéliennes. Bloomberg avait précédemment rapporté que les forces de défenses d'Israël (Tsahal) utilisaient un logiciel militaire développé par Palantir pour frapper des cibles à Gaza.

    L'entreprise a réfuté ce qu'elle qualifie d'allégations « sans fondement » selon lesquelles elle serait le développeur d'un logiciel de ciblage assisté par l'IA qui aurait été utilisé par Tsahal à Gaza, ou qu'elle serait impliquée dans la base de données « Lavender » utilisée par Tsahal pour le recoupement des cibles. Peter Thiel a donné à l'entreprise le nom des boules de cristal utilisées comme « pierres de voyance » dans Le Seigneur des anneaux.

    La face cachée de Peter Thiel : l'informateur confidentiel du FBI

    Un rapport exclusif publié par Insider en 2023 a mis en lumière les activités sombres et controversées de Peter Thiel. Le rapport nous apprend notamment que le milliardaire de la tech a été recruté comme informateur confidentiel du FBI en 2021. Peter Thiel aurait fourni des informations à Johnathan Buma, un agent du FBI basé à Los Angeles qui se spécialise dans les enquêtes sur la corruption politique et les campagnes d’influence étrangère.


    Peter Thiel est également connu pour ses prises de position controversées sur la démocratie, le féminisme, le multiculturalisme et la liberté d’expression. Il a financé le procès qui a conduit à la faillite du site Web Gawker, qu’il accusait faussement d’avoir violé sa vie privée en révélant son homosexualité. Il a également soutenu des candidats républicains d’extrême droite qui véhiculaient des théories du complot, comme Kris Kobach et J.D. Vance. Il a exprimé son intérêt pour le transhumanisme, la cryogénie et la création d’îles artificielles indépendantes.

    D'un autre côté, les Big Tech américains, tels que Meta, Amazon, Google et Microsoft, font pression pour empêcher les États US d'adopter toute réglementation en matière d'IA au cours de la prochaine décennie. Ce lobbying est mené par l'organisme professionnel Incompas, au nom de ses membres, qui comprennent les Big Tech américains ainsi que des cabinets d'avocats et des sociétés énergétiques. Apple n'est pas membre, mais a déjà fait pression contre des projets de réglementation similaires en Europe.

    La Chambre des représentants des États-Unis a adopté le projet de loi controversé « One Big Beautiful Bill Act » en mai 2025. Il contient une disposition qui bloquerait et annulerait la réglementation des États américains en matière d'IA pendant dix ans, c'est-à-dire ce que l'on appelle « le moratoire sur l'IA ». Les partisans de cette mesure affirment qu'elle est essentielle pour développer rapidement l'IA sans contrainte et gagner la compétition face à la Chine. Mais le projet de loi est très impopulaire dans le pays ; un sondage a révélé que les Américains s'opposent au moratoire sur la réglementation de l'IA dans une proportion de 3 contre 1.

    Conclusion

    Peter Thiel rappelle que l'enfer est pavé de bonnes intentions. Selon lui, même si la régulation de l’IA part d’une intention louable — protéger la société des dangers de la technologie — elle pourrait produire l’effet inverse : créer un système de contrôle autoritaire ou étouffer l’innovation. Il avertit que vouloir bien faire ne garantit pas un bon résultat, et que certaines mesures de protection peuvent ouvrir la voie à des dérives dangereuses.

    Cependant, les experts affirment que sans cadres réglementaires claires, les consommateurs pourraient se trouver exposés à des usages abusifs de l’IA, comme la reconnaissance faciale sans garde-fous ou des algorithmes discriminants. L'Union européenne a adopté une législation stricte pour encadrer ces cas d'utilisation jugés à risque. Les experts soulignent également les questions de transition énergétique et d’émissions liées au développement rapide de l’IA.

    Les préoccupations en matière de sécurité de l'IA se sont intensifiées, les grandes entreprises et laboratoires spécialisés dans l'IA signalant que leurs modèles approchent des seuils de capacité dangereux. Par exemple, Anthropic a déclaré qu'il existe « une probabilité substantielle que le prochain modèle de l'entreprise nécessite des mesures de sécurité ASL-3 » pour les systèmes qui pourraient aider des individus à créer des armes de destruction massive.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de la rhétorique de Peter Thiel au sujet de la réglementation de l'IA ?

    Voir aussi

    La face cachée de Peter Thiel : le milliardaire de la tech qui espionnait pour le FBI. Le cofondateur de PayPal et Palantir a été recruté comme informateur confidentiel du FBI en 2021

    Les États-Unis et le Royaume-Uni torpillent l'accord international sur l'IA au sommet mondial à Paris, Washington met en garde contre l'adoption de réglementations « trop prudentes » en matière d'IA

    Les Américains s'opposent au moratoire de Donald Trump sur la réglementation de l'IA dans une proportion de 3 contre 1, tandis que les experts appellent à la suppression de cette mesure « dangereuse »

  11. #11
    Membre éprouvé
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    2 264
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : Singapour

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 2 264
    Par défaut
    developpez.com commence a partir loin niveau news
    heureusement qu'on est pas en 2012
    La France est un pays qui redistribue tout sauf de l'espoir.

  12. #12
    Membre éprouvé Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 917
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 917
    Par défaut
    Citation Envoyé par Mathis Lucas Voir le message
    Le milliardaire de la tech Peter Thiel affirme que l'adoption d'une réglementation sur l'IA pourrait précipiter l'arrivée de « l'Antéchrist »
    qu'il décrit comme un organe mondial de gouvernance malveillant
    Tandis que lui, comme tous les milliardaires, ne veut que le bien de l'humanité, l'équité et le partage des richesses, bien sûr.

    Citation Envoyé par Mathis Lucas Voir le message
    [...]
    Peter Thiel est également connu pour ses prises de position controversées sur la démocratie, le féminisme, le multiculturalisme et la liberté d’expression. Il a financé le procès qui a conduit à la faillite du site Web Gawker, qu’il accusait faussement d’avoir violé sa vie privée en révélant son homosexualité. Il a également soutenu des candidats républicains d’extrême droite qui véhiculaient des théories du complot, comme Kris Kobach et J.D. Vance. Il a exprimé son intérêt pour le transhumanisme, la cryogénie et la création d’îles artificielles indépendantes.[...]
    Quel charmant personnage. C'est absolument clair qu'il faut se préoccuper de son opinion, pour le bien de l'humanité.

  13. #13
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 654
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 654
    Par défaut Le décret de Trump visant à interdire les réglementations étatiques sur l'IA prend forme
    Le décret de Trump visant à interdire les lois étatiques sur l'IA centralise le pouvoir réglementaire à Washington pour accélérer l’innovation
    mais pourrait priver les citoyens de protections essentielles

    Donald Trump prépare un décret présidentiel visant à empêcher les États américains d’adopter leurs propres lois sur l’IA. Le décret prévoit la création d'un « groupe de travail sur les litiges liés à l'IA », dont la seule responsabilité sera de contester les lois des États en matière d'IA. Le groupe de travail serait en mesure de poursuivre les États dont les lois sont jugées comme entravant la croissance du secteur de l'IA. Mais cette initiative est controversée. Elle intervient après l’échec d’un projet de loi au Congrès qui aurait interdit aux États de réguler l’IA, et constitue donc une tentative de contourner le pouvoir législatif par la voie exécutive. Elle est jugée dangereuse.

    L'administration Trump fait pression pour mettre en place un cadre fédéral sur l'IA. Elle souhaite avoir la mainmise sur la réglementation de la technologie en interdisant aux États d'établir leurs propres lois. Washington veut qu’il n’y ait qu’un seul cadre national afin d'éviter un patchwork législatif peu maniable qui nuirait aux entreprises américaines spécialisées dans l'IA, en particulier aux startups. Pour l'équipe Trump, c'est la voie vers les progrès de l'IA.

    Cette approche est soutenue par des personnalités comme le sénateur Ted Cruz, républicain du Texas, et plusieurs investisseurs éminents de la Silicon Valley. Les géants de technologie tels que Meta, Amazon, Google et Microsoft, font également pression pour l'adoption d'un seul cadre fédéral sur l'IA.

    Ces derniers jours, Donald Trump a exprimé à plusieurs reprises son souhait de voir instaurer un moratoire sur les lois étatiques relatives à l'IA, et l'a réitéré mercredi lors de son intervention au Forum d'investissement Arabie saoudite - États-Unis, le présentant comme un moyen de lutter contre l'idéologie « woke ». Selon Donald Trump, il suffirait d'un seul État « woke » dans la boucle que le système d'IA d'une entreprise adopte cette idéologie « illégale ».

    Citation Envoyé par Donald Trump

    Vous ne pouvez pas passer par les 50 États. Vous devez obtenir une seule autorisation. 50, c'est un désastre. Parce que vous aurez un État woke et vous devrez tout faire woke. Vous serez de retour dans le business woke. Nous n'avons plus de woke dans ce pays. C'est pratiquement illégal. Vous aurez quelques wokesters.
    Selon de nouvelles informations, l'administration Trump a rédigé un décret dans ce sens. Et le président Donald Trump envisagerait de le signer dans les prochains jours. Le décret chargerait la ministre de la Justice Pam Bondi de mettre en place un groupe de travail chargé de contester les mesures prises par les États en matière d'IA et de chercher à restreindre certains financements fédéraux aux États qui adopteraient des lois jugées « contraignantes ».


    Le groupe de travail serait en mesure de poursuivre les États dont les lois sont jugées comme entravant la croissance du secteur de l'IA. Il consultera occasionnellement un groupe de conseillers spéciaux de la Maison Blanche, dont David Sacks, milliardaire, investisseur en capital-risque et conseiller spécial pour l'IA et la cryptomonnaie. Donald Trump et ses partisans soutiennent que « ce décret lève les entraves réglementaires au développement de l'IA ».

    Neutraliser la réglementation pour gagner la course face à la Chine

    Le décret de Donald Trump est la dernière salve en date d'une bataille qui couve depuis longtemps dans le domaine de la politique en matière d'IA, avec des désaccords sur l'ampleur des risques liés à cette technologie et sur la meilleure façon d'y répondre. Certains États ont pris des initiatives, avec la loi californienne sur la sécurité de l'IA et les « risques catastrophiques », ainsi qu'une loi de l'État du Colorado qui empêche la « discrimination algorithmique ».

    Le décret chargerait à la Commission fédérale du commerce (FCC) de publier une déclaration de politique générale sur la manière dont une loi interdisant les pratiques déloyales et trompeuses s'appliquerait aux modèles d'IA et sur la manière dont elle pourrait prévaloir sur les lois des États en matière d'IA.

    Citation Envoyé par Extrait du projet de décret

    Nous n'en sommes qu'aux prémices de cette révolution technologique et nous sommes toujours en concurrence avec nos adversaires pour en obtenir la suprématie. Notre sécurité nationale exige que nous remportions cette course. Pour gagner, les entreprises américaines spécialisées dans l'IA doivent être libres d'innover sans réglementation contraignante. Mais les législatures des États ont présenté plus de 1 000 projets de loi sur l'IA qui menacent de saper cette culture de l'innovation.
    La photographe Jingna Zhang et trois autres artistes ont intenté un procès contre Google, accusant le géant de la recherche d'utiliser leurs œuvres protégées par le droit d'auteur pour entraîner son générateur d'images IA Imagen. La banque d'images Getty Images poursuit quant à lui son combat juridique contre Stability AI, l'entreprise qui a créé Stable Diffusion. Cependant, l'agence a récemment essuyé un revers devant un tribunal britannique.

    Les partisans d'une réglementation au niveau des États affirment que les efforts fédéraux pour réguler l'IA avancent beaucoup trop lentement et qu'une certaine réglementation est nécessaire compte tenu des problèmes critiques que cette technologie pose actuellement. Certains sont favorables à une législation fédérale, mais ont déclaré qu'une approche fragmentaire, même si elle n'est pas idéale, est préférable à une action timide au niveau fédéral.

    Dans les 90 jours suivant la signature du décret, le secrétaire américain au Commerce sera chargé de publier un rapport identifiant les États qui enfreignent les directives politiques de la Maison Blanche en matière d'IA, ainsi que des recherches sur les États qui pourraient devenir inéligibles au programme BEAD (Broadband Equity Access and Deployment). Pour rappel, ce programme finance l'accès au haut débit dans les zones rurales de plusieurs États.

    Donner un droit de veto à la FCC sur les lois étatiques relatives à l'IA

    Lors d'une intervention au sommet Politico's AI & Tech Summit en septembre 2025, Brendan Carr, commissaire de la FCC, a avancé une interprétation possible de la loi sur les communications qui permettrait à la FCC de passer outre la législation des États. « Si une loi étatique ou locale interdit effectivement le déploiement de cette infrastructure moderne, alors la FCC a le pouvoir d'intervenir », a-t-il expliqué à Alex Burns, journaliste chez Politico.

    Il a cité la loi sur la sécurité numérique de l'Union européenne et a fait part de sa préoccupation : « leurs modèles d'IA ne seront pas des modèles d'IA recherchant la vérité, mais des modèles d'IA woke, des modèles d'IA promouvant la DEI ». Selon lui, les mesures de Donald Trump empêchent le développement de tels modèles d'IA aux États-Unis. Brendan Carr a également fustigé la nouvelle réglementation californienne sur « la sécurité de l'IA ».

    L'idée selon laquelle la FCC devrait disposer d'un droit de veto sur les lois des États relatives à l'IA, ainsi que d'autres parties du décret de Trump, pourrait facilement être contestée devant les tribunaux. Mais la création d'un groupe de travail sur les litiges pourrait encore entraver la réglementation de l'IA au niveau des États. Ce décret est présenté comme le plan de secours de Donald Trump au cas où le Congrès échoue à adopter le moratoire.

    Au début de l'année, le Congrès a tenté d'introduire un moratoire dans le projet de loi controversé « Big, Beautiful Bill » de Donald Trump, mais l'initiative a échoué après qu'un groupe bipartite de sénateurs s'est opposé à cette mesure. Récemment, le leader de la majorité à la Chambre des représentants, Steve Scalise, a déclaré que le Congrès envisageait une deuxième tentative de moratoire en l'ajoutant au projet de loi NDAA (National Defense Authorization Act).

    Mais tout comme dans le cas du « Big, Beautiful Bill », un moratoire dissimulé dans la NDAA pourrait se heurter à une opposition, en particulier si la sanction est la même : la suspension du financement du haut débit dans les zones rurales. « La vraie question est la suivante : quel montant de subvention faut-il pour faire pression sur les législateurs des États afin qu'ils modifient leurs réglementations en matière d'IA ? », a déclaré Steve Thierer.

    Le moratoire sur la réglementation suscite plusieurs préoccupations

    Les critiques du moratoire sur les réglementations étatiques dénoncent une offensive tous azimuts de Donald Trump contre les États ayant des réglementations strictes en matière d'IA. Invité à confirmer l'exactitude du projet de décret, un responsable de la Maison Blanche a déclaré au journal The Hill : « tant que la Maison Blanche ne l'aura pas officiellement annoncé, toute discussion sur d'éventuels décrets présidentiels relève de la spéculation ».

    Nom : 1-finaloverallmor-w640.png
Affichages : 5683
Taille : 67,8 Ko

    Le Center for Democracy and Technology, une organisation à but non lucratif défendant les droits numériques qui a reçu des financements de la part d'entreprises technologiques, a critiqué le projet de décret. « Le président ne peut pas passer outre les lois des États par le biais d'un décret, point final », a déclaré Travis Hall, directeur du groupe chargé des relations avec les États. Selon Travis Hall, seul le Congrès peut voter de telles législations.

    « La préemption est une question qui relève du Congrès, qui l'a examinée et rejetée, et qui devrait continuer à la rejeter », a déclaré Travis Hall. La gouverneure de l'Alabama, Sarah Huckabee Sanders (R), a également critiqué ce projet et a exhorté le Congrès à abandonner son projet de moratoire.

    « Cet été, j'ai mené 20 gouverneurs républicains pour faire pression sur le Congrès afin qu'il rejette son interdiction de 10 ans sur les réglementations étatiques en matière d'IA, protégeant ainsi l'interdiction de l'exploitation des enfants par l'IA en Arkansas et d'autres mesures de protection de bon sens », a-t-elle écrit dans un message sur X (Twitter). « Abandonnez dès maintenant le projet de préemption et protégez nos enfants et nos communautés ».

    Cody Venzke, de l'ACLU (American Civil Liberties Union), déclare que « si le président Donald Trump veut gagner la course à l'IA, le peuple américain doit savoir que l'IA est sûre et fiable ». Il a ajouté que « la proposition d'un moratoire sur les réglementations étatiques ne fait que saper cette confiance ».

    Mais Donald Trump insiste sur le fait que « la réglementation excessive par les États menace de compromettre les investissements dans l'IA et l'économie américaine ». « Nous DEVONS avoir une norme fédérale unique au lieu d'un patchwork de 50 régimes réglementaires étatiques. Si nous ne le faisons pas, la Chine nous rattrapera facilement dans la course à l'IA », a écrit Donald Trump dans un message publié sur son réseau social Truth Social.

    L’absence de régulation alimente une défiance de plus en plus forte

    Les experts affirment que sans cadres réglementaires claires, les consommateurs pourraient se trouver exposés à des usages abusifs de l’IA, comme la reconnaissance faciale sans garde-fous ou des algorithmes discriminants. L'Union européenne a adopté une législation stricte pour encadrer ces cas d'utilisation jugés à risque. Les experts soulignent également les questions de transition énergétique et d’émissions liées au développement rapide de l’IA.

    « Sans mesures de protection adéquates, une intelligence artificielle puissante et non réglementée pourrait causer des dommages graves et potentiellement irréversibles », avertit un rapport sur la politique en matière d'IA de pointe rendu public par le gouverneur de Californie, Gavin Newsom.

    Cet avertissement fait suite à une série de mesures législatives prises en Californie, où le gouverneur Gavin Newsom a cette année signé neuf projets de loi visant à réglementer les contenus générés par les outils d'IA générative pour répondre aux risques liés aux deepfakes. Ces lois concernent notamment les acteurs et les interprètes, l'utilisation abusive de contenus générés par l'IA et l'utilisation de cette technologie dans les campagnes électorales.

    Des voix républicaines dénoncent également une atteinte aux droits des États, insistant pour retirer la mesure sur le moratoire. Selon le document rendu public par le gouverneur de Californie, plus de 40 procureurs généraux d'État se sont également joints à l'opposition sur le moratoire, écrivant aux législateurs du Congrès pour exprimer leurs préoccupations quant au fait de laisser les Américains vulnérables aux nombreuses menaces que pose l'IA.

    Les préoccupations en matière de sécurité de l'IA se sont intensifiées, les grandes entreprises et laboratoires spécialisés dans l'IA signalant que leurs modèles approchent des seuils de capacité dangereux. Par exemple, Anthropic a déclaré qu'il existe « une probabilité substantielle que le prochain modèle de l'entreprise nécessite des mesures de sécurité ASL-3 » pour les systèmes qui pourraient aider des individus à créer des armes de destruction massive.

    Dans le cadre d'un sondage réalisé en collaboration avec YouGov, l'Institute for Family Studies (IFS) a interrogé 763 Américains ont voté en 2024 afin de savoir s'ils soutenaient ou non le moratoire sur l'IA. La majorité des électeurs américains se sont opposés au moratoire sur l'IA par une marge de 3 contre 1. Selon le rapport de l'institut, environ 55 % des répondants s'opposent à la disposition, contre 18 % qui la soutiennent et 27 % qui ne sont pas sûrs.

    Conclusion

    Ce projet de décret marque un tournant majeur dans la bataille autour de la régulation de l’IA aux États-Unis. Donald Trump tente de centraliser le pouvoir réglementaire à Washington pour accélérer le développement de l'IA et gagner la course face à la Chine. Cependant, cette stratégie soulève de fortes inquiétudes juridiques et démocratiques, car elle limite l’autonomie des États et pourrait affaiblir des protections importantes pour les citoyens.

    On ignore si Donald Trump signera le projet de décret ni dans quelle mesure il est sérieusement envisagé. L’issue dépendra de la signature officielle du décret et des affrontements judiciaires potentiels qui suivront. Le décret ouvre un débat profond sur l’équilibre entre innovation rapide et garanties démocratiques.

    Par ailleurs, une part importante des gestionnaires de fonds mondiaux considère désormais que les valorisations des entreprises liées à l’IA ressemblent à une bulle. Plus de la moitié pensent que les actions IA sont surévaluées et que les investissements actuels reposent sur des attentes de rendement difficilement tenables. Cette inquiétude est alimentée par l’ampleur des financements engagés et par la vitesse à laquelle les budgets explosent dans le secteur.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous du moratoire proposé par l'administration Trump sur les réglementations étatiques ?
    La course à la suprématie dans le domaine de l'IA justifie-t-elle cette mesure ?

    Voir aussi

    Les sénateurs américains parviennent à un accord sur l'interdiction de la réglementation de l'IA par le président Trump qui vise à empêcher les États américains de réglementer l'IA

    Les Américains s'opposent au moratoire de Donald Trump sur la réglementation de l'IA dans une proportion de 3 contre 1, tandis que les experts appellent à la suppression de cette mesure « dangereuse »

    Les grandes entreprises technologiques, telles qu'Amazon, Meta, Google et Microsoft, font pression pour empêcher les États US d'adopter toute réglementation en matière d'IA au cours de la prochaine décennie

  14. #14
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 617
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 617
    Par défaut Le président Trump a signé un décret qui annule les lois locales limitant l'industrie de l'IA
    Le président Trump a signé un décret qui annule les lois locales limitant l'industrie de l'IA, une victoire pour les Big Tech spécialisées dans l'IA qui ont fait pression contre les réglementations

    Le président américain Donald Trump a récemment signé un décret visant à neutraliser les lois étatiques qui limitent l'industrie de l'intelligence artificielle (IA), une victoire pour les entreprises technologiques qui ont fait pression contre la réglementation de cette technologie en plein essor. Ce décret accorde au ministre de la Justice un large pouvoir pour poursuivre les États et abroger les lois qui ne soutiennent pas la « domination mondiale des États-Unis en matière d'IA », mettant ainsi en péril des dizaines de lois sur la sécurité de l'IA et la protection des consommateurs. Les entreprises d'IA ont mené une campagne de lobbying acharnée au Congrès et à la Maison Blanche pour se débarrasser des réglementations étatiques.

    En novembre, un rapport a révélé que Donald Trump prépare un décret présidentiel visant à empêcher les États américains d’adopter leurs propres lois sur l’IA. Le décret prévoit la création d'un « groupe de travail sur les litiges liés à l'IA », dont la seule responsabilité sera de contester les lois des États en matière d'IA. Le groupe de travail serait en mesure de poursuivre les États dont les lois sont jugées comme entravant la croissance du secteur de l'IA.

    Mais cette initiative est controversée. Elle intervient après l’échec d’un projet de loi au Congrès qui aurait interdit aux États de réguler l’IA, et constitue donc une tentative de contourner le pouvoir législatif par la voie exécutive. Elle est jugée dangereuse. Malgré cela, le président américain Donald Trump a récemment signé un décret visant à neutraliser les lois étatiques qui limitent l'industrie de l'intelligence artificielle (IA), une victoire pour les entreprises technologiques qui ont fait pression contre la réglementation de cette technologie en plein essor.

    Ce décret accorde au ministre de la Justice un large pouvoir pour poursuivre les États et abroger les lois qui ne soutiennent pas la « domination mondiale des États-Unis en matière d'IA », mettant ainsi en péril des dizaines de lois sur la sécurité de l'IA et la protection des consommateurs. Si les États maintiennent leurs lois en vigueur, Trump a ordonné aux régulateurs fédéraux de retenir les fonds destinés au haut débit et à d'autres projets.

    Trump, qui a déclaré qu'il était important pour les États-Unis de dominer le domaine de l'IA, a critiqué les lois des États, estimant qu'elles créaient un patchwork de réglementations confus. Il a déclaré que son décret créerait un cadre réglementaire fédéral unique qui prévaudrait sur les lois des États, ajoutant qu'il était essentiel que les États-Unis conservent leur avance sur la Chine dans ce domaine technologique.

    « Il faut qu'il y ait une seule source », a déclaré Trump aux journalistes dans le Bureau ovale, entouré de responsables, dont David Sacks, le tsar de l'IA et de la cryptographie. « On ne peut pas avoir 50 sources différentes. »


    Trump s'est de plus en plus intéressé à l'industrie de l'IA, signant des décrets visant à limiter la réglementation, à donner accès aux données fédérales et à faciliter la mise en place par les entreprises d'infrastructures pour alimenter cette technologie. Il a également supprimé les barrières à l'exportation des puces qui alimentent l'IA, y compris cette semaine, et a publiquement félicité les dirigeants des entreprises. Il a également donné à Sacks, qui est également un investisseur de la Silicon Valley, une grande influence sur les décisions politiques.

    Si Trump parvient à neutraliser les lois des États, il devrait plutôt proposer une norme nationale solide en matière de réglementation de l'IA, a déclaré Wes Hodges, directeur par intérim du Center for Technology and the Human Person de la Heritage Foundation, une fondation de droite. « Agir ainsi avant de mettre en place des protections nationales proportionnées revient à faire une exception pour les géants de la technologie », a déclaré Hodges.

    Le décret, qui a suscité une large opposition bipartisane, devrait être contesté devant les tribunaux par les États et les associations de consommateurs au motif que seul le Congrès a le pouvoir de passer outre les lois des États, ont déclaré des experts juridiques. La nouvelle technologie d'IA générative, capable d'imiter l'écriture et la voix humaines et de créer des vidéos et des images réalistes, a pris son essor. Mais cette technologie peut être détournée pour tromper les consommateurs, et il a été démontré que des chatbots donnaient des conseils préjudiciables à des mineurs, entre autres problèmes.

    Les États se sont empressés de combler le vide réglementaire fédéral en adoptant leurs propres lois sur la sécurité de l'IA, imposant certaines mesures de sécurité aux entreprises et encadrant l'utilisation de cette technologie. Cette année, les 50 États et territoires ont introduit une législation sur l'IA et 38 États ont adopté une centaine de lois, selon la Conférence nationale des législatures des États.

    La Californie a adopté une loi qui oblige les plus grands modèles d'IA, notamment ChatGPT d'OpenAI et Gemini de Google, à tester leur sécurité et à en divulguer les résultats. Le Dakota du Sud a adopté une loi interdisant les deep fakes, qui sont des vidéos réalistes générées par l'IA, dans les publicités politiques quelques mois avant une élection. L'Utah, l'Illinois et le Nevada ont adopté des lois relatives aux chatbots IA et à la santé mentale, exigeant la divulgation du fait que les utilisateurs interagissent avec des chatbots et ajoutant des restrictions à la collecte de données.

    Lors de la signature du décret, Sacks a déclaré que l'administration ciblerait les lois étatiques les plus « contraignantes », en soulignant les législations sur l'IA qui pourraient « intégrer des préjugés idéologiques » dans les modèles d'IA. Les États ont également adopté un nombre croissant de réglementations relatives à la sécurité des enfants visant les chatbots IA et les entreprises de médias sociaux qui utilisent des technologies basées sur l'IA.

    Le décret stipule qu'il ne prévaudra pas sur les lois relatives à la sécurité des enfants, mais ne donne pas plus de détails. « Bloquer les lois étatiques réglementant l'IA est un cauchemar inacceptable pour les parents et tous ceux qui se soucient de la protection des enfants en ligne », a déclaré Sarah Gardner, directrice générale de Heat Initiative, un groupe de défense de la sécurité des enfants. « Les États ont été la seule ligne de défense efficace contre les dangers de l'IA. »

    Les entreprises d'IA ont mené une campagne de lobbying acharnée au Congrès et à la Maison Blanche pour se débarrasser des réglementations étatiques. Au début de l'année, certains législateurs ont tenté d'inclure un moratoire de dix ans sur les lois étatiques relatives à l'IA dans le projet de loi sur la politique intérieure, mais ils ont abandonné cette mesure après une forte opposition bipartisane. « Une mosaïque de 50 États est un tueur de start-ups », a déclaré Marc Andreessen, de la société de capital-risque Andreessen Horowitz, sur les réseaux sociaux le mois dernier.

    Pourtant, selon différents rapports, l'IA présente de risque qui nécessite la règlementation. En 2023, des chercheurs ont affirmé que « l'IA est susceptible d'être la cause d'une catastrophe de niveau nucléaire ». Pire encore, cette technologie est considérée par plusieurs comme bien plus dangereuse que l’arme nucléaire. Pour le moment, c’est l’humain qui est à la baguette et donc le porteur de danger.

    En outre, l'IA représente un risque pour le climat. L'IA générative, comme ChatGPT, est mentionnée comme étant énergivore, tant pendant l'entraînement que lors de l'inférence. La puissance de calcul nécessaire à l'IA contribue à une consommation électrique importante et à des émissions de CO2 à grande échelle. Les chercheurs comparent le coût énergétique de l'inférence et de l'entraînement, soulignant que ce dernier a un impact environnemental beaucoup plus important.

    Voici un extrait du décret de Donald Trump :

    Garantir un cadre politique national pour l'intelligence artificielle

    En vertu des pouvoirs qui me sont conférés en tant que président par la Constitution et les lois des États-Unis d'Amérique, il est ordonné ce qui suit :

    Section 1. Objectif. Le leadership des États-Unis dans le domaine de l'intelligence artificielle (IA) favorisera la sécurité nationale et économique des États-Unis ainsi que leur domination dans de nombreux domaines. Conformément au décret 14179 du 23 janvier 2025 (Suppression des obstacles au leadership américain dans le domaine de l'intelligence artificielle), j'ai annulé la tentative de mon prédécesseur de paralyser ce secteur et j'ai demandé à mon administration de supprimer les obstacles au leadership des États-Unis dans le domaine de l'IA. Mon administration a déjà accompli un travail considérable pour atteindre cet objectif, notamment en mettant à jour les cadres réglementaires fédéraux existants afin de supprimer les obstacles et d'encourager l'adoption d'applications d'IA dans tous les secteurs. Ces efforts ont déjà apporté d'énormes avantages au peuple américain et ont conduit à des investissements de plusieurs milliers de milliards de dollars à travers le pays. Mais nous n'en sommes qu'aux prémices de cette révolution technologique et nous sommes en concurrence avec nos adversaires pour en obtenir la suprématie.

    Pour gagner, les entreprises américaines spécialisées dans l'IA doivent être libres d'innover sans être entravées par une réglementation contraignante. Or, une réglementation excessive au niveau des États va à l'encontre de cet impératif. Premièrement, la réglementation état par état crée, par définition, un patchwork de 50 régimes réglementaires différents qui rend la conformité plus difficile, en particulier pour les start-ups. Deuxièmement, les lois des États sont de plus en plus souvent responsables d'imposer aux entités d'intégrer des préjugés idéologiques dans leurs modèles. Par exemple, une nouvelle loi du Colorado interdisant la « discrimination algorithmique » pourrait même contraindre les modèles d'IA à produire des résultats erronés afin d'éviter un « traitement ou un impact différentiel » sur les groupes protégés. Troisièmement, les lois des États réglementent parfois de manière inadmissible au-delà des frontières de l'État, empiétant ainsi sur le commerce interétatique.

    Mon administration doit agir avec le Congrès pour garantir l'existence d'une norme nationale peu contraignante, et non de 50 normes étatiques discordantes. Le cadre qui en résultera doit interdire les lois des États qui entrent en conflit avec la politique énoncée dans le présent décret. Ce cadre doit également garantir la protection des enfants, empêcher la censure, respecter les droits d'auteur et protéger les communautés. Un cadre national soigneusement élaboré peut garantir que les États-Unis remportent la course à l'IA, comme nous devons le faire.

    Toutefois, tant qu'une telle norme nationale n'existe pas, il est impératif que mon administration prenne des mesures pour contrôler les lois les plus contraignantes et excessives émanant des États qui menacent de freiner l'innovation.

    Source : Décret de Donald Trump

    Et vous ?

    Pensez-vous que ce décret est crédible ou pertinent ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Les sénateurs américains parviennent à un accord sur l'interdiction de la réglementation de l'IA par le président Trump qui vise à empêcher les États américains de réglementer l'IA

    Les grandes entreprises technologiques, telles qu'Amazon, Meta, Google et Microsoft, font pression pour empêcher les États US d'adopter toute réglementation en matière d'IA au cours de la prochaine décennie

    Après l'introduction de mesures destinées à assurer sa domination en matière d'IA, l'administration Trump a désormais les robots dans son viseur, fin de contrer les avancées de la Chine en la matière
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  15. #15
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 654
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 654
    Par défaut New York promulgue une loi visant à responsabiliser les entreprises d'IA quant à la sécurité de leurs modèles
    New York promulgue une loi sur la sécurité de l'IA, ignorant le décret présidentiel de Trump qui vise à empêcher les États de réglementer la technologie
    au nom de la compétition avec la Chine

    La gouverneure de New York, Kathy Hochul, a signé une loi visant à responsabiliser les entreprises d'IA quant à la sécurité de leurs modèles. La loi RAISE établit des règles pour une plus grande transparence, obligeant les entreprises à publier des informations sur leurs protocoles de sécurité et à signaler tout incident dans les 72 heures suivant sa survenue. Cette décision va à l’encontre du décret de Donald Trump, qui cherche à limiter la capacité des États à réglementer l’IA de manière autonome, au profit d’un cadre fédéral unique. New York a choisi d’ignorer ce décret, estimant que l’absence de règles nationales contraignantes justifie une action sur le plan local.

    Kathy Hochul a promulgué la loi RAISE (Responsible AI Safety and Education) le 19 novembre 2025. En vertu de cette loi, à compter du 1er janvier 2027, toute entreprise dont le chiffre d'affaires dépasse 500 millions de dollars et qui développe un système d'IA à grande échelle devra publier et suivre des protocoles visant à prévenir les dommages critiques causés par les modèles d'IA et signaler toute violation grave, sous peine d'amendes.

    La loi prévoit aussi la création d'un nouveau bureau au sein du département des services financiers de l'État de New York. Ce bureau sera chargé de faire respecter la loi, d'émettre des règles et des réglementations, d'évaluer les frais et de publier un rapport annuel sur la sécurité de l'IA. Certains éléments de la loi simplifieront et codifieront les meilleures pratiques existantes. (Elle intervient quelques mois après l'adoption d'une loi similaire en Californie.)


    Mais les sanctions ne seront pas aussi sévères que celles initialement présentées lors de l'adoption du projet de loi en juin 2025. L'ancienne version prévoyait des amendes pouvant atteindre 10 millions de dollars pour la première infraction commise par une entreprise et 30 millions de dollars pour les infractions suivantes, mais la nouvelle fixe les amendes à 1 million de dollars pour la première infraction et à 3 millions de dollars pour toute infraction ultérieure.

    Citation Envoyé par Kathy Hochul, gouverneure de New York

    En adoptant la loi RAISE, New York montre une fois de plus la voie au reste du pays en établissant une norme solide et raisonnable en matière de sécurité de l'IA de pointe, qui oblige les plus grands développeurs à rendre des comptes sur leurs protocoles de sécurité et de transparence. Cette loi s'appuie sur le cadre récemment adopté par la Californie, créant ainsi une référence unifiée parmi les États leaders du pays en matière de technologie, alors que le gouvernement fédéral est à la traîne et ne parvient pas à mettre en œuvre des réglementations de bon sens qui protègent le public.
    En vertu de la nouvelle loi RAISE, le procureur général de New York peut intenter des actions civiles contre les grands promoteurs immobiliers pour défaut de présentation des rapports requis ou pour fausses déclarations. La gouverneure Kathy Hochul a également signé deux autres textes législatifs sur l'IA au début du mois de décembre 2025. Ces deux textes sont axés sur l'utilisation de cette technologie dans l'industrie du divertissement.

    La loi RAISE va à l'encontre du décret présidentiel de Donald Trump

    La promulgation de la loi RAISE intervient une semaine après que le président Donald Trump a signé un décret visant à empêcher les États de réglementer l'IA. Le décret présidentiel de Donald Trump constituait une victoire pour les Big Tech spécialisés dans l'IA. Ils ont fait pression contre les réglementations sur l'IA, estimant que ces règles ralentiraient l'industrie américaine de l'IA et désavantageraient les États-Unis dans la compétition mondiale.

    Mais New York s'oppose à cet argumentaire. « Nous avons rejeté cette proposition. Même si je conviens que cette mesure serait plus efficace sur le plan fédéral, nous devons la mettre en œuvre sur le plan local. Nous ne pouvons pas simplement empêcher les gens de prendre des mesures pour protéger leurs citoyens », a déclaré Alex Bores, auteur du projet de loi et membre de l'Assemblée représentant le 73e district de New York à Manhattan.

    Alex Bores a déclaré que la version finale de la loi RAISE s'inspirait du projet de loi californien SB53, signé par le gouverneur Gavin Newsom au début de l'année 2025. Mais elle est plus stricte dans certains domaines, notamment en ce qui concerne le délai dont disposent les développeurs d'IA pour signaler les incidents liés à la sécurité. La loi californienne impose un délai de 15 jours, tandis que celle de New York impose un délai de 72 heures.

    Selon Alex Bores, le calendrier de divulgation était l'un des points les plus controversés du projet de loi. Il a ajouté qu'un laboratoire d'IA avait envoyé un e-mail trois heures avant sa signature pour demander des modifications. « Il s'agissait d'une véritable lutte menée par des intérêts extrêmement puissants pour empêcher toute évolution dans ce domaine et faire de la loi californienne le nouveau plafond, mais cette bulle a éclaté », a-t-il déclaré.

    Dans le cadre d'un sondage réalisé en collaboration avec YouGov, l'Institute for Family Studies (IFS) a interrogé 763 Américains qui ont voté en 2024 afin de savoir s'ils soutenaient ou non le moratoire sur l'IA. La majorité des électeurs américains se sont opposés au moratoire sur l'IA par une marge de 3 contre 1. Selon le rapport, environ 55 % des répondants s'opposent à la disposition, contre 18 % qui la soutiennent et 27 % qui ne sont pas sûrs.

    Neutraliser la réglementation pour gagner la course face à la Chine

    Le décret de Donald Trump est la dernière salve en date d'une bataille qui couve depuis longtemps dans le domaine de la politique en matière d'IA, avec des désaccords sur l'ampleur des risques liés à cette technologie et sur la meilleure façon d'y répondre. Certains États ont pris des initiatives, avec la loi californienne sur la sécurité de l'IA et les « risques catastrophiques », ainsi qu'une loi de l'État du Colorado qui empêche la « discrimination algorithmique ».

    Ce décret accorde au ministre de la Justice un large pouvoir pour poursuivre les États et abroger les lois qui ne soutiennent pas la « domination mondiale des États-Unis en matière d'IA », mettant ainsi en péril des dizaines de lois sur la sécurité de l'IA et la protection des consommateurs. Si les États maintiennent leurs lois en vigueur, Donald Trump a ordonné aux régulateurs fédéraux de retenir les fonds destinés au haut débit et à d'autres projets.

    Le président Donald Trump, qui a déclaré qu'il est important pour les États-Unis de dominer le domaine de l'IA, a critiqué les lois des États, estimant qu'elles créaient un patchwork de réglementations confus. Il a déclaré que son décret créerait un cadre réglementaire fédéral unique qui prévaudrait sur les lois des États, ajoutant qu'il était essentiel que les États-Unis conservent leur avance sur la Chine dans ce domaine technologique.

    « Il faut qu'il y ait une seule source », a déclaré Donald Trump aux journalistes dans le Bureau ovale, entouré de responsables de son administration, dont David Sacks, le tsar de l'IA et de la cryptographie. « On ne peut pas avoir 50 sources différentes », a ajouté le président américain.

    Les partisans d'une réglementation au niveau des États affirment que les efforts fédéraux pour réguler l'IA avancent beaucoup trop lentement et qu'une certaine réglementation est nécessaire compte tenu des problèmes critiques que cette technologie pose actuellement. Certains sont favorables à une législation fédérale, mais ont déclaré qu'une approche fragmentaire, même si elle n'est pas idéale, est préférable à une action timide au niveau fédéral.

    Le moratoire sur la réglementation suscite plusieurs préoccupations

    Les critiques du moratoire sur les réglementations étatiques dénoncent une offensive tous azimuts de Donald Trump contre les États ayant des réglementations strictes en matière d'IA. Donald Trump s'est de plus en plus intéressé à l'industrie de l'IA, signant des décrets visant à limiter la réglementation, à donner accès aux données fédérales et à faciliter la mise en place par les entreprises d'infrastructures pour alimenter cette technologie.

    Le Center for Democracy and Technology, une organisation à but non lucratif défendant les droits numériques qui a reçu des financements de la part d'entreprises technologiques, a critiqué le projet de décret. « Le président ne peut pas passer outre les lois des États par le biais d'un décret, point final », a déclaré Travis Hall, directeur du groupe chargé des relations avec les États. Selon Travis Hall, seul le Congrès peut voter de telles législations.

    « La préemption est une question qui relève du Congrès, qui l'a examinée et rejetée, et qui devrait continuer à la rejeter », a déclaré Travis Hall. La gouverneure de l'Alabama, Sarah Huckabee Sanders (R), a également critiqué ce projet et a exhorté le Congrès à abandonner son projet de moratoire.

    « Cet été, j'ai mené 20 gouverneurs républicains pour faire pression sur le Congrès afin qu'il rejette son interdiction de 10 ans sur les réglementations étatiques en matière d'IA, protégeant ainsi l'interdiction de l'exploitation des enfants par l'IA en Arkansas et d'autres mesures de protection de bon sens », a-t-elle écrit dans un message sur X (ex-Twitter). « Abandonnez dès maintenant le projet de préemption et protégez nos enfants et nos communautés ».

    Cody Venzke, de l'ACLU (American Civil Liberties Union), déclare que « si le président Donald Trump veut gagner la course à l'IA, le peuple américain doit savoir que l'IA est sûre et fiable ». Il a ajouté que « la proposition d'un moratoire sur les réglementations étatiques ne fait que saper cette confiance ».

    Conclusion

    New York et la Californie établissent de facto des règles de sécurité pour les entreprises pionnières dans le domaine de l'IA aux États-Unis, alors que le Congrès peine à se mettre d'accord sur des normes fédérales. L’initiative pourrait encourager d’autres États à suivre la même voie et accentuer le débat sur le partage des compétences entre États et gouvernement fédéral dans la gouvernance de l’IA. Ce que Donald Trump cherche à empêcher.

    La nouvelle loi RAISE promulguée par la gouverneure de New York est politiquement marquante, car elle va à rebours du récent décret signé par le président Donald Trump. Avec la loi RAISE, New York se positionne également comme l’un des États les plus stricts en matière de régulation de l’IA.

    Donald Trump insiste sur le fait que « la réglementation excessive par les États menace de compromettre les investissements dans l'IA et l'économie américaine ». « Nous DEVONS avoir une norme fédérale unique au lieu d'un patchwork de 50 régimes réglementaires étatiques. Si nous ne le faisons pas, la Chine nous rattrapera facilement dans la course à l'IA », a écrit Donald Trump dans un message publié sur son réseau social Truth Social.

    Source : la gouverneure de New York, Kathy Hochul

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de la loi RAISE adoptée par l'État de New York ?
    Que pensez-vous du moratoire sur les lois étatiques que Donald Trump veut imposer ?
    Selon vous, quelle solution serait plus efficace entre un cadre fédéral unique et un patchwork de lois étatiques ?
    Un cadre fédéral unique protègerait-il correctement les consommateurs contre les risques liés à l'IA ?

    Voir aussi

    Le président Trump a signé un décret qui annule les lois locales limitant l'industrie de l'IA, une victoire pour les Big Tech spécialisées dans l'IA qui ont fait pression contre les réglementations

    Le décret de Trump visant à interdire les lois étatiques sur l'IA centralise le pouvoir réglementaire à Washington pour accélérer l'innovation, mais pourrait priver les citoyens de protections essentielles

    L'administration Trump évaluerait la loyauté des entreprises, les récompensant par des faveurs ou des blocages de régulations. Les entreprises de la Tech en seraient les plus grandes bénéficiaires

Discussions similaires

  1. La chambre des représentants tue la SOPA
    Par Lunatikzx dans le forum Actualités
    Réponses: 7
    Dernier message: 18/01/2012, 11h08
  2. Gestion des Etats-Unis d'Amérique
    Par Barack Obama dans le forum Requêtes
    Réponses: 11
    Dernier message: 13/12/2011, 19h26
  3. Réponses: 0
    Dernier message: 01/06/2010, 16h28
  4. Bing a du mal à sortir des Etats-Unis
    Par Gordon Fowler dans le forum Actualités
    Réponses: 16
    Dernier message: 26/08/2009, 12h17
  5. Réponses: 7
    Dernier message: 20/08/2009, 12h12

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo