"Le traité entrera en vigueur le premier jour du mois qui suit l’expiration d’une période de trois mois après la date à laquelle cinq signataires,
dont au moins trois États membres du Conseil de l’Europe, l’auront ratifié."
Vive la simplicité !!!
Discussion :
"Le traité entrera en vigueur le premier jour du mois qui suit l’expiration d’une période de trois mois après la date à laquelle cinq signataires,
dont au moins trois États membres du Conseil de l’Europe, l’auront ratifié."
Vive la simplicité !!!

Quelles "valeurs" ?En établissant des normes juridiquement contraignantes, ce traité vise à garantir que l’IA est développée et utilisée de manière éthique et responsable, tout en protégeant les valeurs fondamentales de la société.
Des dizaines de travailleurs de la filière IA se retournent contre leurs patrons et signent une lettre de soutien au projet de loi californien sur l'IA
Susceptible de freiner les géants technologiques
Des dizaines d’employés d’entreprises parmi lesquelles on compte OpenAI, Google Deepmind et Meta font face à leurs patrons pour appeler à une pause dans le développement de l’intelligence artificielle et à la mise sur pied d’un cadre réglementaire plus strict en la matière. Ils le font savoir dans une lettre dans laquelle ils expriment leur soutien au projet de loi californien sur l’intelligence artificielle dénommé SB 1047.
Envoyé par L'essentiel de la lettre
Certaines entreprises derrière les modèles d’intelligence artificielle les plus en vue reconnaissent ne pas avoir la maîtrise totale de leur fonctionnementMany AI company employees came out in favor of SB 1047 (@GavinNewsom)https://t.co/WicgvWlrcY pic.twitter.com/9WuE5if4RN
— Dan Hendrycks (@DanHendrycks) September 9, 2024
Le PDG de l'entreprise, Sam Altman, a déclaré qu'OpenAI n'avait pas besoin de comprendre parfaitement son produit pour en publier de nouvelles versions. Lors d'un entretien le 30 mai avec Nicholas Thompson, PDG de The Atlantic, au sommet mondial AI for Good de l'Union internationale des télécommunications (UIT) à Genève, en Suisse, Altman a parlé de la sécurité de l'IA et du potentiel de la technologie pour le bien de l'humanité. Toutefois, le PDG n'a pas semblé avoir une bonne réponse à la question fondamentale du fonctionnement de GPT.
« Nous n'avons certainement pas résolu la question de l'interprétabilité », a déclaré Altman. Dans le domaine de l'intelligence artificielle, l'interprétabilité - ou l'explicabilité - consiste à comprendre comment les systèmes d'IA et d'apprentissage automatique prennent des décisions, selon le Centre pour la sécurité et les technologies émergentes de l'université de Georgetown.
« Si vous ne comprenez pas ce qui se passe, n'est-ce pas un argument pour ne pas continuer à publier de nouveaux modèles plus puissants ? a demandé Thompson. Altman a éludé la question et a fini par répondre que, même en l'absence d'une cognition complète, « ces systèmes sont généralement considérés comme sûrs et robustes ».
Voici son raisonnement : GPT, comme le cerveau humain, génère du contenu en se basant sur des ensembles de données existants et peut apprendre au fil du temps. Cependant, il ne possède pas d’intelligence émotionnelle ni de conscience humaine. Malgré cela, il peut être difficile de comprendre comment les algorithmes, tout comme notre cerveau, parviennent à leurs conclusions.
« Nous ne comprenons pas ce qui se passe dans votre cerveau, neurone par neurone, et pourtant nous savons que vous pouvez suivre certaines règles et nous pouvons vous demander d'expliquer pourquoi vous pensez quelque chose », a déclaré Altman. En comparant le GPT au cerveau humain, Altman a évoqué la présence d'une boîte noire, ou d'un sentiment de mystère derrière sa fonctionnalité. À l'instar du cerveau humain, la technologie d'IA générative telle que GPT crée de nouveaux contenus sur la base d'ensembles de données existants et est censée apprendre au fil du temps.
C’est la raison des appels de certains manifestants à « Arrêter la course, car les développements de l’IA ne sont pas sûrs »
À Londres, une vingtaine de manifestants se sont postés devant le ministère britannique de la science, de l'innovation et de la technologie, scandant des slogans tels que « arrêtez la course, ce n'est pas sûr » et « l'avenir de qui ? notre avenir », dans l'espoir d'attirer l'attention des décideurs politiques. Les manifestants affirment que leur objectif est d'inciter les gouvernements à réglementer les entreprises qui développent des modèles d'IA d'avant-garde, notamment le Chat GPT d'OpenAI. Ils affirment que les entreprises ne prennent pas suffisamment de précautions pour s'assurer que leurs modèles d'IA sont suffisamment sûrs pour être diffusés dans le monde.
« Les entreprises d'IA ont prouvé à maintes reprises que l'on ne pouvait pas leur faire confiance, à travers la manière dont elles traitent leurs employés et le travail des autres, en le volant littéralement et en le jetant dans leurs modèles », a déclaré Gideon Futerman, un étudiant d'Oxford qui a prononcé un discours lors de la manifestation.
L'une des manifestantes, Tara Steele, rédactrice indépendante qui travaille sur des blogs et des contenus de référencement, a déclaré qu'elle avait constaté l'impact de la technologie sur ses propres moyens de subsistance. « J'ai remarqué que depuis l'apparition de ChatGPT, la demande de travail en freelance a considérablement diminué », explique-t-elle. « Personnellement, j'adore écrire... J'ai vraiment adoré ça. Et c'est un peu triste, émotionnellement ».
Elle explique que sa principale raison de protester est qu'elle craint que les modèles d'intelligence artificielle d'avant-garde n'aient des conséquences encore plus dangereuses à l'avenir. « Nous avons une foule d'experts hautement qualifiés, des lauréats du prix Turing, des chercheurs en intelligence artificielle très cités et les PDG des entreprises d'intelligence artificielle eux-mêmes [qui affirment que l'intelligence artificielle pourrait être extrêmement dangereuse] ».
Elle est particulièrement préoccupée par le nombre croissant d'experts qui mettent en garde contre les conséquences catastrophiques d'une IA mal maîtrisée. Un rapport commandé par le gouvernement américain, publié en mars, met en garde contre « l'essor de l'IA avancée et de l'IAG [intelligence artificielle générale], qui pourrait déstabiliser la sécurité mondiale d'une manière qui rappelle l'introduction des armes nucléaires ». Actuellement, les plus grands laboratoires d'IA tentent de construire des systèmes capables de surpasser les humains dans presque toutes les tâches, y compris la planification à long terme et la pensée critique. S'ils y parviennent, de plus en plus d'aspects de l'activité humaine pourraient être automatisés, qu'il s'agisse de choses banales comme les achats en ligne ou de l'introduction de systèmes d'armes autonomes qui pourraient agir d'une manière que nous ne pouvons pas prédire. Cela pourrait conduire à une « course aux armements » qui augmenterait la probabilité « d'accidents mortels à l'échelle mondiale et à l'échelle des ADM [armes de destruction massive], de conflits interétatiques et d'escalade », selon le rapport.
Source : Lettre
Et vous ?
Quelles sont les principales préoccupations que vous avez concernant le développement rapide de l’intelligence artificielle ?
Comment les gouvernements devraient-ils réguler l’IA pour équilibrer l’innovation et la sécurité publique ?
Quel rôle le public doit-il jouer dans la décision des limites de l’IA ?
Les avantages de l’IA l’emportent-ils sur les risques potentiels pour l’emploi et la vie privée ?
Devrions-nous craindre une ‘course à l’IA’ entre les entreprises et les nations, et si oui, comment pouvons-nous la prévenir ?
Quelles mesures de sécurité spécifiques les entreprises d’IA devraient-elles mettre en place avant de lancer de nouveaux produits ?
Comment l’IA a-t-elle affecté votre vie professionnelle ou personnelle, et quelles sont vos attentes pour l’avenir ?
Quelles sont les responsabilités éthiques des développeurs d’IA, et comment peuvent-ils s’assurer qu’ils les respectent ?
Voir aussi :
Craignant l'extinction de l'humanité, un groupe de protestation milite pour l'arrêt du développement de l'IA jusqu'à ce que des mesures de sécurité adéquates soient établies
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
Des pionniers de l'IA réclament des protections contre les « risques catastrophiques » liés à la technologie et la création d'une autorité internationale
chargée de surveiller son développement
Un groupe de scientifiques participant au développement de l'IA appelle la communauté internationale à mettre en place un organe de contrôle afin de surveiller l'évolution de la technologie. Ils affirment que l'IA pourrait, en l'espace de quelques années, surpasser les capacités de ses créateurs et que « la perte de contrôle humain ou l'utilisation malveillante de ces systèmes d'IA pourrait avoir des conséquences catastrophiques pour l'ensemble de l'humanité ». Le groupe, qui est composé d'experts européens, américains, chinois et d'ailleurs, appelle une résolution rapide de ces préoccupations afin de garantir le développement de systèmes d'IA sécurisés et fiables
Des chercheurs en IA affirment que l'IA pourrait causer de graves dommages
Au début du mois, des scientifiques du monde entier se sont réunis à Venise, en Italie, pour discuter des « risques catastrophiques » liés à l'IA et des solutions potentielles. La rencontre s'inscrit dans le cadre de la troisième réunion des Dialogues internationaux sur la sécurité de l'IA, organisée par un groupe de recherche américain à but non lucratif appelé FAR AI. Le séminaire a réuni des scientifiques des États-Unis, de Chine, de Grande-Bretagne, de Singapour, du Canada et d'ailleurs. À l'issue des concertations, le groupe a appelé à une préparation mondiale à la sécurité de l'IA pour éviter les risques catastrophiques.
Dans une déclaration publiée sur son site, le groupe a déclaré que les gouvernements ont besoin de savoir ce qui se passe dans les laboratoires de recherche et les entreprises qui travaillent sur les systèmes d'IA dans leur pays. Le groupe estime que les gouvernements ont besoin d'un moyen de communication sur les risques qui n'oblige pas les entreprises ou les chercheurs spécialisés dans l'IA à partager des informations confidentielles avec leurs concurrents.
Le lancement du ChatGPT et d'une série d’outils similaires capables de créer du texte et des images en réponse à une invite a montré à quel point les capacités de l'IA progressent rapidement. La course à la commercialisation de la technologie l'a rapidement fait passer des franges de la science aux smartphones, aux voitures et aux salles de classe, et les gouvernements, de Washington à Pékin, ont été contraints de trouver un moyen de la réglementer et de l'exploiter.
Les chercheurs en IA qui ont signé la déclaration du FAR AI s'inquiètent du fait que la technologie qu'ils ont contribué à créer pourrait causer de graves dommages à l'humanité. Selon Gillian Hadfield, juriste et professeur d'informatique et d'administration à l'université Johns Hopkins, si les systèmes d'IA, où qu'ils soient dans le monde, devaient développer ces capacités aujourd'hui, il n'existe aucun plan pour les maîtriser. Une situation qui pourrait s'avérer dangereuse.
Hadfield affirme : « si, dans six mois, une catastrophe se produisait et que nous découvrions que des modèles commencent à s'améliorer de manière autonome, qui appellerait-on ? ». Mais leur déclaration est controversée, de nombreux critiques affirmant qu'il est bien trop tôt pour être paranoïaque sur les risques de l'IA. Selon ces derniers, « les outils d'IA actuels ne sont pas du tout intelligents comme leurs créateurs ou les entreprises voudraient bien le faire croire ».
« Lorsque l'IA pourra réellement surpasser l'homme dans des tâches scientifiques ou techniques, alors nous pourrons discuter de ces risques. L'IA a accès à toutes nos connaissances en physique et en chimie, alors pourquoi ne pourrait-elle pas inventer une batterie de nouvelle génération ou un supraconducteur ? À ce jour, tous les systèmes d'IA dont nous disposons, y compris de pointe, sont stupides », peut-on lire dans les commentaires.
Une autorité internationale chargée de surveiller les progrès de la technologie
Le groupe propose que les pays mettent en place des autorités de sécurité de l'IA pour enregistrer les systèmes d'IA sur leur territoire. Ces autorités collaboreraient ensuite pour convenir d'un ensemble de lignes rouges et de signaux d'alerte, par exemple si un programme d'IA peut se copier lui-même ou tromper intentionnellement ses créateurs. Le tout serait ensuite coordonné par un organisme international. Ces réunions sont un rare lieu d'échange entre scientifiques chinois et occidentaux, à un moment où les États-Unis et la Chine sont engagés dans une compétition tendue pour la suprématie technologique.
L'événement s'est déroulé pendant trois jours à la Casa dei Tre Oci à Venise et s'est concentré sur les mécanismes d'application des lignes rouges relatives au développement de l'IA définies lors de l'événement précédent de l'IDAIS-Beijing. Le groupe a travaillé à l'élaboration de propositions concrètes visant à empêcher la violation de ces lignes rouges et à garantir le développement en toute sécurité de systèmes d'IA avancés. Les chercheurs font trois propositions clés :
Préparation aux situations d'urgence
Les experts participants ont souligné la nécessité de se préparer aux risques liés à l'IA avancée qui peuvent émerger à tout moment. Ils ont convenu que des systèmes d'IA très performants seront probablement mis au point au cours des prochaines décennies, et qu'ils pourraient même l'être de manière imminente. Pour répondre à cette préoccupation urgente, ils ont proposé des accords internationaux de préparation aux situations d'urgence.
Dans le cadre de ces accords, les autorités nationales chargées de la sécurité de l'IA se réuniraient, collaboreraient et s'engageraient à mettre en œuvre l'enregistrement et la divulgation des modèles, le signalement des incidents, les fils-pièges et les plans d'urgence. Cette proposition reconnaît que des risques importants liés à l'IA avancée peuvent émerger rapidement et de manière inattendue, ce qui nécessite une réponse mondiale coordonnée.
Assurance de la sécurité
Pour veiller à ce que les lignes rouges convenues ne soient pas franchies, la déclaration préconise un cadre global d'assurance de la sécurité. Dans ce cadre, les autorités nationales chargées de la sécurité de l'IA devraient exiger des développeurs qu'ils présentent des cas de sécurité très fiables avant de déployer des modèles dont les capacités dépassent les seuils spécifiés. Elle ajoute que les modèles doivent être également surveillés une fois déployés.
Elle précise : « la surveillance post-déploiement devrait aussi être un élément clé de l'assurance des systèmes d'IA hautement performants à mesure qu'ils sont adoptés à plus grande échelle. Il est important que ces garanties de sécurité fassent l'objet d'audits indépendants, afin d'ajouter un niveau supplémentaire d'examen et de responsabilité au processus ».
Recherche sur la sécurité et la vérification
Les participants ont souligné que la communauté des chercheurs devait mettre au point des techniques permettant aux États de vérifier rigoureusement la véracité et la validité des affirmations relatives à la sécurité de l'IA formulées par les développeurs et, éventuellement, par d'autres États. Pour garantir l'indépendance et la crédibilité de cette recherche, ils soulignent qu'elle devrait être menée à l'échelle mondiale et financée par un large éventail de gouvernements et de philanthropes. L'approche vise à créer un cadre solide et impartial pour évaluer et valider les mesures de sécurité de l'IA à l'échelle internationale.
Les efforts précédents en cours visant à assurer la sécurité des systèmes d'IA
OpenAI et d'autres entreprises américaines dominent largement la course à l'IA. Mais elles sont progressivement rattrapées par les entreprises européennes et chinoises. Ces derniers mois, des entreprises chinoises ont dévoilé des technologies qui rivalisent avec les principaux systèmes américains d'IA. Kling, un modèle d’IA chinois de création de vidéos, a fait surface cet été et donné lieu à des comparaisons avec Sora, le modèle équivalent développé par OpenAI. Tout comme son rival Sora, Kling intègre la liste d’outils susceptibles de créer des bouleversements dans l'industrie cinématographique à l'avenir.
En Europe, les modèles open source de la startup d'IA française Mistral AI suscitent fortement l'attention. Il y a quelques jours, Mistral a lancé son premier modèle multimodal appelé Pixtral 12B. Ce modèle de 12 milliards de paramètres est capable de traiter à la fois des images et du texte, et utilise son modèle textuel Nemo 12B. Il devrait en théorie être capable d'effectuer des tâches telles que légender des images et compter le nombre d'objets sur une photo.
Au cours de l'année écoulée, les responsables gouvernementaux chinois et américains ont fait de l'IA une priorité. En juillet, un conclave du parti communiste chinois a appelé à la mise en place d'un système de régulation de la sécurité de l'IA. En janvier, les médias locaux ont rapporté que le pays a approuvé plus de 40 modèles d'IA à usage public au cours des six premiers mois depuis que les autorités ont entamé le processus d'approbation des modèles.
Au début du mois, un groupe de normalisation technique influent en Chine a publié un cadre de sécurité pour l'IA. De l'autre côté du Pacifique, le président américain Joe Biden a signé en octobre dernier un décret exigeant des entreprises qu'elles fassent rapport au gouvernement fédéral sur les risques que leurs systèmes d'IA pourraient présenter, comme leur capacité à créer des armes de destruction massive ou leur potentiel à être utilisés par des terroristes.
Lors de leur rencontre l'année dernière, le président Biden et le dirigeant chinois, Xi Jinping, ont convenu que les responsables des deux pays devraient organiser des discussions sur la sécurité de l'IA. La première réunion a eu lieu à Genève en mai. Dans le cadre d'une initiative gouvernementale plus large, des représentants de 28 pays ont signé une déclaration en Grande-Bretagne en novembre dernier, acceptant de coopérer pour évaluer les risques de l'IA.
Ils se sont à nouveau réunis à Séoul en mai, mais ces rencontres n'ont pas permis de fixer des objectifs politiques spécifiques. Selon les analystes, la méfiance entre les États-Unis et la Chine ajoute à la difficulté de parvenir à un alignement. Dans le même temps, les États-Unis tentent d'empêcher la Chine d'accéder aux puces d'IA de pointe pour développer sa technologie. Les restrictions américaines compliquent également la coopération entre les deux pays.
Source : FAIR AI
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous des propositions faites par le groupe de scientifiques pour assurer la sécurité de l'IA ?
Les chercheurs affirment que l'IA pourrait causer de graves dommages à l'humanité à l'avenir. Qu'en pensez-vous ?
Voir aussi
Kling, un nouvelle modèle d'IA chinois de création de vidéos, fait l'objet de comparaisons avec Sora d'OpenAI et vient allonger la liste d'outils d'IA susceptibles de bouleverser la filière du cinéma
« L'IA pourrait provoquer l'effondrement de l'ordre social et déclencher des guerres », affirment deux grandes entreprises japonaises qui craignent "les outils d'IA qui mentent en toute confiance"
Des dizaines de travailleurs de la filière IA se retournent contre leurs patrons et signent une lettre de soutien au projet de loi californien sur l'IA, susceptible de freiner les géants technologiques

Un très gros interrupteur.Pour veiller à ce que les lignes rouges convenues ne soient pas franchies, la déclaration préconise un cadre global d'assurance de la sécurité. Dans ce cadre, les autorités nationales chargées de la sécurité de l'IA devraient exiger des développeurs qu'ils présentent des cas de sécurité très fiables avant de déployer des modèles dont les capacités dépassent les seuils spécifiés.
Comment fait-on, au fait, pour stopper un flux stellaire ? Nous Quittons les échelles et entrons dans les magnitudes.
Le créateur de la vidéo parodique de Kamala Harris poursuit la Californie en raison de la loi "deepfake", après l'interdiction de sa parodie de la vice-présidente Kamala Harris.
Le créateur de la vidéo parodique de Kamala Harris poursuit la Californie en raison de la loi "deepfake", après l'interdiction de sa parodie de la vice-présidente Kamala Harris affirmant qu'elle était "l'ultime candidate pour la diversité". Il a déclaré avoir le "droit constitutionnel absolu de tourner en dérision les hommes politiques dont il pense qu'ils ne devraient pas être élus".
Un deepfake ou hypertrucage en français est une technique de synthèse d'images basée sur l'intelligence artificielle (IA). Il est utilisé pour combiner et superposer des images et des vidéos existantes afin de les manipuler à l’aide de l’apprentissage automatique. C’est une technologie qui pourrait révolutionner certains secteurs d’activité, mais entre les mains des personnes malveillantes, elle représente un danger.
Différentes lois ont été votées pour réguler la technologie, mais les avis sont partagés. Récemment, un créateur de vidéo a poursuivi l'État de Californie pour une nouvelle loi qui interdit l'utilisation de "deepfake". Il avait publié une vidéo "deepfake" parodique de la vice-présidente Kamala Harris où elle disait qu'elle était "l'ultime candidate pour la diversité". La vidéo a été interdite à cause de la loi sur l'IA.
La loi sur l'IA en Californie suscite des avis partagés
En octobre 2019, l’État de Californie des États-Unis avait voté deux nouvelles lois pour lutter contre les deepfakes. Les deux lois, AB 730 et AB 602, cible des situations bien déterminées où les deepfakes sont les plus courants. La première loi rend illégale la diffusion de toute vidéo manipulée qui pourrait discréditer un candidat dans les 60 jours avant une élection et l'autre permettra aux résidents de poursuivre en justice quiconque met leur image dans du porno sans leur approbation.
Puis en août 2024, un autre projet de loi sur l'IA a été adopté en Californie par l'assemblée législative. Le projet de loi, connu sous le nom de "Safe and Secure Innovation for Frontier Artificial Intelligence Models Act", propose des mesures strictes pour garantir la sécurité des modèles d’IA avancés. Le projet de loi imposerait davantage de responsabilités, notamment des tests de sécurité et la mise en œuvre de mesures de protection. Les entreprises doivent également accepter de se soumettre à des audits par des tiers.
Mais le projet de loi a déclenché diverses réactions. Les entreprises technologiques, notamment Google, Meta et OpenAI, s'y opposent largement, arguant qu'il pourrait freiner l'innovation. Le directeur de la stratégie d'OpenAI avait notamment déclaré que le projet de loi pourrait "ralentir le rythme de l'innovation et inciter les ingénieurs et les entrepreneurs californiens de classe mondiale à quitter l'État à la recherche de meilleures opportunités ailleurs".
Elon Musk, propriétaire de la startup d'IA xAI, s'est prononcé en faveur du projet de loi, en déclarant que "tout bien considéré, je pense que la Californie devrait probablement adopter le projet de loi SB 1047 sur la sécurité de l'IA... je plaide en faveur d'une réglementation de l'IA." Pourtant, il avait partagé une vidéo manipulée imitant la voix de la vice-présidente des États-Unis Kamala Harris, sans indiquer explicitement qu'il s'agissait à l'origine d'une parodie. La vidéo reprenait d'anciens clips authentiques de Mme Harris, mais des experts ont confirmé qu'une grande partie de la voix a été générée par l'IA.
Le créateur de la vidéo parodique de Kamala Harris poursuit la Californie pour la loi sur les "deepfakes"
Christopher Kohls, créateur de la vidéo parodique de Kamala Harris, affirme que ses droits au premier et au quatorzième amendement ont été violés lorsque le gouverneur Gavin Newsom a promulgué la loi contre le "deepfake". Il affirme que la loi a effectivement interdit sa vidéo sur Mme Harris, qui avait suscité la controverse depuis qu'il l'avait postée pour la première fois au cours de l'été.
Le premier message de M. Kohl qualifiait la vidéo de "parodie d'annonce de campagne", ce qui la protégeait en vertu de la précédente loi californienne. Il affirme que la nouvelle loi exige une nouvelle taille de police pour l'étiquetage, qui remplirait tout l'écran de sa vidéo. Dans les documents de procédure, il a déclaré avoir le "droit constitutionnel absolu de tourner en dérision les hommes politiques dont il pense qu'ils ne devraient pas être élus".
Kohls, qui se fait appeler Mr Reagan sur X, a fait visionner la vidéo de Harris 135 millions de fois depuis qu'elle a été partagée par Elon Musk. Mais quand Musk a reposté la vidéo, il n'a pas précisé qu'il s'agissait d'une parodie, ce qui a suscité l'ire des partisans de M. Harris dans tout le pays, y compris de M. Newsom, qui a promis d'interdire ce type de vidéos.
"Le fait de leur demander d'utiliser le mot "parodie" sur la vidéo elle-même évite d'induire le public en erreur lorsque la vidéo est partagée sur la plateforme", a déclaré Izzy Gardon, porte-parole de M. Newsom. "La raison pour laquelle cet activiste conservateur poursuit la Californie n'est pas claire. Cette nouvelle loi sur la divulgation des fausses informations électorales n'est pas plus onéreuse que les lois déjà adoptées dans d'autres États, y compris l'Alabama."
Et vous ?
Pensez-vous que cette plainte est crédible ou pertinente ?
Quel est votre avis sur le sujet ?
Voir aussi :
Un expert en IA « complètement terrifié » par les élections américaines de 2024, qui s'annoncent comme un « tsunami de désinformation » avec l'avènement des deepfakes et les IA génératives
Les "deepfakes" politiques représentent l'utilisation abusive la plus populaire de l'IA : Sa faible technicité et son accessibilité ont accru l'utilisation malveillante de l'IA générative, selon DeepMind
Microsoft veut que le Congrès interdise les fraudes par deepfake générées par l'IA, avec une "loi sur la fraude par deepfake" qui donnera aux autorités un cadre juridique pour poursuivre les fraudes par l'IA
Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
Mark Hamill, Jane Fonda et J.J. Abrams exhortent le gouverneur Newsom à signer un projet de loi sur la sécurité de l'IA pour des mesures de protection contre une catastrophe provoquée par l'IA.
Plus de 125 acteurs, réalisateurs, producteurs, artistes musicaux et leaders de l'industrie du divertissement d'Hollywood ont signé une lettre pour exhorter le gouverneur Gavin Newsom à signer le projet de loi sur la sécurité de l'IA. Le projet de loi tiendrait les développeurs de modèles d'IA responsables en cas de catastrophe provoquée par l'IA. Le gouverneur Gavin Newsom a jusqu'au 30 septembre pour prendre une décision sur le projet de loi.
Un projet de loi en Californie, visant à réguler le développement des modèles d’intelligence artificielle (IA), a déclenché une vive controverse à Silicon Valley. Le projet de loi propose des mesures strictes pour garantir la sécurité des modèles d’IA avancés. Le projet de loi imposerait davantage de responsabilités aux entreprises, notamment des tests de sécurité et la mise en œuvre de mesures de protection. Fin août 2024, les législateurs californiens ont adopté ce projet de loi très controversé sur la sécurité de l'IA, puis le gouverneur Gavin Newsom a jusqu'au 30 septembre pour décider de le promulguer ou d'y opposer son veto.
Mark Hamill, Jane Fonda, J.J. Abrams ont demandé au gouverneur Gavin Newsom de signer le projet de loi sur la sécurité de l'IA dans une lettre publiée le 24 septembre 2024. Plus de 125 acteurs, réalisateurs, producteurs, artistes musicaux et leaders de l'industrie du divertissement d'Hollywood ont ajouté leur nom à la lettre pour exhorter le gouverneur Gavin Newsom à signer le projet de loi.
Parmi les signataires de la lettre figurent le co-créateur de "Lost", J.J. Abrams, la productrice exécutive de "Bridgerton", Shonda Rhimes, le réalisateur de "The 40 Year-Old Virgin", Judd Apatow, la créatrice de "When They See Us", Ava DuVernay, les acteurs Mark Hamill, Jane Fonda, Mahershala Ali, Ramy Youssef, Alec Baldwin, Pedro Pascal, Connie Britton, Mark Ruffalo, Sean Astin et Joseph Gordon-Levitt, ainsi que l'auteur-compositeur-interprète Diane Warren. Les dirigeants de SAG-AFTRA, dont la présidente Fran Drescher et le directeur exécutif national et négociateur en chef Duncan Crabtree-Ireland, ont également signé.
"Les graves menaces que fait peser l'IA relevaient autrefois de la science-fiction, mais ce n'est plus le cas aujourd'hui", peut-on lire dans la lettre. "Même si les milliardaires qui s'opposent à la loi SB 1047 considèrent ces inquiétudes comme fantaisistes, de nombreux ingénieurs, universitaires et responsables politiques de premier plan de l'industrie affirment le contraire."
Voici la lettre des artistes adressée au gouverneur Gavin Newsom :
Cher Gouverneur Newsom,
Comme vous le savez, certaines des entreprises les plus lucratives et les plus puissantes du monde font actuellement la course pour dominer l'énorme opportunité commerciale connue sous le nom d'IA. Bon nombre de ces entreprises sont basées dans votre État d'origine, la Californie.
La semaine dernière, vous avez signé deux projets de loi qui contribueront à protéger les droits et les moyens de subsistance des artistes contre diverses utilisations contraires à l'éthique de l'IA par ces grandes entreprises technologiques. Nous vous en sommes sincèrement reconnaissants.
Mais il y a maintenant un autre projet de loi qui attend de toute urgence votre signature et qui réglementerait l'IA : le projet de loi SB 1047 du sénateur Wiener. Ce projet de loi ne vise pas à protéger les artistes, mais à protéger tout le monde.
Les graves menaces que fait peser l'IA relevaient autrefois de la science-fiction, mais ce n'est plus le cas aujourd'hui. Même si les milliardaires qui s'opposent au projet de loi SB 1047 considèrent ces inquiétudes comme fantaisistes, de nombreux ingénieurs, universitaires et responsables politiques de premier plan du secteur affirment le contraire. Dans une récente lettre ouverte en faveur de la loi SB 1047, plus d'une centaine d'employés actuels et anciens d'OpenAI, de Google DeepMind, d'Anthropic, de Meta et de xAI ont déclaré :
« Nous pensons que les modèles d'IA les plus puissants pourraient bientôt présenter des risques graves, tels qu'un accès élargi aux armes biologiques et des cyberattaques sur les infrastructures critiques. Il est possible et approprié pour les entreprises d'IA pionnières de tester si les modèles d'IA les plus puissants peuvent causer des dommages graves, et pour ces entreprises de mettre en œuvre des mesures de protection raisonnables contre ces risques ».
Le projet de loi SB 1047 mettrait en œuvre les mesures de protection demandées par les initiés de l'industrie. Le projet de loi a été adopté à une majorité écrasante par le Sénat et l'Assemblée de l'État de Californie. Les sondages montrent que 77 % des Californiens l'approuvent. Pourquoi le gouverneur ne la signerait-il pas ?
Gouverneur Newsom, la plupart d'entre nous résident en Californie. Nous vous soutenons. Nous avons voté pour vous. Nous voulons continuer à croire que vous êtes un dirigeant qui défendra le bien-être de tous, et pas seulement celui de quelques géants de la Silicon Valley.
Nous croyons fermement au potentiel éblouissant de l'IA, qui peut être utilisé à bon escient. Mais nous devons aussi être réalistes quant aux risques. Le moment est venu, Monsieur le Gouverneur, pour la Californie de donner cet exemple pratique et positif à tous les États-Unis, ainsi qu'au reste du monde.
Le projet de loi, présenté par le sénateur Scott Wiener (D-San Francisco) et adopté par l'assemblée législative, obligerait les développeurs de modèles d'IA à partager leurs plans de sécurité avec le procureur général de Californie, qui pourrait les tenir pour responsables si les modèles d'IA qu'ils contrôlent directement causaient des dommages ou constituaient une menace imminente pour la sécurité publique. Les développeurs devraient également disposer d'un moyen d'arrêter ces modèles d'IA en cas de problème.
Le projet de loi a fait l'objet de vifs débats en Californie et est contesté par des entreprises technologiques telles que Meta, la société mère de Facebook, et OpenAI, le créateur de ChatGPT, ainsi que par le groupe technologique Chamber of Progress, qui a publié une chanson rock générée par l'IA sur le projet de loi, avec des paroles telles que "veto the chains that hold us down" (mettez votre veto sur les chaînes qui nous retiennent).
Les leaders démocrates du Congrès, dont l'ancienne présidente de la Chambre des représentants Nancy Pelosi, les députés Ro Khanna (D-Fremont) et Zoe Lofgren (D-San José), ont également demandé à Gavin Newsom d'opposer son veto au projet de loi. Ils affirment que la législation pourrait étouffer l'innovation et citent les efforts déployés par le Congrès dans le domaine de l'IA.
Le projet de loi 1047 du Sénat est soutenu par le Center for AI Safety, par certains éminents chercheurs en IA et par Elon Musk, directeur général de Tesla. Plus de 100 employés actuels et anciens d'entreprises liées à l'IA, dont OpenAI, Google DeepMind et Meta, ont signé une lettre de soutien au projet de loi SB 1047. Les partisans du projet de loi estiment que, le Congrès étant généralement plus lent à réglementer les technologies, la Californie devrait prendre les devants.
"Dans la Silicon Valley, on aime à dire qu'il faut aller vite et casser les choses", a déclaré Gordon-Levitt dans un communiqué. Mais avec des technologies aussi puissantes, il faudrait peut-être dire "Allez aussi vite que possible tout en faisant attention à ne rien casser".
Le gouverneur Gavin Newsom a jusqu'au 30 septembre pour prendre une décision sur le projet de loi. Mais il a déclaré qu'il n'avait pas encore pris sa décision sur le SB 1047. "Il s'agit d'un de ces projets de loi qui passent rarement sur le bureau, et dont l'adoption dépend de la force de persuasion de la dernière personne à avoir téléphoné", a déclaré Gavin Newsom. "Il a divisé tant de gens."
Les avertissements concernant le potentiel de l'IA ne sont pas récents. En 2019, Elon Musk avait déjà déclaré que " l"IA est plus dangereuse que les ogives nucléaires" et il devrait exister un organisme de réglementation supervisant le développement de cette technologie. Il ajoutait : "Je ne suis pas normalement un partisan de la réglementation et de la surveillance .. mais il s’agit d’une situation où le public court un très grave danger". Bill Gates, cofondateur de Microsoft, confirmait également que l'IA est comme l’énergie nucléaire : une technologie "à la fois porteuse d’espoir et dangereuse".
Source : Lettre des artistes adressée au gouverneur Newsom
Et vous ?
Pensez-vous que cette lettre est crédible ou pertinente ?
Quel est votre avis sur le sujet ?
Voir aussi :
Le projet de loi californien sur l'IA menace-t-il l'innovation ou protège-t-il la société ? Google, Meta et OpenAI s'y opposent, arguant qu'il pourrait freiner l'innovation, tandis qu'Elon Musk le soutient
L'ONU veut traiter l'IA avec la même urgence que le changement climatique : l'organisme voudrait instaurer une gouvernance mondiale de l'IA pour en maximiser les avantages tout en minimisant les risques
Les grandes enseignes Tech cherchent à affaiblir la loi européenne sur l'IA, arguant que des exigences trop lourdes en matière de transparence pourraient ralentir le développement de nouvelles technologies
Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
Le gouverneur de Californie signe 9 projets de loi réglementant les contenus générés par l'IA pour répondre aux risques liés aux "deepfakes", malgré que les Big tech de l'IA y voient un frein à l'innovation
Le gouverneur de Californie a signé 9 projets de loi réglementant les contenus générés par l'IA, pour répondre aux risques liés aux "deepfakes". Deux projets de loi concernent les acteurs et les interprètes, trois projets de loi visent à lutter contre l'utilisation abusive de contenus générés par l'IA et quatre projets de loi visent à règlementer l'utilisation de l'IA dans les campagnes électorales. Mais les Big tech de l'IA critiquent le projet de loi pour la régulation de l'IA, y voyant un frein à l'innovation.
Ce mois de septembre 2024 a été particulièrement animé par le débat autour de la règlementation de l'intelligence artificielle (IA) en Californie aux États-Unis. Fin août, le projet de loi controversé sur l'IA a été adopté par l'Assemblée législative. Le gouverneur californien Gavin Newsom avait jusqu'au 30 septembre pour décider de le promulguer ou d'y opposer son veto.
Le projet de loi, connu sous le nom de "Safe and Secure Innovation for Frontier Artificial Intelligence Models Act", propose des mesures strictes pour garantir la sécurité des modèles d’IA avancés. Le projet de loi imposerait davantage de responsabilités, notamment des tests de sécurité et la mise en œuvre de mesures de protection. Les entreprises doivent également accepter de se soumettre à des audits par des tiers.
Parmi les partisans de la règlementation de l'IA, plus de 125 acteurs, réalisateurs, producteurs, artistes musicaux et leaders de l'industrie du divertissement d'Hollywood ont signé une lettre pour exhorter le gouverneur Gavin Newsom à signer le projet de loi. De l'autre côté, les Big tech comme Google, OpenAI ou Meta, s'y opposent, arguant que le projet de loi pourrait freiner l'innovation. Ils ont également adressé des lettres exprimant leurs préoccupations.
La décision tant attendue du gouvernement de Californie vient de tomber le 26 septembre 2024. Le gouverneur Gavin Newsom a signé 9 projets de loi réglementant les contenus générés par l'IA. La législation vise à répondre aux risques liés aux "deepfakes".
Le gouverneur de Californie, Gavin Newsom, a signé neuf projets de loi visant à lutter contre les risques liés aux contenus générés par l'IA, en particulier les "deepfakes". Vingt-neuf autres textes législatifs relatifs à l'IA attendent sa signature ou son veto avant la fin de la session législative de l'État, le 30 septembre.
Parmi les textes législatifs qu'il a récemment signés figurent deux projets de loi visant à protéger l'image numérique des acteurs et des interprètes - vivants ou décédés - contre toute utilisation non autorisée de l'IA et d'autres technologies numériques :
- L'AB 2602 exige des contrats pour l'utilisation d'imitations profondes de la voix ou de l'image d'un artiste générées par l'IA, et l'artiste doit être représenté professionnellement lors de la négociation du contrat.
- L'AB 1836 interdit l'utilisation commerciale de copies profondes d'artistes-interprètes décédés dans des films, des émissions de télévision, des jeux vidéo, des livres audio, des enregistrements sonores et d'autres médias sans le consentement des ayants droit de l'artiste-interprète.
Trois projets de loi visent à lutter contre l'utilisation abusive de contenus générés par l'IA, notamment les "deepfakes" à caractère sexuel :
- Le projet de loi SB 926 criminalise la création et la distribution d'images sexuellement explicites d'une personne réelle qui semblent authentiques lorsqu'elles sont destinées à causer une détresse émotionnelle.
- Le SB 981 exige que les plateformes de médias sociaux créent un mécanisme permettant aux gens de signaler les deepfakes sexuellement explicites d'eux-mêmes. Une fois le signalement effectué, la plateforme doit bloquer temporairement le matériel pendant qu'elle enquête et le supprimer définitivement s'il est confirmé.
- Le SB 942 exige que les systèmes d'IA générative placent des filigranes invisibles sur le contenu qu'ils produisent et fournissent des outils gratuits pour les détecter afin que le contenu généré par l'IA puisse être facilement identifié.
Quatre projets de loi visent à lutter contre l'utilisation de deepfakes et d'autres contenus trompeurs générés ou modifiés numériquement dans les campagnes électorales.
- L'AB 2655 exige des grandes plateformes en ligne qu'elles retirent ou étiquettent les contenus politiques trompeurs ou modifiés numériquement pendant des périodes précises autour des élections et qu'elles fournissent des moyens de les signaler.
- L'AB 2839 étend la période pendant laquelle il est interdit aux entités politiques de distribuer sciemment une publicité ou tout autre matériel électoral contenant un contenu trompeur généré par l'IA.
- L'AB 2355 exige que les publicités politiques utilisant un contenu généré par l'IA révèlent que le matériel a été modifié.
- L'AB 2905 exige que les robocalls informent les destinataires si la voix est générée artificiellement.
Le gouverneur Gavin Newsom a commenté cette annonce :
Nous continuons à avancer en terrain inconnu lorsqu'il s'agit de savoir comment l'IA et les médias numériques transforment l'industrie du divertissement, mais notre étoile polaire a toujours été la protection des travailleurs. Cette législation permet à l'industrie de continuer à prospérer tout en renforçant les protections des travailleurs et la manière dont leur image peut ou ne peut pas être utilisée.
Personne ne devrait être menacé par quelqu'un sur Internet qui pourrait l'imiter, en particulier de manière sexuellement explicite. Nous sommes à une époque où les outils numériques tels que l'IA ont d'immenses capacités, mais ils peuvent aussi être utilisés de manière abusive contre d'autres personnes. Nous prenons des mesures pour protéger les Californiens.
La sauvegarde de l'intégrité des élections est essentielle à la démocratie, et il est primordial de veiller à ce que l'IA ne soit pas déployée pour miner la confiance du public par la désinformation, en particulier dans le climat politique actuel. Ces mesures permettront de lutter contre l'utilisation néfaste des deepfakes dans les publicités politiques et d'autres contenus. Il s'agit de l'un des nombreux domaines dans lesquels l'État agit de manière proactive pour favoriser une IA transparente et digne de confiance.
Le texte le plus controversé est le SB 1047, qui oblige les développeurs d'IA à mettre en œuvre des mesures de protection pour réduire le risque que leur technologie provoque ou permette une catastrophe, telle qu'un événement impliquant un grand nombre de victimes ou une cyberattaque. Jusqu'à présent, Gavin Newsom s'est montré timide quant à ses projets concernant ce projet de loi.
Le projet de loi sur la sécurité de l'IA, SB 1047, imposerait davantage de responsabilités à tout développeur dépensant plus de 100 millions de dollars pour construire un modèle d'IA. Les exigences comprennent des tests de sécurité, la mise en œuvre de mesures de protection et la possibilité pour le procureur général de l'État de prendre des mesures à l'encontre du développeur de tout modèle d'IA qui cause un "préjudice grave", tel que des pertes massives ou des incidents entraînant des dommages d'une valeur de 500 millions de dollars ou plus.
Si la nécessité de limiter les risques liés aux nouveaux modèles d'IA puissants est largement admise, les critiques ont fait valoir que les propositions étoufferaient les start-ups, profiteraient aux rivaux américains et compromettraient la position centrale de la Californie dans l'essor de l'IA. Jason Kwon, directeur de la stratégie d'OpenAI, avait déclaré que le projet de loi SB 1047 menace "le statut unique de la Californie en tant que leader mondial de l'intelligence artificielle". Il ajoute que cela pourrait "ralentir le rythme de l'innovation et inciter les ingénieurs et les entrepreneurs californiens de classe mondiale à quitter l'État à la recherche de meilleures opportunités ailleurs".
Dans une déclaration concernant le veto sur SB 1047, Newsom a déclaré : « Bien que bien intentionné, le SB 1047 ne prend pas en compte si un système d’IA est déployé dans des environnements à haut risque, implique une prise de décision critique ou l’utilisation de données sensibles. Au lieu de cela, le projet de loi applique des normes strictes même aux fonctions les plus élémentaires, à condition qu'un grand système les déploie. Je ne pense pas que ce soit la meilleure approche pour protéger le public des menaces réelles posées par la technologie.»
Source : Legislature de Californie
Et vous ?
Quel est votre avis sur le sujet ?
Pensez-vous que ces projets de loi sont crédibles ou pertinents ?
Voir aussi :
AI Act : les nouvelles règles européennes en matière d'intelligence artificielle entrent en vigueur. L'objectif déclaré est d'encourager le développement et l'adoption de systèmes IA sûrs et fiables en UE
Les Big Tech (GAFAM) veulent réglementer l'IA, mais les autres entrepreneurs sont sceptiques, selon eux leur réelle volonté serait juste de geler le marché de l'IA pour conserver leur monopole
Le Sénat US présente un projet de loi visant à établir un cadre juridique pour le développement éthique de l'IA et ravive le débat sur la possibilité de frein à l'innovation telle que soulignée par Macron
Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
Le gouverneur de Californie oppose son veto à un projet de loi controversé sur la sécurité de l'IA, Gavin Newsom souhaite des règles plus complètes pour le projet de loi auquel s'opposent Google, OpenAI et Meta
Le gouverneur de Californie, Gavin Newsom, a opposé le dimanche 29 septembre 2024 son veto à un projet de loi très contesté sur la sécurité de l'intelligence artificielle (IA), après que l'industrie technologique eut soulevé des objections, estimant que ce projet de loi pourrait pousser les entreprises d'intelligence artificielle à quitter l'État et entraver l'innovation.
Pour rappel, le gouverneur de Californie a précédemment signé 9 projets de loi réglementant les contenus générés par l'IA, pour répondre aux risques liés aux "deepfakes". Deux projets de loi parmi les neuf concernent les acteurs et les interprètes, trois projets de loi visent à lutter contre l'utilisation abusive de contenus générés par l'IA et quatre projets de loi visent à réglementer l'utilisation de l'IA dans les campagnes électorales. Mais les Big tech de l'IA critiquent le projet de loi pour la régulation de l'IA, y voyant un frein à l'innovation.
Gavin Newsom a déclaré qu'il avait demandé à d'éminents experts en IA générative d'aider la Californie à « élaborer des garde-fous réalisables » qui se concentrent « sur le développement d'une analyse empirique et scientifique de la trajectoire ». Il a également ordonné aux agences de l'État d'élargir leur évaluation des risques d'événements catastrophiques potentiels liés à l'utilisation de l'IA.
L'IA générative - qui peut créer du texte, des photos et des vidéos en réponse à des questions ouvertes - a suscité de l'enthousiasme, mais aussi des craintes qu'elle ne rende certains emplois obsolètes, qu'elle ne bouleverse les élections, qu'elle ne prenne le dessus sur les humains et qu'elle n'ait des effets catastrophiques.
L'auteur du projet de loi, le sénateur démocrate Scott Wiener, a déclaré qu'une législation était nécessaire pour protéger le public avant que les progrès de l'IA ne deviennent difficiles à gérer ou incontrôlables. L'industrie de l'IA se développe rapidement en Californie et certains dirigeants s'interrogent sur l'avenir de ces entreprises dans l'État si le projet de loi est adopté.
Scott Wiener a déclaré le dimanche 29 septembre que le veto rendait la Californie moins sûre et signifiait que « les entreprises visant à créer une technologie extrêmement puissante ne sont soumises à aucune restriction contraignante ». Il a ajouté que « les engagements volontaires de l'industrie ne sont pas applicables et sont rarement bénéfiques pour le public ».
« Nous ne pouvons pas nous permettre d'attendre qu'une catastrophe majeure se produise avant de prendre des mesures pour protéger le public », a déclaré Gavin Newsom, tout en ajoutant qu'il n'était pas d'accord avec le fait que « nous devions nous contenter d'une solution qui n'est pas fondée sur une analyse empirique de la trajectoire des systèmes et des capacités de l'IA ».
Gavin Newsom a déclaré qu'il travaillerait avec le corps législatif sur une législation relative à l'IA lors de la prochaine session. Cette déclaration intervient alors que la législation du Congrès américain visant à mettre en place des garde-fous est au point mort et que l'administration Biden avance des propositions de contrôle réglementaire de l'IA.
Gavin Newsom a déclaré qu'« une approche californienne uniquement pourrait bien être justifiée - en particulier en l'absence d'une action fédérale du Congrès ».
La Chamber of Progress, une coalition de l'industrie technologique, a salué le veto de Gavin Newsom en déclarant que « l'économie technologique californienne a toujours prospéré grâce à la concurrence et à l'ouverture ».
La mesure aurait notamment imposé des tests de sécurité pour bon nombre des modèles d'IA les plus avancés, dont le développement coûte plus de 100 millions de dollars ou qui requièrent une puissance de calcul définie. Les développeurs de logiciels d'IA opérant dans l'État auraient également dû présenter des méthodes permettant de désactiver les modèles d'IA, ce qui aurait constitué un véritable « kill switch » (interrupteur d'arrêt).
Le projet de loi prévoit la création d'une entité publique chargée de superviser le développement des « modèles frontières », qui dépassent les capacités des modèles existants les plus avancés.
Le projet de loi s'est heurté à une forte opposition de la part d'un large éventail de groupes. Google (Alphabet), OpenAI (soutenu par Microsoft) et Meta Platforms, qui développent tous des modèles d'IA générative, ont exprimé leurs inquiétudes quant à la proposition.
Certains démocrates du Congrès américain, dont la représentante Nancy Pelosi, s'y sont également opposés. Parmi les partisans de la proposition, on trouve le PDG de Tesla, Elon Musk, qui dirige également une entreprise d'IA appelée xAI. Anthropic, soutenue par Amazon, a déclaré que les avantages du projet de loi l'emportaient probablement sur les coûts, tout en ajoutant que certains aspects semblaient encore préoccupants ou ambigus.
Gavin Newsom a signé séparément une loi obligeant l'État à évaluer les menaces potentielles que l'IA générative fait peser sur les infrastructures essentielles de la Californie.
L'État analyse les risques liés aux infrastructures énergétiques et a déjà réuni les fournisseurs du secteur de l'électricité. Il entreprendra la même évaluation des risques avec les fournisseurs d'infrastructures hydrauliques au cours de l'année à venir et, plus tard, avec le secteur des communications, a déclaré M. Gavin Newsom.
La déclaration du gouverneur Gavin Newsom à l'intention des membres du Sénat de l'Etat de Californie est présentée ci-dessous :
Source : Communiqué du gouverneur Gavin NewsomAux membres du Sénat de l'État de Californie :
Je renvoie le projet de loi 1047 du Sénat sans ma signature.
Ce projet de loi obligerait les développeurs de grands modèles d'intelligence artificielle (IA), et ceux qui fournissent la puissance de calcul nécessaire à l'entraînement de ces modèles, à mettre en place certaines garanties et politiques afin de prévenir les dommages catastrophiques. Le projet de loi prévoit également la création d'un conseil des modèles frontières (Board of Frontier Models), une entité publique, chargée de superviser le développement de ces modèles.
La Californie abrite 32 des 50 plus grandes entreprises mondiales d'lA, pionnières de l'une des avancées technologiques les plus importantes de l'histoire moderne. Nous sommes leaders dans ce domaine grâce à nos institutions de recherche et d'éducation, à notre main-d'œuvre diversifiée et motivée, et à notre culture de la liberté intellectuelle. En tant que gardiens et innovateurs de l'avenir, je prends au sérieux la responsabilité de réglementer cette industrie.
Cette année, la législature m'a transmis plusieurs propositions réfléchies visant à réglementer les entreprises d'lA en réponse aux risques actuels qui évoluent rapidement, notamment les menaces pour notre processus démocratique, la propagation de la désinformation et des « deepfakes », les risques pour la vie privée en ligne, les menaces pour les infrastructures critiques et les perturbations dans la main-d'œuvre. Ces projets de loi et les actions de mon administration sont guidés par les principes de responsabilité, d'équité et de transparence des systèmes d'IA et du déploiement de la technologie d'IA en Californie.
Le SB 1047 a amplifié la conversation sur les menaces qui pourraient émerger du déploiement de l'IA. Le débat porte essentiellement sur la question de savoir si le seuil de réglementation doit être basé sur le coût et le nombre de calculs nécessaires à l'élaboration d'un modèle d'IA, ou si nous devons évaluer les risques réels du système indépendamment de ces facteurs. Cette discussion globale a lieu alors que les capacités de l'lA continuent de se développer à un rythme impressionnant. Dans le même temps, les stratégies et les solutions pour faire face au risque de dommages catastrophiques évoluent rapidement.
En se concentrant uniquement sur les modèles les plus coûteux et les plus importants, le SB 1047 établit un cadre réglementaire qui pourrait donner au public un faux sentiment de sécurité quant au contrôle de cette technologie en évolution rapide. Des modèles plus petits et spécialisés pourraient s'avérer tout aussi dangereux, voire plus, que les modèles visés par le projet de loi SB 1047, au risque de freiner l'innovation même qui alimente les progrès en faveur du bien public.
La capacité d'adaptation est essentielle dans notre course à la réglementation d'une technologie qui n'en est encore qu'à ses balbutiements. Cela nécessitera un équilibre délicat. Bien que bien intentionné, le projet de loi SB 1047 ne tient pas compte du fait qu'un système d'IA est déployé dans des environnements à haut risque, qu'il implique des prises de décision critiques ou l'utilisation de données sensibles. Au lieu de cela, le projet de loi applique des normes strictes même aux fonctions les plus basiques, pour autant qu'un grand système les déploie. Je ne pense pas qu'il s'agisse là de la meilleure approche pour protéger le public des menaces réelles posées par cette technologie.
Soyons clairs - je suis d'accord avec l'auteur - nous ne pouvons pas nous permettre d'attendre qu'une catastrophe majeure se produise avant de prendre des mesures pour protéger le public. La Californie n'abandonnera pas ses responsabilités. Des protocoles de sécurité doivent être adoptés. Des garde-fous proactifs doivent être mis en place, et les conséquences sévères pour les mauvais acteurs doivent être claires et applicables. Je ne suis toutefois pas d'accord avec le fait que, pour assurer la sécurité du public, nous devons nous contenter d'une solution qui ne repose pas sur une analyse empirique de la trajectoire des systèmes et des capacités de l'lA. En fin de compte, tout cadre visant à réglementer efficacement l'IA doit suivre l'évolution de la technologie elle-même.
À ceux qui disent qu'il n'y a pas de problème à résoudre ou que la Californie n'a pas de rôle à jouer dans la réglementation des implications potentielles de cette technologie sur la sécurité nationale, je réponds par la négative. Une approche exclusivement californienne peut être justifiée - en particulier en l'absence d'action fédérale de la part du Congrès - mais elle doit être fondée sur des preuves empiriques et scientifiques. Le U.S. Al Safety Institute, qui dépend du National Institute of Science and Technology, élabore actuellement des orientations sur les risques pour la sécurité nationale, fondées sur des approches factuelles, afin de se prémunir contre les risques démontrables pour la sécurité publique. En vertu d'un décret que j'ai publié en septembre 2023, les agences de mon administration effectuent des analyses de risques sur les menaces et les vulnérabilités potentielles des infrastructures essentielles de la Californie utilisant l'IA. Ce ne sont là que quelques exemples des nombreuses initiatives en cours, menées par des experts, pour informer les décideurs politiques sur les pratiques de gestion des risques liés à l'IA qui sont fondées sur la science et les faits. Ces efforts ont conduit à l'introduction de plus d'une douzaine de projets de loi réglementant les risques spécifiques et connus posés par l'IA, que j'ai signés au cours des 30 derniers jours.
Je m'engage à travailler avec la législature, les partenaires fédéraux, les experts en technologie, les éthiciens et les universitaires pour trouver la voie à suivre, y compris la législation et la réglementation. Compte tenu des enjeux - protéger contre les menaces réelles sans contrecarrer inutilement la promesse de cette technologie de faire progresser le bien public - nous devons faire les choses correctement.
Pour ces raisons, je ne peux pas signer ce projet de loi.
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de cette décision du gouverneur Gavin Newsom, trouvez-vous qu'elle est crédible ou pertinente ?
Voir aussi :
Le gouverneur de Californie signe 9 projets de loi réglementant les contenus générés par l'IA pour répondre aux risques liés aux "deepfakes", malgré que les Big tech de l'IA y voient un frein à l'innovation
Une nouvelle loi californienne oblige les magasins numériques à préciser que vous n'achetez pas le contenu, mais juste une licence, afin de lutter contre la "disparition" des achats de contenus numériques
Le gouverneur de Californie signe une loi visant à protéger les enfants de l'addiction aux médias sociaux, et à interdire aux médias sociaux de fournir des flux addictifs aux enfants sans l'accord des parents
Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
Un juge bloque la nouvelle loi californienne sur l'IA dans l'affaire du deepfake mettant en scène Kamala Harris
ce blocage permet à Elon Musk, son réseau social X et ses alliés d'échapper à des poursuites
La Californie s'est dotée d'une loi visant à empêcher la diffusion en ligne de deepfakes générés par l'IA et ciblant les candidats politiques à l'approche d'une élection. Mais l'application de la loi vient d'être bloquée par un juge fédéral. Il reconnaît que la crainte des deepfakes peut être justifiée, mais affirme que cette inquiétude ne donne pas aux législateurs une licence débridée pour passer outre la longue tradition de critique, de parodie et de satire protégée par le premier amendement. La décision du juge stipule que la loi californienne entrave l'expression humoristique et étouffe de manière inconstitutionnelle l'échange libre et sans restriction d'idées.
Un juge fédéral affirme que la loi AB 2839 entrave la liberté d'expression
La loi californienne AB 2839 vise les personnes qui partagent des deepfakes générés par l'IA en ligne, en particulier si leur message ressemble à celui d'un candidat politique et que l'auteur sait qu'il s'agit d'un faux susceptible de tromper les électeurs. Cette loi est unique, car elle ne s'attaque pas aux plateformes sur lesquelles apparaissent les deepfakes d'IA, mais plutôt à ceux qui les diffusent. La loi permet aux juges californiens d'ordonner aux auteurs de deepfakes générés par l'IA de les retirer sous peine de sanctions pécuniaires. Toutefois, elle suscite une forte opposition et a été attaquée devant les tribunaux.
Après avoir signé la loi AB 2839, le gouverneur californien Gavin Newsom a suggéré qu'elle pourrait être utilisée pour forcer Elon Musk à retirer un deepfake de la vice-présidente Kamala Harris qu'il avait partagé sur son réseau social X (ce qui a déclenché une petite bataille en ligne entre les deux hommes). Cependant, un juge californien vient de décider que l'État ne peut pas obliger les gens à retirer les deepfakes électoraux, car ils sont protégés par la constitution.
En effet, Christopher Kohls, le créateur du deepfake de Kamala Harris, a intenté un procès pour empêcher l'État d'appliquer la loi. Dans sa plainte de protestation, Christopher Kohls a déclaré que « la vidéo qu'il a publiée est protégée par le premier amendement parce qu'il s'agissait d'une parodie ». Le juge de district des États-Unis John Mendez lui a donné raison :
Le juge John Mendez a ordonné une injonction préliminaire pour empêcher temporairement le procureur général de Californie d'appliquer la nouvelle loi à Kohls ou à quiconque, à l'exception des messages audio relevant de la loi AB 2839. En substance, le juge affirme que la loi, tel qu'elle est rédigée, est tout simplement trop large et qu'elle pourrait entraîner un grave débordement de la part des autorités de l'État en ce qui concerne les propos autorisés ou non.Envoyé par John Mendez, juge de district des États-Unis
Comme il s'agit d'une injonction préliminaire, il faut attendre pour voir si la loi est bloquée pour de bon, mais dans tous les cas, il est peu probable qu'elle ait beaucoup d'effet sur les élections de novembre 2024. La loi AB 2839 est l'une des 18 nouvelles lois relatives à l'IA que Gavin Newsom a signées en septembre 2024.
Elon Musk et ses alliés échappent à des poursuites avec cette injonction
La loi A2839 qui rend illégale la distribution de médias audio ou visuels matériellement trompeurs d'un candidat 120 jours avant une élection et, dans certains cas, 60 jours après. La loi permet également aux candidats ciblés de demander à un tribunal de retirer toute publicité truquée et de poursuivre la personne qui l'a diffusée, bien que les parodies et les satires truquées divulguées en tant que telles soient exemptées. Deux autres lois, AB 2655 et AB 2355, portent respectivement sur les plateformes et sur le traitement de ce type de contenu par les groupes de campagne. Ces deux dernières entreront en vigueur.
Le blocage de la loi AB 2839 est une grande victoire pour Elon Musk et ses partisans. Dans les jours qui ont suivi la signature de l'AB 2839 par Gavin Newsom, Elon Musk et ses alliés habituels ont partagé en ligne une série de deepfakes générés par l'IA, probablement dans le but de défier la nouvelle loi californienne. Christopher Kohls, qui a intenté le procès contre la loi, a réagi sur son compte X en déclarant : « VICTOIRE ! Le procès contre Newsom a été gagné ».
Peu après la décision du tribunal, Elon Musk a tweeté : « la loi anticonstitutionnelle californienne portant atteinte à votre liberté d'expression a été bloquée par le tribunal ». Elon Musk a félicité Christopher Kohls en disant : « un point pour le droit du peuple à la liberté d'expression ». Musk avait partagé en juillet la vidéo créée par Christopher Kohls. Le message de Musk faisant la promotion de la vidéo mette en scène Kamala Harris a été vu plus de 135 millions de fois sur X.
Le gouverneur californien Gavin Newsom s'était alors rapidement engagé à signer une loi visant à réprimer les deepfakes politiques, ce à quoi Elon Musk a répondu : « la parodie est légale aux Érats-Unis ». Après la signature des lois par Gavin Newsom, Elon Musk a reposté la vidéo montrant Kamala Harris et a écrit : « vous n'allez pas le croire, mais Gavin Newsom vient d'annoncer qu'il a signé une loi rendant la parodie illégale, sur la base de cette vidéo ».
Theodore Frank, un avocat de Christopher Kohls, a déclaré dans un communiqué qu'ils étaient satisfaits que le tribunal de district soit d'accord avec leur analyse. De son côté, Izzy Gardon, le porte-parole du gouverneur Gavin Newsom, a déclaré dans un communiqué que « le bureau du gouverneur est confiant dans le fait que les tribunaux confirmeraient la capacité de la Californie à réglementer les deepfakes ». Izzy Gardon a déclaré que la loi était raisonnable.
Selon le porte-parole, la loi est conforme à une mesure similaire adoptée en Alabama pour restreindre les deepfakes. « Les deepfakes menacent l'intégrité de nos élections et ces nouvelles lois protègent notre démocratie tout en préservant la liberté d'expression. La satire reste bien vivante en Californie, même pour ceux qui n'ont pas compris la chute », a déclaré le porte-parole. Il n'a pas donné de détail sur ce que la Californie prévoit de faire par la suite.
Source : décision du juge fédéral John Mendez (PDF)
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de la décision du juge de bloquer la loi californienne sur l'IA ?
Selon vous, les dispositions de la loi AB 2839 entravent-elles la liberté d'expressions en ligne ?
Quels impacts le blocage de la loi AB 2839 pourrait avoir sur les élections de novembre 2024 aux États-Unis ?
Voir aussi
Le créateur de la vidéo parodique de Kamala Harris poursuit la Californie en raison de la loi "deepfake" après l'interdiction de sa parodie de la vice-présidente Kamala Harris
Le gouverneur de Californie signe 9 projets de loi réglementant les contenus générés par l'IA pour répondre aux risques liés aux "deepfakes" malgré que les Big tech de l'IA y voient un frein à l'innovation
Le gouverneur de Californie oppose son veto à un projet de loi controversé sur la sécurité de l'IA, Gavin Newsom souhaite des règles plus complètes pour le projet de loi auquel s'opposent Google, OpenAI et Meta
Le mensonge ne peut en aucun cas être rattaché à la liberté d'expression, il doit être clairement proscrit de toute forme de politique, sans quoi certains politiciens continueront à mener des campagnes de désinformation, de dénigrement d'autrui, voir de tentatives de déstabilisation de systèmes démocratiques mis en place !!!
Le Royaume-Uni abandonne sa stratégie de régulation stricte de l'IA au profit d'une collaboration avec Anthropic
qui va l'aider à transformer ses services publics
Le Royaume-Uni a rebaptisé son AI Safety Institute pour se concentrer sur la sécurité, en recrutant la startup américaine Anthropic pour étudier comment la technologie peut être utilisée pour améliorer les services publics. Lancé en 2023 sous le gouvernement du premier ministre de l'époque, Rishi Sunak, l'Institut de sécurité de l'IA a été inauguré alors que l'inquiétude concernant le potentiel de dommages catastrophiques de la technologie se propageait dans le monde entier, aboutissant à un sommet mondial à Bletchley Park.
Depuis son arrivée au pouvoir l'année dernière, le gouvernement travailliste nouvellement élu s'est éloigné des appels à la réglementation de l'IA, se concentrant plutôt sur son potentiel de transformation des services publics. Des fonctionnaires ont été critiqués et félicités pour avoir refusé de signer une déclaration internationale sur l'IA « inclusive » lors du sommet de l'action qui s'est tenu cette semaine à Paris. Le sommet a marqué un changement de ton significatif par rapport à Bletchley, le président français Emmanuel Macron et les hauts fonctionnaires de l'UE soulignant la nécessité de défendre les champions nationaux de l'IA et d'éviter de les réglementer à outrance.
Contexte
Le Royaume-Uni a récemment modifié sa stratégie en matière d'intelligence artificielle en signant un partenariat majeur avec la startup américaine Anthropic, spécialisée dans le développement de chatbots avancés. Cette collaboration vise à intégrer le chatbot Claude d'Anthropic dans les services publics britanniques, afin d'améliorer l'interaction des citoyens avec les informations et les services gouvernementaux. Peter Kyle, ministre britannique des technologies, a déclaré que cet accord concrétisait l'objectif de faire du Royaume-Uni le meilleur endroit pour développer l'IA de pointe, afin que les avantages de cette technologie transformatrice soient ressentis par les personnes et les entreprises dans tout le pays.
Jeudi, le gouvernement a refondu l'organisation en Institut de sécurité de l'IA. Comme son nouveau nom l'indique, l'AISI renaît et continue d'explorer certains de ces risques de sécurité. Toutefois, il ne garde plus un œil sur les risques sociétaux et ne semble plus se concentrer sur le potentiel de l'IA qui s'emballe. Pour souligner ce changement, la nouvelle AISI comprendra une « équipe chargée des abus criminels » qui travaillera en collaboration avec le Home Office, le ministère britannique de la sécurité.
Une modification de son approche
Le gouvernement britannique souhaite s'engager résolument dans la relance de son économie et de son industrie grâce à l'IA, et pour ce faire, il réoriente une institution fondée il y a un peu plus d'un an dans un but très différent. Le ministère des sciences, de l'industrie et de la technologie a annoncé qu'il renommerait l'Institut de sécurité de l'IA en « Institut de sécurité de l'IA ». Ainsi, l'organisme n'explorera plus principalement des domaines tels que les risques existentiels et les biais dans les grands modèles de langage, mais se concentrera sur la cybersécurité, en particulier sur le « renforcement des protections contre les risques que l'IA fait peser sur la sécurité nationale et la criminalité ».
Parallèlement, le gouvernement a également annoncé un nouveau partenariat avec Anthropic. Aucun service ferme n'a été annoncé, mais le protocole d'accord indique que les deux parties « étudieront » la possibilité d'utiliser Claude, l'assistant IA d'Anthropic, dans les services publics ; Anthropic s'efforcera de contribuer aux travaux de recherche scientifique et de modélisation économique. Quant à l'AI Security Institute, il fournira des outils permettant d'évaluer les capacités de l'IA dans le contexte de l'identification des risques de sécurité.
« L'IA a le potentiel de transformer la manière dont les gouvernements servent leurs citoyens », a déclaré Dario Amodei, cofondateur et directeur général d'Anthropic, dans un communiqué. « Nous sommes impatients de voir comment Claude, l'assistant IA d'Anthropic, pourrait aider les agences gouvernementales britanniques à améliorer les services publics, dans le but de découvrir de nouvelles façons de rendre les informations et les services vitaux plus efficaces et plus accessibles aux résidents du Royaume-Uni. »
L'indice économique d'Anthropic, lancé cette semaine, entrera également en ligne de compte. L'indice s'appuie sur des conversations anonymes avec Claude pour déduire comment l'IA est utilisée dans l'ensemble de l'économie. Le Royaume-Uni utilisera ces informations pour « adapter sa main-d'œuvre et ses stratégies d'innovation à un avenir fondé sur l'IA », a déclaré le gouvernement.
Anthropic est la seule entreprise à être annoncée aujourd'hui (ce qui coïncide avec une semaine d'activités sur l'IA à Munich et à Paris) mais elle n'est pas la seule à travailler avec le gouvernement. Une série de nouveaux outils dévoilés en janvier étaient tous basés sur OpenAI. (À l'époque, Peter Kyle, secrétaire d'État à la technologie, avait déclaré que le gouvernement prévoyait de travailler avec diverses entreprises d'IA fondamentales, ce que l'accord avec Anthropic est en train de prouver).
Anthropic est en discussions pour lever 2 milliards de dollars dans le cadre d'une opération qui la valoriserait à 60 milliards dollars, ce qui fait d'elle la dernière startup d'IA à profiter de l'euphorie des investisseurs
Des objectifs redéfinis
Il y a moins de deux ans, le gouvernement britannique a annoncé la création de l'Institut britannique de sécurité de l'IA (AISI), dont l'objectif était de s'attaquer aux risques de sécurité tels que l'utilisation de l'IA pour fabriquer des armes chimiques ou biologiques, et la possibilité que l'humanité perde le contrôle d'une IA superintelligente. L'institut s'est également intéressé en partie aux risques sociétaux de l'IA, tels que la diffusion de fausses informations et la perpétuation des préjugés.
« La sortie de ChatGPT a été un moment Spoutnik pour l'humanité - nous avons été surpris par les progrès rapides et inattendus d'une technologie de notre propre création. Avec l'accélération des investissements dans l'IA avancée et son adoption par le public, ces systèmes deviennent de plus en plus puissants et influent sur nos vies.
« Ces systèmes pourraient libérer les gens du monde entier des tâches routinières fastidieuses et amplifier nos capacités créatives. Mais ils pourraient aussi modifier nos futurs marchés du travail et notre économie plus rapidement que n'importe quelle autre avancée technologique de l'histoire. Ils pourraient aider nos scientifiques à faire de nouvelles découvertes audacieuses, ouvrant la voie à un monde sans cancer et avec un accès à une énergie propre quasi illimitée. Mais ils pourraient aussi concentrer davantage de pouvoir non responsable entre les mains de quelques-uns, ou être utilisés malicieusement pour miner la confiance de la société, éroder la sécurité publique ou menacer la sécurité internationale.
« Certains de ces risques se manifestent déjà sous la forme de préjudices pour les personnes aujourd'hui et sont exacerbés par les avancées à la frontière du développement de l'IA. L'existence d'autres risques est plus controversée et polarisée. Mais pour reprendre les mots du mathématicien I.J. Good, collègue d'Alan Turing à Bletchley Park, "il vaut parfois la peine de prendre la science-fiction au sérieux".
« Nous devons toujours nous rappeler que l'IA n'est pas un phénomène naturel qui nous arrive, mais un produit de la création humaine que nous avons le pouvoir de façonner et de diriger ».
La transformation par le gouvernement de l'AI Safety Institute (lancé en fanfare il y a un peu plus d'un an) en AI Security ne devrait pas surprendre outre mesure.
Dans un communiqué, le ministre des technologies Peter Kyle a déclaré que l'Institut de sécurité de l'IA, rebaptisé Institut de sécurité de l'IA, aiderait à « libérer l'IA et à faire croître l'économie ». Il a ajouté : « Le travail de l'Institut de sécurité de l'IA ne changera pas, mais cette nouvelle orientation garantira que nos citoyens - et ceux de nos alliés - sont protégés contre ceux qui cherchent à utiliser l'IA contre nos institutions, nos valeurs démocratiques et notre mode de vie ».
Changement d'orientation
La mission révisée de l'AISI semble s'inscrire dans la nouvelle stratégie du Royaume-Uni, qui consiste à s'aligner sur celle du président Donald Trump aux États-Unis.
En début de semaine, le Royaume-Uni a semé la consternation dans la communauté de l'IA en refusant de signer la déclaration issue du sommet de Paris sur l'action en matière d'IA. Les États-Unis ont également refusé de la signer.
À première vue, le raisonnement des États-Unis s'explique par le désir d'éviter une réglementation excessive de l'IA (la déclaration fait référence à des cadres internationaux et à la gouvernance), mais beaucoup ont vu dans les références du document à l'IA inclusive et à la réduction de la fracture numérique une garantie que l'administration anti-DEI de Trump ne les signerait pas. Le refus du Royaume-Uni a été plus surprenant ; son gouvernement a invoqué des préoccupations liées à la « gouvernance mondiale » et à la sécurité nationale ».
Quelques semaines auparavant, l'un des premiers actes de Trump en tant que nouveau président a été d'annuler le décret de 2023 du président Joe Biden sur la mise en place de garde-fous pour la technologie, y compris dans les domaines touchant aux libertés civiles.
Le vice-président américain JD Vance a déclaré au sommet cette semaine qu'il n'était pas à Paris « pour parler de la sécurité de l'IA, qui était le titre de la conférence il y a quelques années », mais plutôt pour parler de « l'opportunité de l'IA ». Son message insistait sur la nécessité d'éviter toute aversion au risque en matière d'IA.
Jeudi, le secrétaire d'État britannique à la technologie, Peter Kyle, a tenu des propos très similaires.
« Les changements que j'annonce aujourd'hui représentent la suite logique de notre approche du développement responsable de l'IA, qui nous aidera à libérer l'IA et à faire croître l'économie », a-t-il déclaré. « La tâche principale de tout gouvernement est de s'assurer que ses citoyens sont en sécurité et protégés, et je suis convaincu que l'expertise que notre institut sera en mesure d'apporter permettra au Royaume-Uni d'être dans une position plus forte que jamais pour faire face à la menace de ceux qui chercheraient à utiliser cette technologie contre nous. »
Le gouvernement a souligné dans sa déclaration que l'AISI « ne se concentrera pas sur les préjugés ou la liberté d'expression », et le président de l'AISI, Ian Hogarth, a insisté sur le fait que « depuis le début, l'Institut s'est concentré sur la sécurité ».
Sources : AI Security Institute, Anthropic, Élysée, AI Safety Institute
Et vous ?
Quels sont les risques pour la société britannique si le Royaume-Uni continue de privilégier l'innovation technologique au détriment de la régulation de l'IA ?
En quoi ce partenariat avec Anthropic pourrait-il influencer la manière dont l'IA est intégrée dans les services publics, et quelles pourraient être les répercussions sur la vie privée des citoyens ?
Pourquoi le Royaume-Uni semble-t-il prendre du recul sur la régulation de l'IA alors que l'Europe renforce ses efforts pour créer un cadre juridique ? Cela risque-t-il de créer un écart technologique entre les deux régions ?
L'accent mis sur l'innovation technologique par le Royaume-Uni pourrait-il donner un avantage à des entreprises comme Anthropic, au détriment de la transparence et de la sécurité des systèmes d'IA ?
Quels autres partenariats stratégiques le Royaume-Uni pourrait-il chercher dans le domaine de l'IA pour se positionner comme un leader mondial, et comment cela se compare-t-il aux approches adoptées par d'autres pays ?
Le Royaume-Uni pourrait-il, à terme, devoir reconsidérer sa position en matière de régulation, surtout si des incidents ou des problèmes liés à l'IA surviennent dans des secteurs sensibles ?
Voir aussi :
Anthropic a mis au point une nouvelle méthode pour protéger les LLM contre les piratages. Cette défense pourrait être la plus puissante à ce jour, mais aucun bouclier n'est parfait
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
L'OTAN signe un accord avec Palantir pour l’acquisition de son système d'intelligence artificielle dénommé Maven
Dans un contexte de protestations contre l'utilisation de l'IA sur les champs de bataille
L'OTAN annonce avoir passé un contrat avec Palantir en vue de l'adoption de son système Maven pour les opérations sur le champ de bataille fondées sur l'intelligence artificielle. Dans le cadre de ce contrat, qui a été finalisé le 25 mars, l'Agence des communications et de l'information de l'OTAN prévoit d'utiliser une version du système d'intelligence artificielle pour le soutien stratégique de son unité de commandement. La nouvelle tombe dans un contexte de protestations contre l’utilisation de l’intelligence artificielle sur les champs de bataille.
L'OTAN prévoit d'utiliser le système pour fournir à l'Alliance « une capacité commune de combat basée sur les données, grâce à un large éventail d'applications d'IA - des grands modèles de langage (LLM) à l'apprentissage génératif et automatique », a indiqué l'organisation dans un communiqué, afin d'améliorer « la fusion des données du renseignement et le ciblage, la connaissance de l'espace de combat et la planification, ainsi que l'accélération de la prise de décision. »
Le Commandement de l'OTAN commencera à utiliser Maven dans les 30 prochains jours, a déclaré l’organisation, ajoutant qu'elle espérait que l'utilisation de Maven accélérerait l'adoption des capacités d'IA émergentes. Palantir a déclaré que le contrat « a été l'un des plus rapides de son histoire, puisqu'il ne s'est écoulé que six mois entre la définition du besoin et l'acquisition du système. »
Tous les pays sont lancés dans l’acquisition ou le développement d’armes animées par l’intelligence artificielleNATO TAKES OVER AI WARFARE MACHINE Palantir Maven Smart System
— RT (@RT_com) April 15, 2025
How CREEPY is Palantir's 'reassuring' PR vid? pic.twitter.com/5QkAInPKPE
L'armée américaine, comme celle d’autres pays, effectue des tests de robots-chiens. Du point de vue du développeur informatique, ces robots sont des kits matériels - à la présentation visuelle similaire à celle d’un chien sur pattes – programmables via une API fournie par le constructeur. C’est au travers de cette dernière, ainsi que d’une série de modules d’extensions, que le développeur peut aller à l’essentiel de l’application à mettre en œuvre.
Ces robots s’appuient à la base sur des applications de détection et suivi d’objets. Dans ce cas, il y a au préalable collecte des images provenant de caméras avant puis détection d’objet sur une classe spécifiée. Cette détection utilise Tensorflow via le tensorflow_object_detector. Le robot accepte n'importe quel modèle Tensorflow et permet au développeur de spécifier un sous-ensemble de classes de détection incluses dans le modèle. Il effectue cet ensemble d'opérations pour un nombre prédéfini d'itérations, en bloquant pendant une durée prédéfinie entre chaque itération. L'application détermine ensuite l'emplacement de la détection la plus fiable de la classe spécifiée et se dirige vers l'objet.
L’application est organisée en trois ensembles de processus Python communiquant avec le robot Spot. Le diagramme des processus est illustré ci-dessous. Le processus principal communique avec le robot Spot via GRPC et reçoit constamment des images. Ces images sont poussées dans la RAW_IMAGES_QUEUE et lues par les processus Tensorflow. Ces processus détectent des objets dans les images et poussent l'emplacement dans PROCESSED_BOXES_QUEUE. Le thread principal détermine alors l'emplacement de l'objet et envoie des commandes au robot pour qu'il se dirige vers l'objet.
Code Python : Sélectionner tout - Visualiser dans une fenêtre à part
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
606
607
608
609
610
611
612
613
614
615
616
617
618
619
620
621
622
623
624
625
626
627
628
629
630
631
632
633
634
635
636
637
638
639
640
641
642
643
644
645
646
647
648
649
650
651
652
653
654
655
656
657
658
659
660
661
662
663
664
665
666
667
668
669
670
671
672
673
674
675
676
677
678
679
680
681
682
683
684
685
686
687
688
689
690
691
692
693
694
695
696
697
698
699
700
701
702
703
704
705
706
707
708
709
710
711
712
713
714
715
716
717
718
719
720
721
722
723
724
725
726
727
728
729
730
731
732
733
734
735
736
737
738
739
740
741
742
743
744
745
746
747
748
749
750
751
752
753
754
755
756
757
758
759
760
761
762
763
764
765
766
767
768
769
770
771
772
773
774
775
776
777
778
779
780
781
782
783
784
785
786
787
788
789
790
791
792
793
794
795
796
797
798
799
800
801
802
803
804
805
806
807
808
809
810
811
812
813
814
815
816
817
818
819
820
821
822
823
824
825
826
827
828
829
830
831
832
833
834
835
836
837
838
839 # Copyright (c) 2023 Boston Dynamics, Inc. All rights reserved. # # Downloading, reproducing, distributing or otherwise using the SDK Software # is subject to the terms and conditions of the Boston Dynamics Software # Development Kit License (20191101-BDSDK-SL). """Tutorial to show how to use the Boston Dynamics API to detect and follow an object""" import argparse import io import json import math import os import signal import sys import time from multiprocessing import Barrier, Process, Queue, Value from queue import Empty, Full from threading import BrokenBarrierError, Thread import cv2 import numpy as np from PIL import Image from scipy import ndimage from tensorflow_object_detection import DetectorAPI import bosdyn.client import bosdyn.client.util from bosdyn import geometry from bosdyn.api import geometry_pb2 as geo from bosdyn.api import image_pb2, trajectory_pb2 from bosdyn.api.image_pb2 import ImageSource from bosdyn.api.spot import robot_command_pb2 as spot_command_pb2 from bosdyn.client.async_tasks import AsyncPeriodicQuery, AsyncTasks from bosdyn.client.frame_helpers import (GROUND_PLANE_FRAME_NAME, VISION_FRAME_NAME, get_a_tform_b, get_vision_tform_body) from bosdyn.client.image import ImageClient from bosdyn.client.lease import LeaseClient, LeaseKeepAlive from bosdyn.client.math_helpers import Quat, SE3Pose from bosdyn.client.robot_command import (CommandFailedError, CommandTimedOutError, RobotCommandBuilder, RobotCommandClient, blocking_stand) from bosdyn.client.robot_state import RobotStateClient LOGGER = bosdyn.client.util.get_logger() SHUTDOWN_FLAG = Value('i', 0) # Don't let the queues get too backed up QUEUE_MAXSIZE = 10 # This is a multiprocessing.Queue for communication between the main process and the # Tensorflow processes. # Entries in this queue are in the format: # { # 'source': Name of the camera, # 'world_tform_cam': transform from VO to camera, # 'world_tform_gpe': transform from VO to ground plane, # 'raw_image_time': Time when the image was collected, # 'cv_image': The decoded image, # 'visual_dims': (cols, rows), # 'depth_image': depth image proto, # 'system_cap_time': Time when the image was received by the main process, # 'image_queued_time': Time when the image was done preprocessing and queued # } RAW_IMAGES_QUEUE = Queue(QUEUE_MAXSIZE) # This is a multiprocessing.Queue for communication between the Tensorflow processes and # the bbox print process. This is meant for running in a containerized environment with no access # to an X display # Entries in this queue have the following fields in addition to those in : # { # 'processed_image_start_time': Time when the image was received by the TF process, # 'processed_image_end_time': Time when the image was processing for bounding boxes # 'boxes': list of detected bounding boxes for the processed image # 'classes': classes of objects, # 'scores': confidence scores, # } PROCESSED_BOXES_QUEUE = Queue(QUEUE_MAXSIZE) # Barrier for waiting on Tensorflow processes to start, initialized in main() TENSORFLOW_PROCESS_BARRIER = None COCO_CLASS_DICT = { 1: 'person', 2: 'bicycle', 3: 'car', 4: 'motorcycle', 5: 'airplane', 6: 'bus', 7: 'train', 8: 'truck', 9: 'boat', 10: 'trafficlight', 11: 'firehydrant', 13: 'stopsign', 14: 'parkingmeter', 15: 'bench', 16: 'bird', 17: 'cat', 18: 'dog', 19: 'horse', 20: 'sheep', 21: 'cow', 22: 'elephant', 23: 'bear', 24: 'zebra', 25: 'giraffe', 27: 'backpack', 28: 'umbrella', 31: 'handbag', 32: 'tie', 33: 'suitcase', 34: 'frisbee', 35: 'skis', 36: 'snowboard', 37: 'sportsball', 38: 'kite', 39: 'baseballbat', 40: 'baseballglove', 41: 'skateboard', 42: 'surfboard', 43: 'tennisracket', 44: 'bottle', 46: 'wineglass', 47: 'cup', 48: 'fork', 49: 'knife', 50: 'spoon', 51: 'bowl', 52: 'banana', 53: 'apple', 54: 'sandwich', 55: 'orange', 56: 'broccoli', 57: 'carrot', 58: 'hotdog', 59: 'pizza', 60: 'donut', 61: 'cake', 62: 'chair', 63: 'couch', 64: 'pottedplant', 65: 'bed', 67: 'diningtable', 70: 'toilet', 72: 'tv', 73: 'laptop', 74: 'mouse', 75: 'remote', 76: 'keyboard', 77: 'cellphone', 78: 'microwave', 79: 'oven', 80: 'toaster', 81: 'sink', 82: 'refrigerator', 84: 'book', 85: 'clock', 86: 'vase', 87: 'scissors', 88: 'teddybear', 89: 'hairdrier', 90: 'toothbrush' } # Mapping from visual to depth data VISUAL_SOURCE_TO_DEPTH_MAP_SOURCE = { 'frontleft_fisheye_image': 'frontleft_depth_in_visual_frame', 'frontright_fisheye_image': 'frontright_depth_in_visual_frame' } ROTATION_ANGLES = { 'back_fisheye_image': 0, 'frontleft_fisheye_image': -78, 'frontright_fisheye_image': -102, 'left_fisheye_image': 0, 'right_fisheye_image': 180 } def _update_thread(async_task): while True: async_task.update() time.sleep(0.01) class AsyncImage(AsyncPeriodicQuery): """Grab image.""" def __init__(self, image_client, image_sources): # Period is set to be about 15 FPS super(AsyncImage, self).__init__('images', image_client, LOGGER, period_sec=0.067) self.image_sources = image_sources def _start_query(self): return self._client.get_image_from_sources_async(self.image_sources) class AsyncRobotState(AsyncPeriodicQuery): """Grab robot state.""" def __init__(self, robot_state_client): # period is set to be about the same rate as detections on the CORE AI super(AsyncRobotState, self).__init__('robot_state', robot_state_client, LOGGER, period_sec=0.02) def _start_query(self): return self._client.get_robot_state_async() def get_source_list(image_client): """Gets a list of image sources and filters based on config dictionary Args: image_client: Instantiated image client """ # We are using only the visual images with their corresponding depth sensors sources = image_client.list_image_sources() source_list = [] for source in sources: if source.image_type == ImageSource.IMAGE_TYPE_VISUAL: # only append if sensor has corresponding depth sensor if source.name in VISUAL_SOURCE_TO_DEPTH_MAP_SOURCE: source_list.append(source.name) source_list.append(VISUAL_SOURCE_TO_DEPTH_MAP_SOURCE[source.name]) return source_list def capture_images(image_task, sleep_between_capture): """ Captures images and places them on the queue Args: image_task (AsyncImage): Async task that provides the images response to use sleep_between_capture (float): Time to sleep between each image capture """ while not SHUTDOWN_FLAG.value: get_im_resp = image_task.proto start_time = time.time() if not get_im_resp: continue depth_responses = { img.source.name: img for img in get_im_resp if img.source.image_type == ImageSource.IMAGE_TYPE_DEPTH } entry = {} for im_resp in get_im_resp: if im_resp.source.image_type == ImageSource.IMAGE_TYPE_VISUAL: source = im_resp.source.name depth_source = VISUAL_SOURCE_TO_DEPTH_MAP_SOURCE[source] depth_image = depth_responses[depth_source] acquisition_time = im_resp.shot.acquisition_time image_time = acquisition_time.seconds + acquisition_time.nanos * 1e-9 try: image = Image.open(io.BytesIO(im_resp.shot.image.data)) source = im_resp.source.name image = ndimage.rotate(image, ROTATION_ANGLES[source]) if im_resp.shot.image.pixel_format == image_pb2.Image.PIXEL_FORMAT_GREYSCALE_U8: image = cv2.cvtColor(image, cv2.COLOR_GRAY2RGB) # Converted to RGB for TF tform_snapshot = im_resp.shot.transforms_snapshot frame_name = im_resp.shot.frame_name_image_sensor world_tform_cam = get_a_tform_b(tform_snapshot, VISION_FRAME_NAME, frame_name) world_tform_gpe = get_a_tform_b(tform_snapshot, VISION_FRAME_NAME, GROUND_PLANE_FRAME_NAME) entry[source] = { 'source': source, 'world_tform_cam': world_tform_cam, 'world_tform_gpe': world_tform_gpe, 'raw_image_time': image_time, 'cv_image': image, 'visual_dims': (im_resp.shot.image.cols, im_resp.shot.image.rows), 'depth_image': depth_image, 'system_cap_time': start_time, 'image_queued_time': time.time() } except Exception as exc: # pylint: disable=broad-except print(f'Exception occurred during image capture {exc}') try: RAW_IMAGES_QUEUE.put_nowait(entry) except Full as exc: print(f'RAW_IMAGES_QUEUE is full: {exc}') time.sleep(sleep_between_capture) def start_tensorflow_processes(num_processes, model_path, detection_class, detection_threshold, max_processing_delay): """Starts Tensorflow processes in parallel. It does not keep track of the processes once they are started because they run indefinitely and are never joined back to the main process. Args: num_processes (int): Number of Tensorflow processes to start in parallel. model_path (str): Filepath to the Tensorflow model to use. detection_class (int): Detection class to detect detection_threshold (float): Detection threshold to apply to all Tensorflow detections. max_processing_delay (float): Allowed delay before processing an incoming image. """ processes = [] for _ in range(num_processes): process = Process( target=process_images, args=( model_path, detection_class, detection_threshold, max_processing_delay, ), daemon=True) process.start() processes.append(process) return processes def process_images(model_path, detection_class, detection_threshold, max_processing_delay): """Starts Tensorflow and detects objects in the incoming images. Args: model_path (str): Filepath to the Tensorflow model to use. detection_class (int): Detection class to detect detection_threshold (float): Detection threshold to apply to all Tensorflow detections. max_processing_delay (float): Allowed delay before processing an incoming image. """ odapi = DetectorAPI(path_to_ckpt=model_path) num_processed_skips = 0 if TENSORFLOW_PROCESS_BARRIER is None: return try: TENSORFLOW_PROCESS_BARRIER.wait() except BrokenBarrierError as exc: print(f'Error waiting for Tensorflow processes to initialize: {exc}') return False while not SHUTDOWN_FLAG.value: try: entry = RAW_IMAGES_QUEUE.get_nowait() except Empty: time.sleep(0.1) continue for _, capture in entry.items(): start_time = time.time() processing_delay = time.time() - capture['raw_image_time'] if processing_delay > max_processing_delay: num_processed_skips += 1 print(f'skipped image because it took {processing_delay}') continue # Skip image due to delay image = capture['cv_image'] boxes, scores, classes, _ = odapi.process_frame(image) confident_boxes = [] confident_object_classes = [] confident_scores = [] if len(boxes) == 0: print('no detections founds') continue for box, score, box_class in sorted(zip(boxes, scores, classes), key=lambda x: x[1], reverse=True): if score > detection_threshold and box_class == detection_class: confident_boxes.append(box) confident_object_classes.append(COCO_CLASS_DICT[box_class]) confident_scores.append(score) image = cv2.rectangle(image, (box[1], box[0]), (box[3], box[2]), (255, 0, 0), 2) capture['processed_image_start_time'] = start_time capture['processed_image_end_time'] = time.time() capture['boxes'] = confident_boxes capture['classes'] = confident_object_classes capture['scores'] = confident_scores capture['cv_image'] = image try: PROCESSED_BOXES_QUEUE.put_nowait(entry) except Full as exc: print(f'PROCESSED_BOXES_QUEUE is full: {exc}') print('tf process ending') return True def get_go_to(world_tform_object, robot_state, mobility_params, dist_margin=0.5): """Gets trajectory command to a goal location Args: world_tform_object (SE3Pose): Transform from vision frame to target object robot_state (RobotState): Current robot state mobility_params (MobilityParams): Mobility parameters dist_margin (float): Distance margin to target """ vo_tform_robot = get_vision_tform_body(robot_state.kinematic_state.transforms_snapshot) print(f'robot pos: {vo_tform_robot}') delta_ewrt_vo = np.array( [world_tform_object.x - vo_tform_robot.x, world_tform_object.y - vo_tform_robot.y, 0]) norm = np.linalg.norm(delta_ewrt_vo) if norm == 0: return None delta_ewrt_vo_norm = delta_ewrt_vo / norm heading = _get_heading(delta_ewrt_vo_norm) vo_tform_goal = np.array([ world_tform_object.x - delta_ewrt_vo_norm[0] * dist_margin, world_tform_object.y - delta_ewrt_vo_norm[1] * dist_margin ]) se2_pose = geo.SE2Pose(position=geo.Vec2(x=vo_tform_goal[0], y=vo_tform_goal[1]), angle=heading) tag_cmd = RobotCommandBuilder.synchro_se2_trajectory_command(se2_pose, frame_name=VISION_FRAME_NAME, params=mobility_params) return tag_cmd def _get_heading(xhat): zhat = [0.0, 0.0, 1.0] yhat = np.cross(zhat, xhat) mat = np.array([xhat, yhat, zhat]).transpose() return Quat.from_matrix(mat).to_yaw() def set_default_body_control(): """Set default body control params to current body position""" footprint_R_body = geometry.EulerZXY() position = geo.Vec3(x=0.0, y=0.0, z=0.0) rotation = footprint_R_body.to_quaternion() pose = geo.SE3Pose(position=position, rotation=rotation) point = trajectory_pb2.SE3TrajectoryPoint(pose=pose) traj = trajectory_pb2.SE3Trajectory(points=[point]) return spot_command_pb2.BodyControlParams(base_offset_rt_footprint=traj) def get_mobility_params(): """Gets mobility parameters for following""" vel_desired = .75 speed_limit = geo.SE2VelocityLimit( max_vel=geo.SE2Velocity(linear=geo.Vec2(x=vel_desired, y=vel_desired), angular=.25)) body_control = set_default_body_control() mobility_params = spot_command_pb2.MobilityParams(vel_limit=speed_limit, obstacle_params=None, body_control=body_control, locomotion_hint=spot_command_pb2.HINT_TROT) return mobility_params def depth_to_xyz(depth, pixel_x, pixel_y, focal_length, principal_point): """Calculate the transform to point in image using camera intrinsics and depth""" x = depth * (pixel_x - principal_point.x) / focal_length.x y = depth * (pixel_y - principal_point.y) / focal_length.y z = depth return x, y, z def remove_ground_from_depth_image(raw_depth_image, focal_length, principal_point, world_tform_cam, world_tform_gpe, ground_tolerance=0.04): """ Simple ground plane removal algorithm. Uses ground height and does simple z distance filtering. Args: raw_depth_image (np.array): Depth image focal_length (Vec2): Focal length of camera that produced the depth image principal_point (Vec2): Principal point of camera that produced the depth image world_tform_cam (SE3Pose): Transform from VO to camera frame world_tform_gpe (SE3Pose): Transform from VO to GPE frame ground_tolerance (float): Distance in meters to add to the ground plane """ new_depth_image = raw_depth_image # same functions as depth_to_xyz, but converted to np functions indices = np.indices(raw_depth_image.shape) xs = raw_depth_image * (indices[1] - principal_point.x) / focal_length.x ys = raw_depth_image * (indices[0] - principal_point.y) / focal_length.y zs = raw_depth_image # create xyz point cloud camera_tform_points = np.stack([xs, ys, zs], axis=2) # points in VO frame world_tform_points = world_tform_cam.transform_cloud(camera_tform_points) # array of booleans where True means the point was below the ground plane plus tolerance world_tform_points_mask = (world_tform_gpe.z - world_tform_points[:, :, 2]) < ground_tolerance # remove data below ground plane new_depth_image[world_tform_points_mask] = 0 return new_depth_image def get_distance_to_closest_object_depth(x_min, x_max, y_min, y_max, depth_scale, raw_depth_image, histogram_bin_size=0.50, minimum_number_of_points=10, max_distance=8.0): """Make a histogram of distances to points in the cloud and take the closest distance with enough points. Args: x_min (int): minimum x coordinate (column) of object to find x_max (int): maximum x coordinate (column) of object to find y_min (int): minimum y coordinate (row) of object to find y_max (int): maximum y coordinate (row) of object to find depth_scale (float): depth scale of the image to convert from sensor value to meters raw_depth_image (np.array): matrix of depth pixels histogram_bin_size (float): size of each bin of distances minimum_number_of_points (int): minimum number of points before returning depth max_distance (float): maximum distance to object in meters """ num_bins = math.ceil(max_distance / histogram_bin_size) # get a sub-rectangle of the bounding box out of the whole image, then flatten obj_depths = (raw_depth_image[y_min:y_max, x_min:x_max]).flatten() obj_depths = obj_depths / depth_scale obj_depths = obj_depths[obj_depths != 0] hist, hist_edges = np.histogram(obj_depths, bins=num_bins, range=(0, max_distance)) edges_zipped = zip(hist_edges[:-1], hist_edges[1:]) # Iterate over the histogram and return the first distance with enough points. for entry, edges in zip(hist, edges_zipped): if entry > minimum_number_of_points: filtered_depths = obj_depths[(obj_depths > edges[0]) & (obj_depths < edges[1])] if len(filtered_depths) == 0: continue return np.mean(filtered_depths) return max_distance def rotate_about_origin_degrees(origin, point, angle): """ Rotate a point counterclockwise by a given angle around a given origin. Args: origin (tuple): Origin to rotate the point around point (tuple): Point to rotate angle (float): Angle in degrees """ return rotate_about_origin(origin, point, math.radians(angle)) def rotate_about_origin(origin, point, angle): """ Rotate a point counterclockwise by a given angle around a given origin. Args: origin (tuple): Origin to rotate the point around point (tuple): Point to rotate angle (float): Angle in radians """ orig_x, orig_y = origin pnt_x, pnt_y = point ret_x = orig_x + math.cos(angle) * (pnt_x - orig_x) - math.sin(angle) * (pnt_y - orig_y) ret_y = orig_y + math.sin(angle) * (pnt_x - orig_x) + math.cos(angle) * (pnt_y - orig_y) return int(ret_x), int(ret_y) def get_object_position(world_tform_cam, world_tform_gpe, visual_dims, depth_image, bounding_box, rotation_angle): """ Extract the bounding box, then find the mode in that region. Args: world_tform_cam (SE3Pose): SE3 transform from world to camera frame visual_dims (Tuple): (cols, rows) tuple from the visual image depth_image (ImageResponse): From a depth camera corresponding to the visual_image bounding_box (list): Bounding box from tensorflow rotation_angle (float): Angle (in degrees) to rotate depth image to match cam image rotation """ # Make sure there are two images. if visual_dims is None or depth_image is None: # Fail. return # Rotate bounding box back to original frame points = [(bounding_box[1], bounding_box[0]), (bounding_box[3], bounding_box[0]), (bounding_box[3], bounding_box[2]), (bounding_box[1], bounding_box[2])] origin = (visual_dims[0] / 2, visual_dims[1] / 2) points_rot = [rotate_about_origin_degrees(origin, point, rotation_angle) for point in points] # Get the bounding box corners. y_min = max(0, min([point[1] for point in points_rot])) x_min = max(0, min([point[0] for point in points_rot])) y_max = min(visual_dims[1], max([point[1] for point in points_rot])) x_max = min(visual_dims[0], max([point[0] for point in points_rot])) # Check that the bounding box is valid. if (x_min < 0 or y_min < 0 or x_max > visual_dims[0] or y_max > visual_dims[1]): print(f'Bounding box is invalid: ({x_min}, {y_min}) | ({x_max}, {y_max})') print(f'Bounds: ({visual_dims[0]}, {visual_dims[1]})') return # Unpack the images. try: if depth_image.shot.image.pixel_format == image_pb2.Image.PIXEL_FORMAT_DEPTH_U16: dtype = np.uint16 else: dtype = np.uint8 img = np.fromstring(depth_image.shot.image.data, dtype=dtype) if depth_image.shot.image.format == image_pb2.Image.FORMAT_RAW: img = img.reshape(depth_image.shot.image.rows, depth_image.shot.image.cols) else: img = cv2.imdecode(img, -1) depth_image_pixels = img depth_image_pixels = remove_ground_from_depth_image( depth_image_pixels, depth_image.source.pinhole.intrinsics.focal_length, depth_image.source.pinhole.intrinsics.principal_point, world_tform_cam, world_tform_gpe) # Get the depth data from the region in the bounding box. max_distance = 8.0 depth = get_distance_to_closest_object_depth(x_min, x_max, y_min, y_max, depth_image.source.depth_scale, depth_image_pixels, max_distance=max_distance) if depth >= max_distance: # Not enough depth data. print('Not enough depth data.') return False else: print(f'distance to object: {depth}') center_x = round((x_max - x_min) / 2.0 + x_min) center_y = round((y_max - y_min) / 2.0 + y_min) tform_x, tform_y, tform_z = depth_to_xyz( depth, center_x, center_y, depth_image.source.pinhole.intrinsics.focal_length, depth_image.source.pinhole.intrinsics.principal_point) camera_tform_obj = SE3Pose(tform_x, tform_y, tform_z, Quat()) return world_tform_cam * camera_tform_obj except Exception as exc: # pylint: disable=broad-except print(f'Error getting object position: {exc}') return def _check_model_path(model_path): if model_path is None or \ not os.path.exists(model_path) or \ not os.path.isfile(model_path): print(f'ERROR, could not find model file {model_path}') return False return True def _check_and_load_json_classes(config_path): if os.path.isfile(config_path): with open(config_path) as json_classes: global COCO_CLASS_DICT # pylint: disable=global-statement COCO_CLASS_DICT = json.load(json_classes) def _find_highest_conf_source(processed_boxes_entry): highest_conf_source = None max_score = 0 for key, capture in processed_boxes_entry.items(): if 'scores' in capture.keys(): if len(capture['scores']) > 0 and capture['scores'][0] > max_score: highest_conf_source = key max_score = capture['scores'][0] return highest_conf_source def signal_handler(signal, frame): print('Interrupt caught, shutting down') SHUTDOWN_FLAG.value = 1 def main(): """Command line interface.""" parser = argparse.ArgumentParser() parser.add_argument( '--model-path', default='/model.pb', help= ('Local file path to the Tensorflow model, example pre-trained models can be found at ' 'https://github.com/tensorflow/models/blob/master/research/object_detection/g3doc/tf1_detection_zoo.md' )) parser.add_argument('--classes', default='/classes.json', type=str, help='File containing json mapping of object class IDs to class names') parser.add_argument('--number-tensorflow-processes', default=1, type=int, help='Number of Tensorflow processes to run in parallel') parser.add_argument('--detection-threshold', default=0.7, type=float, help='Detection threshold to use for Tensorflow detections') parser.add_argument( '--sleep-between-capture', default=0.2, type=float, help=('Seconds to sleep between each image capture loop iteration, which captures ' 'an image from all cameras')) parser.add_argument( '--detection-class', default=1, type=int, help=('Detection classes to use in the Tensorflow model.' 'Default is to use 1, which is a person in the Coco dataset')) parser.add_argument( '--max-processing-delay', default=7.0, type=float, help=('Maximum allowed delay for processing an image. ' 'Any image older than this value will be skipped')) parser.add_argument('--test-mode', action='store_true', help='Run application in test mode, don\'t execute commands') bosdyn.client.util.add_base_arguments(parser) bosdyn.client.util.add_payload_credentials_arguments(parser) options = parser.parse_args() signal.signal(signal.SIGINT, signal_handler) try: # Make sure the model path is a valid file if not _check_model_path(options.model_path): return False # Check for classes json file, otherwise use the COCO class dictionary _check_and_load_json_classes(options.classes) global TENSORFLOW_PROCESS_BARRIER # pylint: disable=global-statement TENSORFLOW_PROCESS_BARRIER = Barrier(options.number_tensorflow_processes + 1) # Start Tensorflow processes tf_processes = start_tensorflow_processes(options.number_tensorflow_processes, options.model_path, options.detection_class, options.detection_threshold, options.max_processing_delay) # sleep to give the Tensorflow processes time to initialize try: TENSORFLOW_PROCESS_BARRIER.wait() except BrokenBarrierError as exc: print(f'Error waiting for Tensorflow processes to initialize: {exc}') return False # Start the API related things # Create robot object with a world object client sdk = bosdyn.client.create_standard_sdk('SpotFollowClient') robot = sdk.create_robot(options.hostname) if options.payload_credentials_file: robot.authenticate_from_payload_credentials( *bosdyn.client.util.get_guid_and_secret(options)) else: bosdyn.client.util.authenticate(robot) # Time sync is necessary so that time-based filter requests can be converted robot.time_sync.wait_for_sync() # Verify the robot is not estopped and that an external application has registered and holds # an estop endpoint. assert not robot.is_estopped(), 'Robot is estopped. Please use an external E-Stop client,' \ ' such as the estop SDK example, to configure E-Stop.' # Create the sdk clients robot_state_client = robot.ensure_client(RobotStateClient.default_service_name) robot_command_client = robot.ensure_client(RobotCommandClient.default_service_name) lease_client = robot.ensure_client(LeaseClient.default_service_name) image_client = robot.ensure_client(ImageClient.default_service_name) source_list = get_source_list(image_client) image_task = AsyncImage(image_client, source_list) robot_state_task = AsyncRobotState(robot_state_client) task_list = [image_task, robot_state_task] _async_tasks = AsyncTasks(task_list) print('Detect and follow client connected.') lease = lease_client.take() lease_keep = LeaseKeepAlive(lease_client) # Power on the robot and stand it up resp = robot.power_on() try: blocking_stand(robot_command_client) except CommandFailedError as exc: print(f'Error ({exc}) occurred while trying to stand. Check robot surroundings.') return False except CommandTimedOutError as exc: print(f'Stand command timed out: {exc}') return False print('Robot powered on and standing.') params_set = get_mobility_params() # This thread starts the async tasks for image and robot state retrieval update_thread = Thread(target=_update_thread, args=[_async_tasks]) update_thread.daemon = True update_thread.start() # Wait for the first responses. while any(task.proto is None for task in task_list): time.sleep(0.1) # Start image capture process image_capture_thread = Process(target=capture_images, args=(image_task, options.sleep_between_capture), daemon=True) image_capture_thread.start() while not SHUTDOWN_FLAG.value: # This comes from the tensorflow processes and limits the rate of this loop try: entry = PROCESSED_BOXES_QUEUE.get_nowait() except Empty: continue # find the highest confidence bounding box highest_conf_source = _find_highest_conf_source(entry) if highest_conf_source is None: # no boxes or scores found continue capture_to_use = entry[highest_conf_source] raw_time = capture_to_use['raw_image_time'] time_gap = time.time() - raw_time if time_gap > options.max_processing_delay: continue # Skip image due to delay # Find the transform to the highest confidence object using the depth sensor get_object_position_start = time.time() robot_state = robot_state_task.proto world_tform_gpe = get_a_tform_b(robot_state.kinematic_state.transforms_snapshot, VISION_FRAME_NAME, GROUND_PLANE_FRAME_NAME) world_tform_object = get_object_position( capture_to_use['world_tform_cam'], world_tform_gpe, capture_to_use['visual_dims'], capture_to_use['depth_image'], capture_to_use['boxes'][0], ROTATION_ANGLES[capture_to_use['source']]) get_object_position_end = time.time() print(f'system_cap_time: {capture_to_use["system_cap_time"]}, ' f'image_queued_time: {capture_to_use["image_queued_time"]}, ' f'processed_image_start_time: {capture_to_use["processed_image_start_time"]}, ' f'processed_image_end_time: {capture_to_use["processed_image_end_time"]}, ' f'get_object_position_start_time: {get_object_position_start}, ' f'get_object_position_end_time: {get_object_position_end}, ') # get_object_position can fail if there is insufficient depth sensor information if not world_tform_object: continue scores = capture_to_use['scores'] print(f'Position of object with confidence {scores[0]}: {world_tform_object}') print(f'Process latency: {time.time() - capture_to_use["system_cap_time"]}') tag_cmd = get_go_to(world_tform_object, robot_state, params_set) end_time = 15.0 if tag_cmd is not None: if not options.test_mode: print('executing command') robot_command_client.robot_command(lease=None, command=tag_cmd, end_time_secs=time.time() + end_time) else: print('Running in test mode, skipping command.') # Shutdown lease keep-alive and return lease gracefully. lease_keep.shutdown() lease_client.return_lease(lease) return True except Exception as exc: # pylint: disable=broad-except LOGGER.error('Spot Tensorflow Detector threw an exception: %s', exc) # Shutdown lease keep-alive and return lease gracefully. return False if __name__ == '__main__': if not main(): sys.exit(1)
Israël figure dans la liste des plus gros consommateurs de solutions d’intelligence artificielle destinées à la guerre
En septembre 2022, l'armée israélienne a commencé à installer une arme automatique à un poste de contrôle très fréquenté de la ville d'Hébron (Al-Khalil), en Cisjordanie occupée. Les tourelles jumelles ont été installées au sommet d'une tour de garde surplombant le camp de réfugiés d'Al-Aroub. « Elle tire toute seule sans intervention de la part du soldat. Quand un soldat israélien voit un petit garçon, il appuie sur un bouton ou quelque chose comme ça et elle tire toute seule. Elle est très rapide, même plus rapide que les soldats. Les bombes lacrymogènes qu'il tire peuvent atteindre l'extrémité du camp et tout le reste », a déclaré un résident du camp.
La tourelle télécommandée a été développée par la société de défense israélienne Smart Shooter, qui a mis au point un système de contrôle de tir autonome appelé SMASH, qui peut être fixé sur des fusils d'assaut pour suivre et verrouiller des cibles à l'aide d'un traitement d'image basé sur l'intelligence artificielle. Le site Web de la société appelle ce système "One Shot-One Hit" (qui pourrait être traduit en français par : "un tir - un succès". Elle se vante d'avoir réussi à "combiner un matériel simple à installer avec un logiciel de traitement d'image avancé pour transformer des armes légères de base en armes intelligentes du XXIe siècle".
La société affirme que la technologie SMASH permet de surmonter les défis auxquels sont confrontés les soldats lors des batailles, tels que l'effort physique, la fatigue, le stress et la pression mentale pour viser avec précision et assurer le succès du tireur. « Notre objectif est de permettre à tous les corps d'infanterie de bénéficier des armes de précision. Quelle que soit l'expérience ou la mission du soldat, notre système lui permet de ne pas faire d'erreur lorsqu'il tire et de toucher la cible sans faute. Tout soldat devient un véritable tireur d'élite », a déclaré Michal Mor, fondateur et PDG de Smart Shooter, lors d'une interview en 2020.
La tourelle vue à Hébron n'est pas annoncée sur le site Web de l'entreprise israélienne, mais deux autres tourelles automatisées, 'SMASH HOPPER' et 'SMASH HOPPER P', sont équipées de fusils d'assaut et du système Smart Shooter. « Le HOPPER peut être monté dans plusieurs configurations, notamment sur un trépied, un mât fixe, un navire de surface et des véhicules », indique le site Web de l'entreprise. Dans l'ensemble, l'entreprise indique que la technologie SMASH est censée améliorer l'efficacité des missions en engageant avec précision et en éliminant les cibles terrestres, aériennes, statiques ou mobiles, de jour comme de nuit.
« Habituellement, le terroriste se trouve dans un environnement civil avec de nombreuses personnes que nous ne voulons pas blesser. Nous permettons au soldat de regarder à travers son système de contrôle de tir, pour s'assurer que la cible qu'il veut atteindre est la cible légitime. Une fois qu'il aura verrouillé la cible, le système s'assurera que la balle sera libérée lorsqu'il appuiera sur la gâchette, uniquement sur la cible légitime et qu'aucun des passants ne pourra être touché par l'arme », a déclaré Mor. Les militants des droits de l'homme s'inquiètent de "la déshumanisation numérique des systèmes d'armes".
Selon les médias locaux, l'armée israélienne a déclaré qu'elle teste la possibilité d'utiliser le système pour appliquer des méthodes approuvées de dispersion de la foule, qui n'incluent pas le tir de balles réelles. « Dans le cadre des préparatifs améliorés de l'armée pour faire face aux personnes qui perturbent l'ordre dans la région, elle examine la possibilité d'utiliser des systèmes télécommandés pour employer des mesures approuvées de dispersion de foule. Cela n'inclut pas le contrôle à distance de tirs à balles réelles », explique un porte-parole de l'armée israélienne. Mais cela n'a pas suffi à calmer les craintes des militants des droits de l'homme.
L'armée israélienne a également précisé qu'au cours de sa phase pilote, le système n'utilisera que des balles à pointe éponge. Cependant, des experts ont signalé qu'à plusieurs reprises, des balles à pointe éponge ont causé des blessures permanentes à des personnes en Cisjordanie occupée et en Israël, certaines ayant même perdu leurs yeux. Des militants des droits de l'homme d'Hébron ont exprimé leur inquiétude quant à la défaillance du système qui pourrait avoir un impact sur de nombreuses personnes, notant que le système a été placé au centre d'une zone fortement peuplée, avec des centaines de personnes passant à proximité.
En outre, les militants des droits de l'homme, ainsi que d'autres critiques, affirment également que ce dispositif est un nouvel exemple de l'utilisation par Israël des Palestiniens comme cobayes, ce qui lui permettrait de commercialiser sa technologie militaire comme testée sur le terrain auprès des gouvernements du monde entier. « Je vois cela comme une transition du contrôle humain au contrôle technologique. En tant que Palestiniens, nous sommes devenus un objet d'expérimentation et de formation pour l'industrie militaire israélienne de haute technologie, qui n'est pas responsable de ce qu'elle fait », a déclaré un habitant de la région.
Les armes létales autonomes sont de plus en plus utilisées dans le monde. Les drones, notamment les drones kamikazes, sont largement utilisés de l'Ukraine en l'Éthiopie et les armes télécommandées ont été utilisées par les États-Unis en Irak, par la Corée du Sud le long de la frontière avec la Corée du Nord et par les rebelles syriens. Par ailleurs, la dépendance de l'armée israélienne à l'égard des systèmes automatisés s'est accrue au fils des ans. Ces dernières années, Israël a adopté de plus en plus de systèmes automatisés à des fins militaires, dont certains sont controversés. Cela comprend des robots et des chars d'assaut dotés d'une intelligence artificielle.
L'année dernière, un rapport a révélé qu'Israël avait déployé un système élaboré de caméras en Cisjordanie occupée pour contrôler et surveiller les Palestiniens. Ces caméras seraient reliées à une base de données appelée "Blue Wolf". La base de données comprendrait des détails et des photos des Palestiniens, notamment les numéros d'identité, l'âge, le sexe, l'adresse, les numéros de plaque d'immatriculation, les liens avec d'autres individus, le statut professionnel en Israël et les impressions négatives que les soldats ont du comportement d'un Palestinien lorsqu'ils le rencontrent. Hébron aurait été l'une des premières villes à utiliser ce système.
Selon d'autres rapports, en 2018, l'armée israélienne a commencé à utiliser un drone capable de lancer des gaz lacrymogènes pour disperser les manifestants dans la bande de Gaza. En 2021, même la police israélienne aurait commencé à employer de tels drones contre des manifestants en Israël. Dans ce contexte, beaucoup estiment que le déploiement des armes létales autonomes va davantage s'accélérer. Elon Musk, PDG de Tesla, affirme : « les drones autonomes sont le futur. Ce n’est pas que je veuille que l’avenir soit ainsi fait, mais c’est juste que c’est inéluctable. L’ère des avions de chasse est révolue ».
En Europe, Milrem Robotics, leader européen en matière de robotique et de systèmes autonomes, a partagé en juin dernier une vidéo mettant en scène un char doté d'une IA qui fait exploser des voitures et d'autres cibles. L'entrepreneur a déclaré que le char, baptisé Type-X, est conçu pour permettre aux troupes de "percer les positions défensives de l'ennemi avec un risque minimal". Il devrait fournir aux troupes "une puissance de feu et une utilisation tactique égales ou supérieures à celles d'une unité équipée de véhicules de combat d'infanterie". Les critiques ont déclaré que la démonstration reflète un futur dystopique de la guerre.
« Vous avez du sang sur les mains » : des employés interrompent la célébration des 50 ans de Microsoft pour dénoncer l'usage militaire de son IANATO ACQUIRES PALANTIR AI
— GenXGirl (@GenXGirl1994) April 14, 2025
Palantir’s AI takes data & provides action: what to do, when to do it, & what happens if u don’t
In Gaza, Israel used Lavender AI & Gospel AI to “identify targets” under ops “Where’s Daddy”. It resulted in mass murder of whole families & false targets https://t.co/oYFD7wVjHv pic.twitter.com/Q3nF15yxj0
Le 4 avril 2025, lors de la célébration du 50ᵉ anniversaire de Microsoft à son siège de Redmond, Washington, l'événement a été marqué par des protestations d'employés dénonçant les liens de l'entreprise avec l'armée israélienne.
Alors que Mustafa Suleyman, PDG de la division IA de Microsoft, présentait des mises à jour sur le produit Copilot, Ibtihal Aboussad, employée de Microsoft, a interrompu la présentation en s'avançant vers la scène. Elle a accusé Suleyman et l'entreprise de complicité dans les actions militaires en cours au Moyen-Orient, déclarant :
« Honte à vous ! Vous êtes un profiteur de guerre. Arrêtez d'utiliser l'IA pour le génocide. Arrêtez d'utiliser l'IA pour le génocide dans notre région. Vous avez du sang sur les mains. Tout Microsoft a du sang sur les mains. Comment osez-vous célébrer alors que Microsoft tue des enfants ? Honte à vous tous ».
Peu après avoir été expulsée de l'événement organisé par Microsoft, Aboussad a envoyé un courriel à un certain nombre de listes de distribution de courriels contenant des centaines ou des milliers d'employés de Microsoft. En voici un extrait :
« Bonjour à tous,
« Comme vous venez peut-être de le voir sur le livestream ou en personne, j'ai perturbé le discours de Mustafa Suleyman, PDG de Microsoft AI, lors de la célébration très attendue du 50e anniversaire de l'entreprise. Voici pourquoi.
« Je m'appelle Ibtihal et, depuis trois ans et demi, je suis ingénieur logiciel au sein de la plateforme d'IA de Microsoft. J'ai pris la parole aujourd'hui parce qu'après avoir appris que mon organisation alimentait le génocide de mon peuple en Palestine, je n'ai pas vu d'autre choix moral. C'est d'autant plus vrai que j'ai été témoin de la façon dont Microsoft a essayé d'étouffer et de supprimer toute dissidence de la part de mes collègues qui ont tenté de soulever cette question. Depuis un an et demi, la communauté arabe, palestinienne et musulmane de Microsoft est réduite au silence, intimidée, harcelée et victime de doxxage, en toute impunité de la part de Microsoft. Les tentatives de prise de parole sont au mieux tombées dans l'oreille d'un sourd, et au pire, ont conduit au licenciement de deux employés pour avoir simplement organisé une veillée. Il n'y avait tout simplement pas d'autre moyen de se faire entendre (...).
« Nous sommes complices
« Lorsque j'ai rejoint AI Platform, j'étais enthousiaste à l'idée de contribuer à la technologie de pointe de l'IA et à ses applications pour le bien de l'humanité : produits d'accessibilité, services de traduction et outils pour "permettre à chaque être humain et à chaque organisation d'accomplir davantage". Je n'ai pas été informée que Microsoft vendrait mon travail à l'armée et au gouvernement israéliens, dans le but d'espionner et d'assassiner des journalistes, des médecins, des travailleurs humanitaires et des familles civiles entières. Si j'avais su que mon travail sur les scénarios de transcription permettrait d'espionner et de transcrire des appels téléphoniques pour mieux cibler les Palestiniens (source), je n'aurais pas rejoint cette organisation et contribué à un génocide. Je n'ai pas signé pour écrire un code qui viole les droits de l'homme.
« Selon AP news, il existe "un contrat de 133 millions de dollars entre Microsoft et le ministère israélien de la Défense". "L'utilisation par l'armée israélienne de l'intelligence artificielle de Microsoft et d'OpenAI a grimpé en mars dernier à près de 200 fois plus qu'avant la semaine précédant l'attaque du 7 octobre. La quantité de données stockées sur les serveurs Microsoft a doublé entre cette date et juillet 2024, pour atteindre plus de 13,6 pétaoctets" ».
C’est la raison de la demande du Pape aux dirigeants du G7 d’interdire l’utilisation d’armes autonomes
Le pape François a prononcé un discours historique devant les dirigeants du G7, les exhortant à reconnaître qu'ils ont le pouvoir de décider si l'intelligence artificielle devient un outil terrifiant ou créatif, et leur demandant d'interdire l'utilisation d'armes autonomes dans les guerres. Sa sortie s’inscrit dans la suite du Rome Call for AI Ethics et de l’appel à un traité mondial contraignant pour réglementer l’intelligence artificielle.
« Nous condamnerions l'humanité à un avenir sans espoir si nous retirions aux gens la capacité de prendre des décisions sur eux-mêmes et sur leur vie », a déclaré le Pape François lors du dernier sommet du G7 en Italie.
« À la lumière de la tragédie que constituent les conflits armés, il est urgent de reconsidérer le développement et l'utilisation de dispositifs tels que les armes autonomes létales et, à terme, d'en interdire l'usage.
Cela commence par un engagement effectif et concret à introduire un contrôle humain toujours plus important et adéquat. Aucune machine ne devrait jamais choisir de prendre la vie d'un être humain.
Une telle mesure représenterait un affaiblissement du sens de l'humanité et du concept de dignité humaine », a-t-il ajouté.
Source : OTAN
Et vous ?
Pour ou contre l'utilisation de l'IA à des fins militaires ? Si pour, à quel degré ou à quelles fins ? Si contre, pourquoi ?
Êtes-vous surpris de la mise à contribution de l’intelligence artificielle sur les champs de bataille ?
Voir aussi :
Des représentants de 150 entreprises de la tech plaident contre les robots tueurs autonomes, lors d'une conférence internationale sur l'IA
USA : le sous-secrétaire à la défense soulève l'importance d'associer l'intelligence artificielle à l'armée, évoquant une future course aux armes
Des experts en IA boycottent un projet de robots tueurs d'une université en Corée du Sud, en partenariat avec le fabricant d'armes Hanwha Systems
Non, l'IA de Google ne doit pas être au service de la guerre ! Plus de 3000 employés de Google protestent contre la collaboration avec le Pentagone
Robots militaires : les États-Unis testent l'efficacité de leurs prototypes dans le Pacifique, l'armée irakienne présente son robot mitrailleur
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
Et les tirs sur Gaza qui ont fait plus de 45 000 morts et des centaines de milliers de blessés femmes, enfants, vieillards, le repérage et le guidage des bombes ont été faits par IA.
Ah parce que tuer de ses propres mains c'est digne par contre ? Qu'est ce qu'il ne faut pas lireAucune machine ne devrait jamais choisir de prendre la vie d'un être humain.
Une telle mesure représenterait un affaiblissement du sens de l'humanité et du concept de dignité humaine
Je vous assure que le cadavre aurait préféré rester en vie, même si c'était un humain qui a décidé de la mise à mort.
Partager