IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

L'OTAN signe un accord avec Palantir pour l’acquisition de son système d'IA dénommé Maven


Sujet :

Intelligence artificielle

  1. #121
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 371
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 371
    Par défaut Google, OpenAI et d'autres s'opposent au projet de loi californien visant à réguler le développement de l'IA
    Google, OpenAI et d'autres s'opposent au projet de loi californien SB 1047 visant à réguler le développement de l'IA
    arguant qu’il pourrait freiner l’innovation

    Un projet de loi en Californie, visant à réguler le développement des modèles d’intelligence artificielle (IA), a déclenché une vive controverse à Silicon Valley. Le projet de loi SB 1047, également connu sous le nom de “Safe and Secure Innovation for Frontier Artificial Intelligence Models Act”, propose des mesures strictes pour garantir la sécurité des modèles d’IA avancés. Cependant, des géants de la technologie comme Google et OpenAI s’y opposent fermement, arguant qu’il pourrait freiner l’innovation.

    Le projet de loi sur la sécurité de l'IA, SB 1047, imposerait davantage de responsabilités à tout développeur dépensant plus de 100 millions de dollars pour construire un modèle d'IA. Les exigences comprennent des tests de sécurité, la mise en œuvre de mesures de protection et la possibilité pour le procureur général de l'État de prendre des mesures à l'encontre du développeur de tout modèle d'IA qui cause un « préjudice grave », tel que des pertes massives ou des incidents entraînant des dommages d'une valeur de 500 millions de dollars ou plus.

    Les entreprises doivent accepter de se soumettre à des audits par des tiers et mettre en place un dispositif permettant de désactiver la technologie à tout moment. Le projet de loi propose également des protections pour les dénonciateurs.

    Le sénateur de l'État de Californie Scott Wiener, coauteur du projet de loi, a accusé certains opposants de « semer la peur » pour tenter d'empêcher l'adoption de la législation de l'État.

    « Il y a eu beaucoup de drames, de déclarations dramatiques et d'inexactitudes de la part de certains opposants », a déclaré Wiener. « Les grands laboratoires se sont engagés à plusieurs reprises et de manière véhémente à effectuer des évaluations de la sécurité de leurs grands modèles, et c'est ce que ce projet de loi exige. Il s'agit de prendre un engagement volontaire et de le rendre obligatoire ».

    OpenAI entre dans la danse

    OpenAI a critiqué le projet de loi qui vise à garantir que l'intelligence artificielle puissante soit déployée en toute sécurité et a suggéré que de nouveaux contrôles menaceraient sa croissance dans l'État, se joignant à une frénésie de lobbying de dernière minute par les investisseurs et les groupes d'IA pour bloquer la législation.

    Le projet de loi SB 1047 menace « le statut unique de la Californie en tant que leader mondial de l'intelligence artificielle », a écrit Jason Kwon, directeur de la stratégie de l'entreprise, dans une lettre adressée à Scott Wiener, le sénateur de l'État de Californie à l'origine du projet de loi. Il ajoute que cela pourrait « ralentir le rythme de l'innovation et inciter les ingénieurs et les entrepreneurs californiens de classe mondiale à quitter l'État à la recherche de meilleures opportunités ailleurs ».

    Le projet de loi SB 1047 a divisé la Silicon Valley. Si la nécessité de limiter les risques liés aux nouveaux modèles d'IA puissants est largement admise, les critiques ont fait valoir que les propositions de Wiener étoufferaient les start-ups, profiteraient aux rivaux américains et compromettraient la position centrale de la Californie dans l'essor de l'IA.

    OpenAI est la dernière start-up à s'opposer à des éléments du projet de loi, et la plus importante, en grande partie grâce à la popularité de son chatbot ChatGPT et à un engagement de 13 milliards de dollars de la part de son partenaire Microsoft. OpenAI soutient les dispositions visant à garantir que les systèmes d'IA sont développés et déployés en toute sécurité, mais affirme dans la lettre que la législation devrait venir du gouvernement fédéral, et non des États individuels.


    Un projet de loi « bien intentionné mais mal informé », selon Nancy Pelosi

    Dans une réponse mercredi, Wiener a souligné qu'OpenAI ne « critique pas une seule disposition du projet de loi ». Il ajoute que l'affirmation de la société selon laquelle les entreprises quitteront la Californie à cause du SB 1047 « n'a aucun sens étant donné que le SB 1047 n'est pas limité aux entreprises ayant leur siège en Californie ». En effet, le projet de loi SB 1047 concerne tous les développeurs de modèles d'IA qui exercent leurs activités en Californie et qui atteignent certains seuils de taille. En d'autres termes, qu'une entreprise d'IA soit basée à San Jose ou à San Antonio, si elle laisse les Californiens utiliser ses produits, elle sera soumise à ces restrictions.

    Wiener a également déclaré qu'il était d'accord pour que le gouvernement fédéral prenne l'initiative, mais qu'il était « sceptique » quant à la volonté du Congrès d'agir. Il a également critiqué « l'argument éculé » selon lequel les jeunes entreprises technologiques se délocaliseraient si le projet de loi était adopté et a déclaré que les entreprises basées en dehors de l'État devraient toujours se conformer au projet de loi pour faire des affaires au niveau local.

    L'assemblée de l'État de Californie devrait voter sur le projet de loi d'ici la fin de la semaine. S'il est adopté, le gouverneur Gavin Newsom décidera alors de la signer ou d'y opposer son veto.

    Les groupes technologiques et les investisseurs de la Silicon Valley, dont Anthropic, Andreessen Horowitz et YCombinator, ont intensifié leur campagne de lobbying contre les propositions de Wiener en faveur d'un cadre de sécurité strict. Nancy Pelosi, ancienne présidente de la Chambre des représentants et représentante de la Californie, a également publié la semaine dernière une déclaration d'opposition au projet de loi, le qualifiant de « bien intentionné mais mal informé ».

    Parmi les éléments les plus controversés des propositions initiales du sénateur figuraient l'obligation pour les entreprises d'IA de garantir à un nouvel organisme public qu'elles ne développeront pas de modèles dotés d'une « capacité dangereuse » et de créer un « interrupteur d'arrêt » pour désactiver leurs modèles puissants.

    Les opposants ont affirmé que le projet de loi se concentrait sur des risques hypothétiques et ajoutait un risque de responsabilité « extrême » pour les fondateurs.

    Nom : open.png
Affichages : 7671
Taille : 524,2 Ko

    Le soutien au projet de loi

    La semaine dernière, le projet de loi a été modifié pour assouplir certaines de ces exigences, notamment en limitant les responsabilités civiles qu'il avait initialement imposées aux développeurs d'IA et en réduisant le champ d'application de ces règles.

    Toutefois, les critiques affirment que le projet de loi impose toujours aux jeunes entreprises des exigences onéreuses et parfois irréalistes. Lundi, Anna Eshoo et Zoe Lofgren, membres de la Chambre des représentants des États-Unis, ont écrit dans une lettre à Robert Rivas, président de l'assemblée californienne, qu'il y avait « encore des problèmes substantiels avec la structure sous-jacente du projet de loi », appelant plutôt à « se concentrer sur les règles fédérales pour contrôler les outils physiques nécessaires à la création de ces menaces physiques ».

    Malgré les critiques formulées par d'éminents universitaires spécialisés dans l'IA, tels que Fei-Fei Li et Andrew Ng, de Stanford, qui ont dirigé des projets d'IA chez Google (Alphabet) et Baidu (Chine), le projet de loi a reçu le soutien de certains « parrains de l'IA », tels que Geoffrey Hinton, de l'université de Toronto, et Yoshua Bengio, professeur d'informatique à l'université de Montréal.

    « En résumé, le SB 1047 est un projet de loi très raisonnable : SB 1047 est un projet de loi très raisonnable qui demande aux grands laboratoires d'IA de faire ce qu'ils se sont déjà engagés à faire, à savoir tester leurs grands modèles pour détecter les risques de sécurité catastrophiques », a écrit Wiener mercredi.

    Lundi, Elon Musk (propriétaire de la grande entreprise de modèles d'IA xAI) s'est prononcé en faveur du projet de loi, en postant sur X « C'est une décision difficile et qui va contrarier certaines personnes, mais, tout bien considéré, je pense que la Californie devrait probablement adopter le projet de loi SB 1047 sur la sécurité de l'IA. Depuis plus de 20 ans, je plaide en faveur d'une réglementation de l'IA, tout comme nous réglementons tout produit/technologie présentant un risque potentiel pour le public ».

    Un équilibre délicat

    Le débat autour du projet de loi SB 1047 met en lumière le défi de trouver un équilibre entre la promotion de l’innovation et la garantie de la sécurité. Alors que certains voient dans ce projet de loi une menace pour l’innovation, d’autres y voient une étape cruciale pour prévenir les risques potentiels associés à l’IA. Les partisans du projet de loi soutiennent que sans régulation, les modèles d’IA pourraient causer des dommages irréparables, tant sur le plan individuel que sociétal.

    Un contexte réglementaire plus large

    Le débat sur la réglementation de l'IA ne se limite pas à la Californie. Les gouvernements du monde entier s'efforcent de gérer les progrès rapides de la technologie de l'IA. En octobre, le président américain Joe Biden a publié un décret visant à établir de nouvelles normes en matière de sûreté de l'IA et de sécurité nationale, à protéger les citoyens contre les risques d'atteinte à la vie privée liés à l'IA et à lutter contre la discrimination algorithmique. Le gouvernement britannique a également présenté des projets de réglementation de l'IA, et l'Union européenne a adopté une législation complète visant à mettre en place des garde-fous pour cette technologie.

    Edward Snowden, le lanceur d'alerte qui a révélé les programmes de surveillance mondiale du gouvernement américain, s'est exprimé sur la question lors d'un appel vidéo à l'occasion de l'événement SuperAI à Singapour. Il a mis en garde contre une réglementation excessive en déclarant : « Nous assistons à la naissance d'un enfant doté d'une technologie entièrement nouvelle, et nous voyons déjà les loups-garous commencer à tourner en rond. » Snowden s'est dit préoccupé par le fait que les efforts de réglementation pourraient étouffer le potentiel de l'IA, ajoutant : « La panique liée à la sécurité de l'IA en général est quelque chose qui me pose problème. »

    La croissance rapide et l'énorme potentiel de l'IA ont suscité des inquiétudes quant à la sécurité de cette technologie. L'année dernière, le milliardaire Elon Musk, investisseur de la première heure dans la société OpenAI, productrice de ChatGPT, l'a qualifiée de « menace existentielle » pour l'humanité. Plus tôt cette année, un groupe d'anciens et d'actuels employés d'OpenAI a publié une lettre ouverte dans laquelle ils avertissent que les « entreprises d'IA pionnières » ne sont pas suffisamment surveillées par les gouvernements et qu'elles posent de « graves risques » pour l'humanité.

    Sources : le sénateur répond aux préoccupations d'OpenAI, vidéo dans le texte, Nancy Pelosi, lettre ouverte d'Anthropic

    Et vous ?

    Pensez-vous que les mesures de sécurité proposées dans le projet de loi sont suffisantes pour prévenir les risques liés à l’IA ? Pourquoi ou pourquoi pas ?
    Comment les startups et les petites entreprises peuvent-elles s’adapter aux exigences du projet de loi sans compromettre leur capacité à innover ?
    Selon vous, quelles pourraient être les conséquences à long terme de l’absence de régulation stricte de l’IA ?
    Le projet de loi pourrait-il inspirer d’autres États ou pays à adopter des régulations similaires ? Quels en seraient les impacts ?
    Comment équilibrer la nécessité de réguler l’IA pour garantir la sécurité tout en favorisant l’innovation technologique ?
    Quels autres aspects de l’IA devraient être pris en compte dans les régulations futures ?
    Pensez-vous que les grandes entreprises technologiques ont trop d’influence sur les décisions politiques concernant l’IA ? Pourquoi ou pourquoi pas ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #122
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 178
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 178
    Par défaut Le projet de loi californien sur l'IA est adopté par l'assemblée législative, même s'il est contesté
    Le projet de loi controversé sur l'IA en Californie est adopté par l'assemblée législative et attend la signature du gouverneur, alors que Google et OpenAI s'y opposent fermement

    Le projet de loi controversé sur l'IA en Californie prévoit des tests de sécurité pour les modèles d'IA avancés. Il a été adopté par l'assemblée législative et doit maintenant être signé par le gouverneur de Californie. Les entreprises technologiques, notamment Google, Meta et OpenAI, s'y opposent largement, arguant qu'il pourrait freiner l'innovation.

    Un projet de loi en Californie, visant à réguler le développement des modèles d’intelligence artificielle (IA), a déclenché une vive controverse à Silicon Valley. Le projet de loi, connu sous le nom de "Safe and Secure Innovation for Frontier Artificial Intelligence Models Act", propose des mesures strictes pour garantir la sécurité des modèles d’IA avancés. Le projet de loi imposerait davantage de responsabilités, notamment des tests de sécurité et la mise en œuvre de mesures de protection. Les entreprises doivent également accepter de se soumettre à des audits par des tiers.

    Les législateurs californiens ont adopté ce projet de loi très controversé sur la sécurité de l'IA, qui devait encore faire l'objet d'un vote avant d'être remis entre les mains du gouverneur. Le gouverneur Gavin Newsom a jusqu'au 30 septembre pour décider de le promulguer ou d'y opposer son veto.


    Les entreprises technologiques qui développent l'IA générative - capable de répondre à des messages sous forme de texte, d'images ou de sons entièrement formés et d'exécuter des tâches répétitives avec un minimum d'intervention - se sont largement opposées à cette loi, appelée SB 1047, estimant qu'elle pourrait pousser les entreprises d'IA à quitter l'État et à entraver l'innovation.

    Certains démocrates du Congrès américain, dont la représentante Nancy Pelosi, s'y sont également opposés. Parmi les partisans de cette mesure figure le PDG de Tesla, Elon Musk, qui dirige également une entreprise d'IA appelée xAI et a déclaré qu'il soutenait le projet de loi.

    La mesure impose des tests de sécurité pour un grand nombre des modèles d'IA les plus avancés dont le développement coûte plus de 100 millions de dollars ou qui nécessitent une quantité définie de puissance de calcul. Les développeurs de logiciels d'IA opérant dans l'État doivent également présenter des méthodes permettant de désactiver les modèles d'IA en cas de dérapage, ce qui revient à mettre en place un interrupteur d'arrêt.

    Le projet de loi donne également au procureur général de l'État le pouvoir d'intenter des poursuites si les développeurs ne se conforment pas à la loi, en particulier en cas de menace permanente, par exemple si l'IA prend le contrôle de systèmes gouvernementaux tels que le réseau électrique. En outre, le projet de loi exige des développeurs qu'ils engagent des auditeurs tiers pour évaluer leurs pratiques en matière de sécurité et offre des protections supplémentaires aux dénonciateurs qui dénoncent les abus de l'IA.


    L'auteur du projet de loi, le sénateur démocrate Scott Wiener, représente la ville de San Francisco, où se trouvent OpenAI et de nombreuses start-ups qui développent ce puissant logiciel. Il a déclaré qu'il était nécessaire de légiférer pour protéger le public avant que les progrès de l'IA ne deviennent trop lourds ou incontrôlables.

    Martin Casado, associé général de la société de capital-risque Andreessen Horowitz, a déclaré avant le vote qu'il espérait que M. Newsom opposerait son veto. "Il s'agit de l'opposition la plus large et la plus bipartisane que j'aie jamais vue", a-t-il déclaré.

    Google d'Alphabet, OpenAI, soutenu par Microsoft, et Meta Platforms ont exprimé leurs préoccupations dans des lettres adressées à M. Wiener. Anthropic, soutenu par Amazon, a déclaré que les avantages du projet de loi l'emportaient probablement sur les coûts, bien qu'il ait ajouté que certains aspects semblaient encore préoccupants ou ambigus.

    Et vous ?

    Pensez-vous que ce projet de loi est crédible ou pertinent ?
    Quel est votre avis sur la suite de cette affaire ?

    Voir aussi :

    Le projet de loi californien sur l'IA menace-t-il l'innovation ou protège-t-il la société ? Google, Meta et OpenAI s'y opposent, arguant qu'il pourrait freiner l'innovation, tandis qu'Elon Musk le soutient

    Les Big Tech (GAFAM) veulent réglementer l'IA, mais les autres entrepreneurs sont sceptiques. Selon eux leur réelle volonté serait juste de geler le marché de l'IA pour conserver leur monopole

    AI Act : les nouvelles règles européennes en matière d'intelligence artificielle entrent en vigueur. L'objectif déclaré est d'encourager le développement et l'adoption de systèmes IA sûrs et fiables en UE

    Exode chez OpenAI : près de la moitié du personnel chargé de la sécurité de l'AGI a quitté l'entreprise. Sam Altman, qui a réclamé une réglementation de l'IA, s'y oppose lorsqu'elle est implémentée
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  3. #123
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 371
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 371
    Par défaut Les États-Unis, le Royaume-Uni et l'Union européenne signent un traité juridiquement contraignant sur l'IA
    Les États-Unis, le Royaume-Uni et l'Union européenne signent le premier traité juridiquement contraignant sur l'IA
    visant à promouvoir le progrès tout en gérant les risques potentiels de l’IA

    Dans une avancée historique pour la gouvernance mondiale de l’intelligence artificielle (IA), les États-Unis, le Royaume-Uni et l’Union Européenne ont signé le premier traité international juridiquement contraignant sur l’IA. Ce traité, élaboré sous l’égide du Conseil de l’Europe, vise à garantir que l’utilisation de l’IA respecte les droits de l’homme, la démocratie et l’état de droit.

    Contexte et objectifs du traité

    Le traité, signé le 5 septembre 2024 à Vilnius, en Lituanie, marque une étape cruciale dans la régulation de l’IA. Il s’agit de la première convention internationale qui impose des obligations légales aux signataires pour encadrer le cycle de vie complet des systèmes d’IA. L’objectif principal est de promouvoir le progrès et l’innovation tout en gérant les risques potentiels que l’IA peut poser aux droits de l’homme, à la démocratie et à l’état de droit.

    « La Convention-cadre du Conseil de l’Europe sur l’intelligence artificielle et les droits de l’homme, la démocratie et l’État de droit est le premier instrument international juridiquement contraignant dans ce domaine. Elle vise à garantir que les activités menées dans le cadre du cycle de vie des systèmes d’intelligence artificielle sont pleinement compatibles avec les droits humains, la démocratie et l’État de droit, tout en étant propice au progrès et aux innovations technologiques.

    « La Convention-cadre complémente les normes internationales existantes relatives aux droits humains, à la démocratie et à l’État de droit, et a pour but de palier à tout vide juridique qui pourrait résulter des avancées technologiques rapides. Afin de résister au temps, la Convention-cadre ne régule pas la technologie et est essentiellement neutre sur le plan technologique ».

    Le premier traité international juridiquement contraignant sur l'IA

    Les droits de l'homme, la démocratie et l'État de droit seront davantage protégés contre les menaces potentielles posées par l'intelligence artificielle (IA) en vertu d'un nouvel accord international. Le nouveau cadre adopté par le Conseil de l'Europe engage les parties à prendre des mesures collectives pour gérer les produits de l'IA et protéger le public d'une éventuelle utilisation abusive.

    L'IA est susceptible d'apporter des avantages significatifs, tels que la stimulation de la productivité et l'augmentation des taux de détection du cancer. Toutefois, la nouvelle convention prévoit d'importantes mesures de protection contre les risques qu'elle comporte, tels que la diffusion de fausses informations ou l'utilisation de données biaisées susceptibles d'influer sur les décisions.

    Le traité garantira que les pays surveillent son développement et que toute technologie soit gérée dans le cadre de paramètres stricts. Il comprend des dispositions visant à protéger le public et ses données, les droits de l'homme, la démocratie et l'État de droit. Il engage également les pays à prendre des mesures contre les activités qui ne respectent pas ces paramètres afin de lutter contre l'utilisation abusive des modèles d'IA qui présentent un risque pour les services publics et le grand public.

    La Convention-cadre a été signée par Andorre, la Géorgie, l’Islande, la Norvège, la République de Moldova, Saint-Marin, le Royaume-Uni ainsi qu’Israël, les États-Unis d’Amérique et l’Union européenne.

    « Nous devons faire en sorte que l’essor de l’intelligence artificielle se fasse au service et dans le respect de nos normes, et non pas à leur détriment. La Convention-cadre a été conçue dans cette optique. Ce texte solide et équilibré est le fruit de l’approche ouverte et inclusive qui a présidé à sa rédaction et qui a permis de s’assurer qu’il bénéficie des points de vue d’un vaste éventail de spécialistes. La Convention-cadre est un traité ouvert, de portée potentiellement mondiale. J’espère que ces signatures seront les premières d’une longue série et qu’elles seront rapidement suivies de ratifications, afin que le traité puisse entrer en vigueur dans les meilleurs délais » a déclaré la Secrétaire Générale du Conseil de l’Europe, Marija Pejčinović Burić.

    Le traité établit un cadre juridique qui couvre l’ensemble du cycle de vie des systèmes d’intelligence artificielle. Il encourage le progrès et l’innovation dans ce domaine tout en atténuant les risques que l’IA peut poser pour les droits humains, la démocratie et l’État de droit. Pour résister à l’épreuve du temps, ce traité est neutre sur le plan technologique.

    La Convention-cadre a été adoptée par le Comité des Ministres du Conseil de l’Europe le 17 mai 2024. Les 46 États membres du Conseil de l’Europe, l’Union européenne ainsi que 11 États non membres (l’Argentine, l’Australie, le Canada, le Costa Rica, les États-Unis d’Amérique, Israël, le Japon, le Mexique, le Pérou, le Saint-Siège et l’Uruguay) ont participé à la négociation du traité. Des représentant·es du secteur privé, de la société civile et du monde universitaire y ont contribué en qualité d’observateurs.

    Le traité entrera en vigueur le premier jour du mois qui suit l’expiration d’une période de trois mois après la date à laquelle cinq signataires, dont au moins trois États membres du Conseil de l’Europe, l’auront ratifié. Les pays du monde entier pourront y adhérer et s’engager à en respecter les dispositions.

    Nom : signe.png
Affichages : 7557
Taille : 595,5 Ko

    Quelles sont les obligations des états en vertu de la Convention-cadre ?

    Les signataires du traité s’engagent à adopter ou à maintenir des mesures garantissant que l’utilisation de l’IA est conforme aux valeurs fondamentales de la société. Les principaux engagements incluent :
    • Protection des droits de l’homme : Assurer que les données des individus sont utilisées de manière appropriée, que leur vie privée est respectée et que l’IA ne discrimine pas.
    • Préservation de la démocratie : Prendre des mesures pour empêcher que les institutions et processus publics ne soient compromis par l’IA.
    • Respect de l’état de droit : Réguler les risques spécifiques à l’IA, protéger les citoyens contre les dommages potentiels et garantir une utilisation sûre de la technologie

    Il faut noter qu'il y a d'autres axes, notamment :
    • des recours, droits procéduraux et garanties :
      • Documenter les informations pertinentes concernant les systèmes d’IA et leur utilisation, et les mettre à la disposition des personnes concernées ;
      • Les informations doivent être suffisantes pour permettre aux personnes concernées de contester la ou les décisions prises par le biais de l’utilisation du système ou fondées en grande partie sur celui-ci, et de contester l’utilisation du système lui-même ;
      • Possibilité effective de former un recours auprès des autorités compétentes ;
      • Mise à disposition des personnes affectées de garanties, de protections et de droits procéduraux effectifs lorsqu’un système d’intelligence artificielle a un impact significatif sur la jouissance des droits humains et des libertés fondamentales ;
      • Notification aux personnes concernées du fait qu’elles interagissent avec des systèmes d’intelligence artificielle et non avec un humain.
    • des exigences en matière de gestion des risques et des impacts
      • Conduite d’évaluations des risques et des impacts, qu’ils soient réels ou potentiels sur les droits humains, la démocratie et l’État de droit, menées de manière itérative ;
      • Mise en place des mesures de prévention et d’atténuation suffisantes résultant de la mise en œuvre de ces évaluations ;
      • Possibilité pour les autorités d’instaurer un moratoire ou une interdiction pour certaines utilisations de systèmes d’IA (« lignes rouges »).

    À qui s’applique la Convention-cadre ?

    La Convention-cadre couvre l’utilisation des systèmes d’IA par les pouvoirs publics – y compris les acteurs privés qui agissent pour leur compte – et les acteurs privés.

    La Convention-cadre offre aux Parties deux modalités pour se conformer à ses principes et obligations pour la régulation du secteur privé : elles peuvent choisir d’être directement obligées par les dispositions pertinentes de la Convention-cadre, ou de prendre d’autres mesures pour se conformer aux dispositions du traité tout en respectant pleinement leurs obligations internationales en matière de droits de l’homme, de démocratie et d’État de droit.

    Les Parties à la Convention-cadre ne sont pas tenues d’appliquer les dispositions du traité aux activités liées à la protection de leurs intérêts de sécurité nationale, mais doivent veiller à ce que ces activités respectent le droit international et les institutions et processus démocratiques. La Convention-cadre ne s’applique pas aux questions de défense nationale ni aux activités de recherche et de développement, sauf lorsque les essais de systèmes d’intelligence artificielle risquent de porter atteinte aux droits de l’homme, à la démocratie ou à l’État de droit.

    Réactions et perspectives

    La signature de ce traité a été saluée comme une avancée majeure par de nombreux experts et responsables politiques. Marija Pejcinovic Buric, Secrétaire Générale du Conseil de l’Europe, a déclaré : « Nous devons nous assurer que l’essor de l’IA soutient nos normes, plutôt que de les saper ».

    Le Lord Chancellor et secrétaire d'État à la justice, Shabana Mahmood, a déclaré :

    « L'intelligence artificielle a la capacité d'améliorer radicalement la réactivité et l'efficacité des services publics et de donner un coup de fouet à la croissance économique.

    « Cependant, nous ne devons pas laisser l'IA nous façonner - nous devons façonner l'IA.

    « Cette convention est une étape importante pour garantir que ces nouvelles technologies puissent être exploitées sans éroder nos valeurs les plus anciennes, comme les droits de l'homme et l'État de droit ».

    Cependant, certains observateurs ont exprimé des préoccupations quant à l’applicabilité et à l’efficacité des dispositions du traité. Francesca Fanucci, experte juridique au Centre Européen pour le Droit des Organisations à but non lucratif, a souligné que certaines formulations du traité étaient trop larges et comportaient des exceptions pour les systèmes d’IA utilisés à des fins de sécurité nationale

    Pourquoi c'est important ? La signature de ce traité intervient à un moment où la sécurité de l'IA est un sujet brûlant

    En début d'année, il a été rapporté qu'OpenAI, parent du ChatGPT, a renforcé son équipe de lobbying afin d'élaborer des réglementations en matière d'IA dans un contexte de préoccupations croissantes en matière de sécurité.

    Notons d'ailleurs qu'OpenAI a supplié le Parlement britannique de l'autoriser à utiliser des œuvres protégées par le droit d'auteur, car il lui serait « impossible » d'entraîner ses modèles d'intelligence artificielle - et de poursuivre la croissance de son entreprise, qui pèse plusieurs milliards de dollars - sans ces œuvres.

    Le mois dernier, la législature californienne a approuvé un projet de loi controversé sur la sécurité de l'IA, qui s'est heurté à la résistance de l'industrie technologique. Selon le marché des prédictions Polymarket, le projet de loi, soutenu par Elon Musk, a 53 % de chances d'être signé par le gouverneur Gavin Newsom.

    Nom : poly.png
Affichages : 1240
Taille : 48,9 Ko

    Conclusion

    Le traité sur l’IA signé par les États-Unis, le Royaume-Uni et l’Union Européenne représente une avancée significative vers une régulation mondiale de l’intelligence artificielle. En établissant des normes juridiquement contraignantes, ce traité vise à garantir que l’IA est développée et utilisée de manière éthique et responsable, tout en protégeant les valeurs fondamentales de la société.

    Sources : convention-cadre du Conseil de l'Europe sur l'intelligence artificielle et les droits de l’homme, Commission européenne, gouvernement britannique, PolyMarket, le Conseil de l’Europe ouvre à la signature le premier traité mondial sur l’IA

    Et vous ?

    Pensez-vous que ce traité est suffisant pour encadrer les risques liés à l’IA, ou faut-il des mesures supplémentaires ?
    Quels aspects du traité trouvez-vous les plus importants pour la protection des droits de l’homme ?
    Comment les gouvernements peuvent-ils garantir que les entreprises respectent les dispositions de ce traité ?
    Quels pourraient être les défis majeurs pour la mise en œuvre de ce traité dans les différents pays signataires ?
    Voyez-vous des domaines où l’IA pourrait encore poser des risques malgré ce traité ?
    Comment ce traité pourrait-il influencer l’innovation et le développement technologique dans le domaine de l’IA ?
    Pensez-vous que d’autres pays devraient rejoindre ce traité ? Pourquoi ou pourquoi pas ?
    Quels mécanismes de surveillance et de contrôle devraient être mis en place pour assurer le respect du traité ?
    Comment ce traité pourrait-il affecter la compétitivité des entreprises technologiques dans les pays signataires par rapport à celles des pays non signataires ?
    Quelles sont vos préoccupations principales concernant l’IA et comment pensez-vous que ce traité y répond ?
    Images attachées Images attachées
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  4. #124
    Membre averti
    Homme Profil pro
    Développeur Back-End
    Inscrit en
    Août 2021
    Messages
    53
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 52
    Localisation : France, Nord (Nord Pas de Calais)

    Informations professionnelles :
    Activité : Développeur Back-End
    Secteur : Industrie

    Informations forums :
    Inscription : Août 2021
    Messages : 53
    Par défaut
    "Le traité entrera en vigueur le premier jour du mois qui suit l’expiration d’une période de trois mois après la date à laquelle cinq signataires,

    dont au moins trois États membres du Conseil de l’Europe, l’auront ratifié."

    Vive la simplicité !!!

  5. #125
    Invité
    Invité(e)
    Par défaut
    En établissant des normes juridiquement contraignantes, ce traité vise à garantir que l’IA est développée et utilisée de manière éthique et responsable, tout en protégeant les valeurs fondamentales de la société.
    Quelles "valeurs" ?

  6. #126
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 181
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 181
    Par défaut Des dizaines de travailleurs de la filière intelligence artificielle se retournent contre leurs patrons
    Des dizaines de travailleurs de la filière IA se retournent contre leurs patrons et signent une lettre de soutien au projet de loi californien sur l'IA
    Susceptible de freiner les géants technologiques

    Des dizaines d’employés d’entreprises parmi lesquelles on compte OpenAI, Google Deepmind et Meta font face à leurs patrons pour appeler à une pause dans le développement de l’intelligence artificielle et à la mise sur pied d’un cadre réglementaire plus strict en la matière. Ils le font savoir dans une lettre dans laquelle ils expriment leur soutien au projet de loi californien sur l’intelligence artificielle dénommé SB 1047.

    Citation Envoyé par L'essentiel de la lettre
    Cher gouverneur Newsom,

    En tant qu'anciens et actuels employés d'entreprises d'intelligence artificielle pionnières telles que OpenAI, Google DeepMind, Anthropic, Meta et xAI, nous vous écrivons à titre personnel pour exprimer notre soutien au projet de loi 1047 du Sénat californien.

    Nous pensons que les modèles d'intelligence artificielle les plus puissants pourraient bientôt présenter des risques graves, tels qu'un accès élargi aux armes biologiques et des cyberattaques sur les infrastructures critiques. Il est possible et approprié pour les entreprises pionnières de l'IA de tester si les modèles d'IA les plus puissants peuvent causer des dommages graves, et pour ces entreprises de mettre en œuvre des mesures de protection raisonnables contre ces risques.

    Malgré l'incertitude inhérente à la réglementation des technologies avancées, nous pensons que le projet de loi SB 1047 représente une avancée significative. Nous vous recommandons de promulguer le projet de loi SB 1047.

    Nous vous prions d'agréer, Monsieur le Président, l'expression de nos salutations distinguées.
    Certaines entreprises derrière les modèles d’intelligence artificielle les plus en vue reconnaissent ne pas avoir la maîtrise totale de leur fonctionnement

    Le PDG de l'entreprise, Sam Altman, a déclaré qu'OpenAI n'avait pas besoin de comprendre parfaitement son produit pour en publier de nouvelles versions. Lors d'un entretien le 30 mai avec Nicholas Thompson, PDG de The Atlantic, au sommet mondial AI for Good de l'Union internationale des télécommunications (UIT) à Genève, en Suisse, Altman a parlé de la sécurité de l'IA et du potentiel de la technologie pour le bien de l'humanité. Toutefois, le PDG n'a pas semblé avoir une bonne réponse à la question fondamentale du fonctionnement de GPT.

    « Nous n'avons certainement pas résolu la question de l'interprétabilité », a déclaré Altman. Dans le domaine de l'intelligence artificielle, l'interprétabilité - ou l'explicabilité - consiste à comprendre comment les systèmes d'IA et d'apprentissage automatique prennent des décisions, selon le Centre pour la sécurité et les technologies émergentes de l'université de Georgetown.

    « Si vous ne comprenez pas ce qui se passe, n'est-ce pas un argument pour ne pas continuer à publier de nouveaux modèles plus puissants ? a demandé Thompson. Altman a éludé la question et a fini par répondre que, même en l'absence d'une cognition complète, « ces systèmes sont généralement considérés comme sûrs et robustes ».

    Voici son raisonnement : GPT, comme le cerveau humain, génère du contenu en se basant sur des ensembles de données existants et peut apprendre au fil du temps. Cependant, il ne possède pas d’intelligence émotionnelle ni de conscience humaine. Malgré cela, il peut être difficile de comprendre comment les algorithmes, tout comme notre cerveau, parviennent à leurs conclusions.

    « Nous ne comprenons pas ce qui se passe dans votre cerveau, neurone par neurone, et pourtant nous savons que vous pouvez suivre certaines règles et nous pouvons vous demander d'expliquer pourquoi vous pensez quelque chose », a déclaré Altman. En comparant le GPT au cerveau humain, Altman a évoqué la présence d'une boîte noire, ou d'un sentiment de mystère derrière sa fonctionnalité. À l'instar du cerveau humain, la technologie d'IA générative telle que GPT crée de nouveaux contenus sur la base d'ensembles de données existants et est censée apprendre au fil du temps.

    Nom : 1.png
Affichages : 4904
Taille : 608,2 Ko

    C’est la raison des appels de certains manifestants à « Arrêter la course, car les développements de l’IA ne sont pas sûrs »

    À Londres, une vingtaine de manifestants se sont postés devant le ministère britannique de la science, de l'innovation et de la technologie, scandant des slogans tels que « arrêtez la course, ce n'est pas sûr » et « l'avenir de qui ? notre avenir », dans l'espoir d'attirer l'attention des décideurs politiques. Les manifestants affirment que leur objectif est d'inciter les gouvernements à réglementer les entreprises qui développent des modèles d'IA d'avant-garde, notamment le Chat GPT d'OpenAI. Ils affirment que les entreprises ne prennent pas suffisamment de précautions pour s'assurer que leurs modèles d'IA sont suffisamment sûrs pour être diffusés dans le monde.

    « Les entreprises d'IA ont prouvé à maintes reprises que l'on ne pouvait pas leur faire confiance, à travers la manière dont elles traitent leurs employés et le travail des autres, en le volant littéralement et en le jetant dans leurs modèles », a déclaré Gideon Futerman, un étudiant d'Oxford qui a prononcé un discours lors de la manifestation.

    L'une des manifestantes, Tara Steele, rédactrice indépendante qui travaille sur des blogs et des contenus de référencement, a déclaré qu'elle avait constaté l'impact de la technologie sur ses propres moyens de subsistance. « J'ai remarqué que depuis l'apparition de ChatGPT, la demande de travail en freelance a considérablement diminué », explique-t-elle. « Personnellement, j'adore écrire... J'ai vraiment adoré ça. Et c'est un peu triste, émotionnellement ».

    Elle explique que sa principale raison de protester est qu'elle craint que les modèles d'intelligence artificielle d'avant-garde n'aient des conséquences encore plus dangereuses à l'avenir. « Nous avons une foule d'experts hautement qualifiés, des lauréats du prix Turing, des chercheurs en intelligence artificielle très cités et les PDG des entreprises d'intelligence artificielle eux-mêmes [qui affirment que l'intelligence artificielle pourrait être extrêmement dangereuse] ».

    Elle est particulièrement préoccupée par le nombre croissant d'experts qui mettent en garde contre les conséquences catastrophiques d'une IA mal maîtrisée. Un rapport commandé par le gouvernement américain, publié en mars, met en garde contre « l'essor de l'IA avancée et de l'IAG [intelligence artificielle générale], qui pourrait déstabiliser la sécurité mondiale d'une manière qui rappelle l'introduction des armes nucléaires ». Actuellement, les plus grands laboratoires d'IA tentent de construire des systèmes capables de surpasser les humains dans presque toutes les tâches, y compris la planification à long terme et la pensée critique. S'ils y parviennent, de plus en plus d'aspects de l'activité humaine pourraient être automatisés, qu'il s'agisse de choses banales comme les achats en ligne ou de l'introduction de systèmes d'armes autonomes qui pourraient agir d'une manière que nous ne pouvons pas prédire. Cela pourrait conduire à une « course aux armements » qui augmenterait la probabilité « d'accidents mortels à l'échelle mondiale et à l'échelle des ADM [armes de destruction massive], de conflits interétatiques et d'escalade », selon le rapport.

    Source : Lettre

    Et vous ?

    Quelles sont les principales préoccupations que vous avez concernant le développement rapide de l’intelligence artificielle ?
    Comment les gouvernements devraient-ils réguler l’IA pour équilibrer l’innovation et la sécurité publique ?
    Quel rôle le public doit-il jouer dans la décision des limites de l’IA ?
    Les avantages de l’IA l’emportent-ils sur les risques potentiels pour l’emploi et la vie privée ?
    Devrions-nous craindre une ‘course à l’IA’ entre les entreprises et les nations, et si oui, comment pouvons-nous la prévenir ?
    Quelles mesures de sécurité spécifiques les entreprises d’IA devraient-elles mettre en place avant de lancer de nouveaux produits ?
    Comment l’IA a-t-elle affecté votre vie professionnelle ou personnelle, et quelles sont vos attentes pour l’avenir ?
    Quelles sont les responsabilités éthiques des développeurs d’IA, et comment peuvent-ils s’assurer qu’ils les respectent ?

    Voir aussi :

    Craignant l'extinction de l'humanité, un groupe de protestation milite pour l'arrêt du développement de l'IA jusqu'à ce que des mesures de sécurité adéquates soient établies
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  7. #127
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 262
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 262
    Par défaut Des pionniers de l'IA réclament des protections contre les « risques catastrophiques » liés à la technologie
    Des pionniers de l'IA réclament des protections contre les « risques catastrophiques » liés à la technologie et la création d'une autorité internationale
    chargée de surveiller son développement

    Un groupe de scientifiques participant au développement de l'IA appelle la communauté internationale à mettre en place un organe de contrôle afin de surveiller l'évolution de la technologie. Ils affirment que l'IA pourrait, en l'espace de quelques années, surpasser les capacités de ses créateurs et que « la perte de contrôle humain ou l'utilisation malveillante de ces systèmes d'IA pourrait avoir des conséquences catastrophiques pour l'ensemble de l'humanité ». Le groupe, qui est composé d'experts européens, américains, chinois et d'ailleurs, appelle une résolution rapide de ces préoccupations afin de garantir le développement de systèmes d'IA sécurisés et fiables

    Des chercheurs en IA affirment que l'IA pourrait causer de graves dommages

    Au début du mois, des scientifiques du monde entier se sont réunis à Venise, en Italie, pour discuter des « risques catastrophiques » liés à l'IA et des solutions potentielles. La rencontre s'inscrit dans le cadre de la troisième réunion des Dialogues internationaux sur la sécurité de l'IA, organisée par un groupe de recherche américain à but non lucratif appelé FAR AI. Le séminaire a réuni des scientifiques des États-Unis, de Chine, de Grande-Bretagne, de Singapour, du Canada et d'ailleurs. À l'issue des concertations, le groupe a appelé à une préparation mondiale à la sécurité de l'IA pour éviter les risques catastrophiques.


    Dans une déclaration publiée sur son site, le groupe a déclaré que les gouvernements ont besoin de savoir ce qui se passe dans les laboratoires de recherche et les entreprises qui travaillent sur les systèmes d'IA dans leur pays. Le groupe estime que les gouvernements ont besoin d'un moyen de communication sur les risques qui n'oblige pas les entreprises ou les chercheurs spécialisés dans l'IA à partager des informations confidentielles avec leurs concurrents.

    Le lancement du ChatGPT et d'une série d’outils similaires capables de créer du texte et des images en réponse à une invite a montré à quel point les capacités de l'IA progressent rapidement. La course à la commercialisation de la technologie l'a rapidement fait passer des franges de la science aux smartphones, aux voitures et aux salles de classe, et les gouvernements, de Washington à Pékin, ont été contraints de trouver un moyen de la réglementer et de l'exploiter.

    Les chercheurs en IA qui ont signé la déclaration du FAR AI s'inquiètent du fait que la technologie qu'ils ont contribué à créer pourrait causer de graves dommages à l'humanité. Selon Gillian Hadfield, juriste et professeur d'informatique et d'administration à l'université Johns Hopkins, si les systèmes d'IA, où qu'ils soient dans le monde, devaient développer ces capacités aujourd'hui, il n'existe aucun plan pour les maîtriser. Une situation qui pourrait s'avérer dangereuse.

    Hadfield affirme : « si, dans six mois, une catastrophe se produisait et que nous découvrions que des modèles commencent à s'améliorer de manière autonome, qui appellerait-on ? ». Mais leur déclaration est controversée, de nombreux critiques affirmant qu'il est bien trop tôt pour être paranoïaque sur les risques de l'IA. Selon ces derniers, « les outils d'IA actuels ne sont pas du tout intelligents comme leurs créateurs ou les entreprises voudraient bien le faire croire ».

    « Lorsque l'IA pourra réellement surpasser l'homme dans des tâches scientifiques ou techniques, alors nous pourrons discuter de ces risques. L'IA a accès à toutes nos connaissances en physique et en chimie, alors pourquoi ne pourrait-elle pas inventer une batterie de nouvelle génération ou un supraconducteur ? À ce jour, tous les systèmes d'IA dont nous disposons, y compris de pointe, sont stupides », peut-on lire dans les commentaires.

    Une autorité internationale chargée de surveiller les progrès de la technologie

    Le groupe propose que les pays mettent en place des autorités de sécurité de l'IA pour enregistrer les systèmes d'IA sur leur territoire. Ces autorités collaboreraient ensuite pour convenir d'un ensemble de lignes rouges et de signaux d'alerte, par exemple si un programme d'IA peut se copier lui-même ou tromper intentionnellement ses créateurs. Le tout serait ensuite coordonné par un organisme international. Ces réunions sont un rare lieu d'échange entre scientifiques chinois et occidentaux, à un moment où les États-Unis et la Chine sont engagés dans une compétition tendue pour la suprématie technologique.

    L'événement s'est déroulé pendant trois jours à la Casa dei Tre Oci à Venise et s'est concentré sur les mécanismes d'application des lignes rouges relatives au développement de l'IA définies lors de l'événement précédent de l'IDAIS-Beijing. Le groupe a travaillé à l'élaboration de propositions concrètes visant à empêcher la violation de ces lignes rouges et à garantir le développement en toute sécurité de systèmes d'IA avancés. Les chercheurs font trois propositions clés :

    Préparation aux situations d'urgence

    Les experts participants ont souligné la nécessité de se préparer aux risques liés à l'IA avancée qui peuvent émerger à tout moment. Ils ont convenu que des systèmes d'IA très performants seront probablement mis au point au cours des prochaines décennies, et qu'ils pourraient même l'être de manière imminente. Pour répondre à cette préoccupation urgente, ils ont proposé des accords internationaux de préparation aux situations d'urgence.

    Dans le cadre de ces accords, les autorités nationales chargées de la sécurité de l'IA se réuniraient, collaboreraient et s'engageraient à mettre en œuvre l'enregistrement et la divulgation des modèles, le signalement des incidents, les fils-pièges et les plans d'urgence. Cette proposition reconnaît que des risques importants liés à l'IA avancée peuvent émerger rapidement et de manière inattendue, ce qui nécessite une réponse mondiale coordonnée.

    Assurance de la sécurité

    Pour veiller à ce que les lignes rouges convenues ne soient pas franchies, la déclaration préconise un cadre global d'assurance de la sécurité. Dans ce cadre, les autorités nationales chargées de la sécurité de l'IA devraient exiger des développeurs qu'ils présentent des cas de sécurité très fiables avant de déployer des modèles dont les capacités dépassent les seuils spécifiés. Elle ajoute que les modèles doivent être également surveillés une fois déployés.

    Elle précise : « la surveillance post-déploiement devrait aussi être un élément clé de l'assurance des systèmes d'IA hautement performants à mesure qu'ils sont adoptés à plus grande échelle. Il est important que ces garanties de sécurité fassent l'objet d'audits indépendants, afin d'ajouter un niveau supplémentaire d'examen et de responsabilité au processus ».

    Recherche sur la sécurité et la vérification

    Les participants ont souligné que la communauté des chercheurs devait mettre au point des techniques permettant aux États de vérifier rigoureusement la véracité et la validité des affirmations relatives à la sécurité de l'IA formulées par les développeurs et, éventuellement, par d'autres États. Pour garantir l'indépendance et la crédibilité de cette recherche, ils soulignent qu'elle devrait être menée à l'échelle mondiale et financée par un large éventail de gouvernements et de philanthropes. L'approche vise à créer un cadre solide et impartial pour évaluer et valider les mesures de sécurité de l'IA à l'échelle internationale.

    Les efforts précédents en cours visant à assurer la sécurité des systèmes d'IA

    OpenAI et d'autres entreprises américaines dominent largement la course à l'IA. Mais elles sont progressivement rattrapées par les entreprises européennes et chinoises. Ces derniers mois, des entreprises chinoises ont dévoilé des technologies qui rivalisent avec les principaux systèmes américains d'IA. Kling, un modèle d’IA chinois de création de vidéos, a fait surface cet été et donné lieu à des comparaisons avec Sora, le modèle équivalent développé par OpenAI. Tout comme son rival Sora, Kling intègre la liste d’outils susceptibles de créer des bouleversements dans l'industrie cinématographique à l'avenir.

    En Europe, les modèles open source de la startup d'IA française Mistral AI suscitent fortement l'attention. Il y a quelques jours, Mistral a lancé son premier modèle multimodal appelé Pixtral 12B. Ce modèle de 12 milliards de paramètres est capable de traiter à la fois des images et du texte, et utilise son modèle textuel Nemo 12B. Il devrait en théorie être capable d'effectuer des tâches telles que légender des images et compter le nombre d'objets sur une photo.

    Au cours de l'année écoulée, les responsables gouvernementaux chinois et américains ont fait de l'IA une priorité. En juillet, un conclave du parti communiste chinois a appelé à la mise en place d'un système de régulation de la sécurité de l'IA. En janvier, les médias locaux ont rapporté que le pays a approuvé plus de 40 modèles d'IA à usage public au cours des six premiers mois depuis que les autorités ont entamé le processus d'approbation des modèles.

    Au début du mois, un groupe de normalisation technique influent en Chine a publié un cadre de sécurité pour l'IA. De l'autre côté du Pacifique, le président américain Joe Biden a signé en octobre dernier un décret exigeant des entreprises qu'elles fassent rapport au gouvernement fédéral sur les risques que leurs systèmes d'IA pourraient présenter, comme leur capacité à créer des armes de destruction massive ou leur potentiel à être utilisés par des terroristes.

    Lors de leur rencontre l'année dernière, le président Biden et le dirigeant chinois, Xi Jinping, ont convenu que les responsables des deux pays devraient organiser des discussions sur la sécurité de l'IA. La première réunion a eu lieu à Genève en mai. Dans le cadre d'une initiative gouvernementale plus large, des représentants de 28 pays ont signé une déclaration en Grande-Bretagne en novembre dernier, acceptant de coopérer pour évaluer les risques de l'IA.

    Ils se sont à nouveau réunis à Séoul en mai, mais ces rencontres n'ont pas permis de fixer des objectifs politiques spécifiques. Selon les analystes, la méfiance entre les États-Unis et la Chine ajoute à la difficulté de parvenir à un alignement. Dans le même temps, les États-Unis tentent d'empêcher la Chine d'accéder aux puces d'IA de pointe pour développer sa technologie. Les restrictions américaines compliquent également la coopération entre les deux pays.

    Source : FAIR AI

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des propositions faites par le groupe de scientifiques pour assurer la sécurité de l'IA ?
    Les chercheurs affirment que l'IA pourrait causer de graves dommages à l'humanité à l'avenir. Qu'en pensez-vous ?

    Voir aussi

    Kling, un nouvelle modèle d'IA chinois de création de vidéos, fait l'objet de comparaisons avec Sora d'OpenAI et vient allonger la liste d'outils d'IA susceptibles de bouleverser la filière du cinéma

    « L'IA pourrait provoquer l'effondrement de l'ordre social et déclencher des guerres », affirment deux grandes entreprises japonaises qui craignent "les outils d'IA qui mentent en toute confiance"

    Des dizaines de travailleurs de la filière IA se retournent contre leurs patrons et signent une lettre de soutien au projet de loi californien sur l'IA, susceptible de freiner les géants technologiques

  8. #128
    Invité
    Invité(e)
    Par défaut
    Pour veiller à ce que les lignes rouges convenues ne soient pas franchies, la déclaration préconise un cadre global d'assurance de la sécurité. Dans ce cadre, les autorités nationales chargées de la sécurité de l'IA devraient exiger des développeurs qu'ils présentent des cas de sécurité très fiables avant de déployer des modèles dont les capacités dépassent les seuils spécifiés.
    Un très gros interrupteur.
    Comment fait-on, au fait, pour stopper un flux stellaire ? Nous Quittons les échelles et entrons dans les magnitudes.

  9. #129
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 178
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 178
    Par défaut Le créateur de la vidéo parodique de Kamala Harris poursuit la Californie en raison de la loi "deepfake"
    Le créateur de la vidéo parodique de Kamala Harris poursuit la Californie en raison de la loi "deepfake", après l'interdiction de sa parodie de la vice-présidente Kamala Harris.

    Le créateur de la vidéo parodique de Kamala Harris poursuit la Californie en raison de la loi "deepfake", après l'interdiction de sa parodie de la vice-présidente Kamala Harris affirmant qu'elle était "l'ultime candidate pour la diversité". Il a déclaré avoir le "droit constitutionnel absolu de tourner en dérision les hommes politiques dont il pense qu'ils ne devraient pas être élus".

    Un deepfake ou hypertrucage en français est une technique de synthèse d'images basée sur l'intelligence artificielle (IA). Il est utilisé pour combiner et superposer des images et des vidéos existantes afin de les manipuler à l’aide de l’apprentissage automatique. C’est une technologie qui pourrait révolutionner certains secteurs d’activité, mais entre les mains des personnes malveillantes, elle représente un danger.

    Différentes lois ont été votées pour réguler la technologie, mais les avis sont partagés. Récemment, un créateur de vidéo a poursuivi l'État de Californie pour une nouvelle loi qui interdit l'utilisation de "deepfake". Il avait publié une vidéo "deepfake" parodique de la vice-présidente Kamala Harris où elle disait qu'elle était "l'ultime candidate pour la diversité". La vidéo a été interdite à cause de la loi sur l'IA.


    La loi sur l'IA en Californie suscite des avis partagés

    En octobre 2019, l’État de Californie des États-Unis avait voté deux nouvelles lois pour lutter contre les deepfakes. Les deux lois, AB 730 et AB 602, cible des situations bien déterminées où les deepfakes sont les plus courants. La première loi rend illégale la diffusion de toute vidéo manipulée qui pourrait discréditer un candidat dans les 60 jours avant une élection et l'autre permettra aux résidents de poursuivre en justice quiconque met leur image dans du porno sans leur approbation.

    Puis en août 2024, un autre projet de loi sur l'IA a été adopté en Californie par l'assemblée législative. Le projet de loi, connu sous le nom de "Safe and Secure Innovation for Frontier Artificial Intelligence Models Act", propose des mesures strictes pour garantir la sécurité des modèles d’IA avancés. Le projet de loi imposerait davantage de responsabilités, notamment des tests de sécurité et la mise en œuvre de mesures de protection. Les entreprises doivent également accepter de se soumettre à des audits par des tiers.

    Mais le projet de loi a déclenché diverses réactions. Les entreprises technologiques, notamment Google, Meta et OpenAI, s'y opposent largement, arguant qu'il pourrait freiner l'innovation. Le directeur de la stratégie d'OpenAI avait notamment déclaré que le projet de loi pourrait "ralentir le rythme de l'innovation et inciter les ingénieurs et les entrepreneurs californiens de classe mondiale à quitter l'État à la recherche de meilleures opportunités ailleurs".

    Elon Musk, propriétaire de la startup d'IA xAI, s'est prononcé en faveur du projet de loi, en déclarant que "tout bien considéré, je pense que la Californie devrait probablement adopter le projet de loi SB 1047 sur la sécurité de l'IA... je plaide en faveur d'une réglementation de l'IA." Pourtant, il avait partagé une vidéo manipulée imitant la voix de la vice-présidente des États-Unis Kamala Harris, sans indiquer explicitement qu'il s'agissait à l'origine d'une parodie. La vidéo reprenait d'anciens clips authentiques de Mme Harris, mais des experts ont confirmé qu'une grande partie de la voix a été générée par l'IA.


    Le créateur de la vidéo parodique de Kamala Harris poursuit la Californie pour la loi sur les "deepfakes"

    Christopher Kohls, créateur de la vidéo parodique de Kamala Harris, affirme que ses droits au premier et au quatorzième amendement ont été violés lorsque le gouverneur Gavin Newsom a promulgué la loi contre le "deepfake". Il affirme que la loi a effectivement interdit sa vidéo sur Mme Harris, qui avait suscité la controverse depuis qu'il l'avait postée pour la première fois au cours de l'été.

    Le premier message de M. Kohl qualifiait la vidéo de "parodie d'annonce de campagne", ce qui la protégeait en vertu de la précédente loi californienne. Il affirme que la nouvelle loi exige une nouvelle taille de police pour l'étiquetage, qui remplirait tout l'écran de sa vidéo. Dans les documents de procédure, il a déclaré avoir le "droit constitutionnel absolu de tourner en dérision les hommes politiques dont il pense qu'ils ne devraient pas être élus".

    Kohls, qui se fait appeler Mr Reagan sur X, a fait visionner la vidéo de Harris 135 millions de fois depuis qu'elle a été partagée par Elon Musk. Mais quand Musk a reposté la vidéo, il n'a pas précisé qu'il s'agissait d'une parodie, ce qui a suscité l'ire des partisans de M. Harris dans tout le pays, y compris de M. Newsom, qui a promis d'interdire ce type de vidéos.

    "Le fait de leur demander d'utiliser le mot "parodie" sur la vidéo elle-même évite d'induire le public en erreur lorsque la vidéo est partagée sur la plateforme", a déclaré Izzy Gardon, porte-parole de M. Newsom. "La raison pour laquelle cet activiste conservateur poursuit la Californie n'est pas claire. Cette nouvelle loi sur la divulgation des fausses informations électorales n'est pas plus onéreuse que les lois déjà adoptées dans d'autres États, y compris l'Alabama."

    Et vous ?

    Pensez-vous que cette plainte est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Un expert en IA « complètement terrifié » par les élections américaines de 2024, qui s'annoncent comme un « tsunami de désinformation » avec l'avènement des deepfakes et les IA génératives

    Les "deepfakes" politiques représentent l'utilisation abusive la plus populaire de l'IA : Sa faible technicité et son accessibilité ont accru l'utilisation malveillante de l'IA générative, selon DeepMind

    Microsoft veut que le Congrès interdise les fraudes par deepfake générées par l'IA, avec une "loi sur la fraude par deepfake" qui donnera aux autorités un cadre juridique pour poursuivre les fraudes par l'IA
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  10. #130
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 178
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 178
    Par défaut Des artistes exhortent le gouverneur Newsom à signer un projet de loi sur la sécurité de l'IA
    Mark Hamill, Jane Fonda et J.J. Abrams exhortent le gouverneur Newsom à signer un projet de loi sur la sécurité de l'IA pour des mesures de protection contre une catastrophe provoquée par l'IA.

    Plus de 125 acteurs, réalisateurs, producteurs, artistes musicaux et leaders de l'industrie du divertissement d'Hollywood ont signé une lettre pour exhorter le gouverneur Gavin Newsom à signer le projet de loi sur la sécurité de l'IA. Le projet de loi tiendrait les développeurs de modèles d'IA responsables en cas de catastrophe provoquée par l'IA. Le gouverneur Gavin Newsom a jusqu'au 30 septembre pour prendre une décision sur le projet de loi.

    Un projet de loi en Californie, visant à réguler le développement des modèles d’intelligence artificielle (IA), a déclenché une vive controverse à Silicon Valley. Le projet de loi propose des mesures strictes pour garantir la sécurité des modèles d’IA avancés. Le projet de loi imposerait davantage de responsabilités aux entreprises, notamment des tests de sécurité et la mise en œuvre de mesures de protection. Fin août 2024, les législateurs californiens ont adopté ce projet de loi très controversé sur la sécurité de l'IA, puis le gouverneur Gavin Newsom a jusqu'au 30 septembre pour décider de le promulguer ou d'y opposer son veto.

    Mark Hamill, Jane Fonda, J.J. Abrams ont demandé au gouverneur Gavin Newsom de signer le projet de loi sur la sécurité de l'IA dans une lettre publiée le 24 septembre 2024. Plus de 125 acteurs, réalisateurs, producteurs, artistes musicaux et leaders de l'industrie du divertissement d'Hollywood ont ajouté leur nom à la lettre pour exhorter le gouverneur Gavin Newsom à signer le projet de loi.

    Parmi les signataires de la lettre figurent le co-créateur de "Lost", J.J. Abrams, la productrice exécutive de "Bridgerton", Shonda Rhimes, le réalisateur de "The 40 Year-Old Virgin", Judd Apatow, la créatrice de "When They See Us", Ava DuVernay, les acteurs Mark Hamill, Jane Fonda, Mahershala Ali, Ramy Youssef, Alec Baldwin, Pedro Pascal, Connie Britton, Mark Ruffalo, Sean Astin et Joseph Gordon-Levitt, ainsi que l'auteur-compositeur-interprète Diane Warren. Les dirigeants de SAG-AFTRA, dont la présidente Fran Drescher et le directeur exécutif national et négociateur en chef Duncan Crabtree-Ireland, ont également signé.

    "Les graves menaces que fait peser l'IA relevaient autrefois de la science-fiction, mais ce n'est plus le cas aujourd'hui", peut-on lire dans la lettre. "Même si les milliardaires qui s'opposent à la loi SB 1047 considèrent ces inquiétudes comme fantaisistes, de nombreux ingénieurs, universitaires et responsables politiques de premier plan de l'industrie affirment le contraire."

    Nom : 1.jpg
Affichages : 4114
Taille : 27,2 Ko

    Voici la lettre des artistes adressée au gouverneur Gavin Newsom :

    Cher Gouverneur Newsom,

    Comme vous le savez, certaines des entreprises les plus lucratives et les plus puissantes du monde font actuellement la course pour dominer l'énorme opportunité commerciale connue sous le nom d'IA. Bon nombre de ces entreprises sont basées dans votre État d'origine, la Californie.

    La semaine dernière, vous avez signé deux projets de loi qui contribueront à protéger les droits et les moyens de subsistance des artistes contre diverses utilisations contraires à l'éthique de l'IA par ces grandes entreprises technologiques. Nous vous en sommes sincèrement reconnaissants.

    Mais il y a maintenant un autre projet de loi qui attend de toute urgence votre signature et qui réglementerait l'IA : le projet de loi SB 1047 du sénateur Wiener. Ce projet de loi ne vise pas à protéger les artistes, mais à protéger tout le monde.

    Les graves menaces que fait peser l'IA relevaient autrefois de la science-fiction, mais ce n'est plus le cas aujourd'hui. Même si les milliardaires qui s'opposent au projet de loi SB 1047 considèrent ces inquiétudes comme fantaisistes, de nombreux ingénieurs, universitaires et responsables politiques de premier plan du secteur affirment le contraire. Dans une récente lettre ouverte en faveur de la loi SB 1047, plus d'une centaine d'employés actuels et anciens d'OpenAI, de Google DeepMind, d'Anthropic, de Meta et de xAI ont déclaré :

    « Nous pensons que les modèles d'IA les plus puissants pourraient bientôt présenter des risques graves, tels qu'un accès élargi aux armes biologiques et des cyberattaques sur les infrastructures critiques. Il est possible et approprié pour les entreprises d'IA pionnières de tester si les modèles d'IA les plus puissants peuvent causer des dommages graves, et pour ces entreprises de mettre en œuvre des mesures de protection raisonnables contre ces risques ».

    Le projet de loi SB 1047 mettrait en œuvre les mesures de protection demandées par les initiés de l'industrie. Le projet de loi a été adopté à une majorité écrasante par le Sénat et l'Assemblée de l'État de Californie. Les sondages montrent que 77 % des Californiens l'approuvent. Pourquoi le gouverneur ne la signerait-il pas ?

    Gouverneur Newsom, la plupart d'entre nous résident en Californie. Nous vous soutenons. Nous avons voté pour vous. Nous voulons continuer à croire que vous êtes un dirigeant qui défendra le bien-être de tous, et pas seulement celui de quelques géants de la Silicon Valley.

    Nous croyons fermement au potentiel éblouissant de l'IA, qui peut être utilisé à bon escient. Mais nous devons aussi être réalistes quant aux risques. Le moment est venu, Monsieur le Gouverneur, pour la Californie de donner cet exemple pratique et positif à tous les États-Unis, ainsi qu'au reste du monde.

    Le projet de loi, présenté par le sénateur Scott Wiener (D-San Francisco) et adopté par l'assemblée législative, obligerait les développeurs de modèles d'IA à partager leurs plans de sécurité avec le procureur général de Californie, qui pourrait les tenir pour responsables si les modèles d'IA qu'ils contrôlent directement causaient des dommages ou constituaient une menace imminente pour la sécurité publique. Les développeurs devraient également disposer d'un moyen d'arrêter ces modèles d'IA en cas de problème.

    Le projet de loi a fait l'objet de vifs débats en Californie et est contesté par des entreprises technologiques telles que Meta, la société mère de Facebook, et OpenAI, le créateur de ChatGPT, ainsi que par le groupe technologique Chamber of Progress, qui a publié une chanson rock générée par l'IA sur le projet de loi, avec des paroles telles que "veto the chains that hold us down" (mettez votre veto sur les chaînes qui nous retiennent).

    Les leaders démocrates du Congrès, dont l'ancienne présidente de la Chambre des représentants Nancy Pelosi, les députés Ro Khanna (D-Fremont) et Zoe Lofgren (D-San José), ont également demandé à Gavin Newsom d'opposer son veto au projet de loi. Ils affirment que la législation pourrait étouffer l'innovation et citent les efforts déployés par le Congrès dans le domaine de l'IA.

    Le projet de loi 1047 du Sénat est soutenu par le Center for AI Safety, par certains éminents chercheurs en IA et par Elon Musk, directeur général de Tesla. Plus de 100 employés actuels et anciens d'entreprises liées à l'IA, dont OpenAI, Google DeepMind et Meta, ont signé une lettre de soutien au projet de loi SB 1047. Les partisans du projet de loi estiment que, le Congrès étant généralement plus lent à réglementer les technologies, la Californie devrait prendre les devants.

    "Dans la Silicon Valley, on aime à dire qu'il faut aller vite et casser les choses", a déclaré Gordon-Levitt dans un communiqué. Mais avec des technologies aussi puissantes, il faudrait peut-être dire "Allez aussi vite que possible tout en faisant attention à ne rien casser".

    Le gouverneur Gavin Newsom a jusqu'au 30 septembre pour prendre une décision sur le projet de loi. Mais il a déclaré qu'il n'avait pas encore pris sa décision sur le SB 1047. "Il s'agit d'un de ces projets de loi qui passent rarement sur le bureau, et dont l'adoption dépend de la force de persuasion de la dernière personne à avoir téléphoné", a déclaré Gavin Newsom. "Il a divisé tant de gens."

    Les avertissements concernant le potentiel de l'IA ne sont pas récents. En 2019, Elon Musk avait déjà déclaré que " l"IA est plus dangereuse que les ogives nucléaires" et il devrait exister un organisme de réglementation supervisant le développement de cette technologie. Il ajoutait : "Je ne suis pas normalement un partisan de la réglementation et de la surveillance .. mais il s’agit d’une situation où le public court un très grave danger". Bill Gates, cofondateur de Microsoft, confirmait également que l'IA est comme l’énergie nucléaire : une technologie "à la fois porteuse d’espoir et dangereuse".


    Source : Lettre des artistes adressée au gouverneur Newsom

    Et vous ?

    Pensez-vous que cette lettre est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Le projet de loi californien sur l'IA menace-t-il l'innovation ou protège-t-il la société ? Google, Meta et OpenAI s'y opposent, arguant qu'il pourrait freiner l'innovation, tandis qu'Elon Musk le soutient

    L'ONU veut traiter l'IA avec la même urgence que le changement climatique : l'organisme voudrait instaurer une gouvernance mondiale de l'IA pour en maximiser les avantages tout en minimisant les risques

    Les grandes enseignes Tech cherchent à affaiblir la loi européenne sur l'IA, arguant que des exigences trop lourdes en matière de transparence pourraient ralentir le développement de nouvelles technologies
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  11. #131
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 178
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 178
    Par défaut Le gouverneur de Californie signe 9 projets de loi réglementant les contenus générés par l'IA
    Le gouverneur de Californie signe 9 projets de loi réglementant les contenus générés par l'IA pour répondre aux risques liés aux "deepfakes", malgré que les Big tech de l'IA y voient un frein à l'innovation

    Le gouverneur de Californie a signé 9 projets de loi réglementant les contenus générés par l'IA, pour répondre aux risques liés aux "deepfakes". Deux projets de loi concernent les acteurs et les interprètes, trois projets de loi visent à lutter contre l'utilisation abusive de contenus générés par l'IA et quatre projets de loi visent à règlementer l'utilisation de l'IA dans les campagnes électorales. Mais les Big tech de l'IA critiquent le projet de loi pour la régulation de l'IA, y voyant un frein à l'innovation.

    Ce mois de septembre 2024 a été particulièrement animé par le débat autour de la règlementation de l'intelligence artificielle (IA) en Californie aux États-Unis. Fin août, le projet de loi controversé sur l'IA a été adopté par l'Assemblée législative. Le gouverneur californien Gavin Newsom avait jusqu'au 30 septembre pour décider de le promulguer ou d'y opposer son veto.

    Le projet de loi, connu sous le nom de "Safe and Secure Innovation for Frontier Artificial Intelligence Models Act", propose des mesures strictes pour garantir la sécurité des modèles d’IA avancés. Le projet de loi imposerait davantage de responsabilités, notamment des tests de sécurité et la mise en œuvre de mesures de protection. Les entreprises doivent également accepter de se soumettre à des audits par des tiers.

    Parmi les partisans de la règlementation de l'IA, plus de 125 acteurs, réalisateurs, producteurs, artistes musicaux et leaders de l'industrie du divertissement d'Hollywood ont signé une lettre pour exhorter le gouverneur Gavin Newsom à signer le projet de loi. De l'autre côté, les Big tech comme Google, OpenAI ou Meta, s'y opposent, arguant que le projet de loi pourrait freiner l'innovation. Ils ont également adressé des lettres exprimant leurs préoccupations.

    La décision tant attendue du gouvernement de Californie vient de tomber le 26 septembre 2024. Le gouverneur Gavin Newsom a signé 9 projets de loi réglementant les contenus générés par l'IA. La législation vise à répondre aux risques liés aux "deepfakes".


    Le gouverneur de Californie, Gavin Newsom, a signé neuf projets de loi visant à lutter contre les risques liés aux contenus générés par l'IA, en particulier les "deepfakes". Vingt-neuf autres textes législatifs relatifs à l'IA attendent sa signature ou son veto avant la fin de la session législative de l'État, le 30 septembre.

    Parmi les textes législatifs qu'il a récemment signés figurent deux projets de loi visant à protéger l'image numérique des acteurs et des interprètes - vivants ou décédés - contre toute utilisation non autorisée de l'IA et d'autres technologies numériques :

    • L'AB 2602 exige des contrats pour l'utilisation d'imitations profondes de la voix ou de l'image d'un artiste générées par l'IA, et l'artiste doit être représenté professionnellement lors de la négociation du contrat.
    • L'AB 1836 interdit l'utilisation commerciale de copies profondes d'artistes-interprètes décédés dans des films, des émissions de télévision, des jeux vidéo, des livres audio, des enregistrements sonores et d'autres médias sans le consentement des ayants droit de l'artiste-interprète.

    Trois projets de loi visent à lutter contre l'utilisation abusive de contenus générés par l'IA, notamment les "deepfakes" à caractère sexuel :

    • Le projet de loi SB 926 criminalise la création et la distribution d'images sexuellement explicites d'une personne réelle qui semblent authentiques lorsqu'elles sont destinées à causer une détresse émotionnelle.
    • Le SB 981 exige que les plateformes de médias sociaux créent un mécanisme permettant aux gens de signaler les deepfakes sexuellement explicites d'eux-mêmes. Une fois le signalement effectué, la plateforme doit bloquer temporairement le matériel pendant qu'elle enquête et le supprimer définitivement s'il est confirmé.
    • Le SB 942 exige que les systèmes d'IA générative placent des filigranes invisibles sur le contenu qu'ils produisent et fournissent des outils gratuits pour les détecter afin que le contenu généré par l'IA puisse être facilement identifié.

    Quatre projets de loi visent à lutter contre l'utilisation de deepfakes et d'autres contenus trompeurs générés ou modifiés numériquement dans les campagnes électorales.

    • L'AB 2655 exige des grandes plateformes en ligne qu'elles retirent ou étiquettent les contenus politiques trompeurs ou modifiés numériquement pendant des périodes précises autour des élections et qu'elles fournissent des moyens de les signaler.
    • L'AB 2839 étend la période pendant laquelle il est interdit aux entités politiques de distribuer sciemment une publicité ou tout autre matériel électoral contenant un contenu trompeur généré par l'IA.
    • L'AB 2355 exige que les publicités politiques utilisant un contenu généré par l'IA révèlent que le matériel a été modifié.
    • L'AB 2905 exige que les robocalls informent les destinataires si la voix est générée artificiellement.

    Le gouverneur Gavin Newsom a commenté cette annonce :

    Nous continuons à avancer en terrain inconnu lorsqu'il s'agit de savoir comment l'IA et les médias numériques transforment l'industrie du divertissement, mais notre étoile polaire a toujours été la protection des travailleurs. Cette législation permet à l'industrie de continuer à prospérer tout en renforçant les protections des travailleurs et la manière dont leur image peut ou ne peut pas être utilisée.

    Personne ne devrait être menacé par quelqu'un sur Internet qui pourrait l'imiter, en particulier de manière sexuellement explicite. Nous sommes à une époque où les outils numériques tels que l'IA ont d'immenses capacités, mais ils peuvent aussi être utilisés de manière abusive contre d'autres personnes. Nous prenons des mesures pour protéger les Californiens.

    La sauvegarde de l'intégrité des élections est essentielle à la démocratie, et il est primordial de veiller à ce que l'IA ne soit pas déployée pour miner la confiance du public par la désinformation, en particulier dans le climat politique actuel. Ces mesures permettront de lutter contre l'utilisation néfaste des deepfakes dans les publicités politiques et d'autres contenus. Il s'agit de l'un des nombreux domaines dans lesquels l'État agit de manière proactive pour favoriser une IA transparente et digne de confiance.
    Nom : 1.jpg
Affichages : 6154
Taille : 48,2 Ko

    Le texte le plus controversé est le SB 1047, qui oblige les développeurs d'IA à mettre en œuvre des mesures de protection pour réduire le risque que leur technologie provoque ou permette une catastrophe, telle qu'un événement impliquant un grand nombre de victimes ou une cyberattaque. Jusqu'à présent, Gavin Newsom s'est montré timide quant à ses projets concernant ce projet de loi.

    Le projet de loi sur la sécurité de l'IA, SB 1047, imposerait davantage de responsabilités à tout développeur dépensant plus de 100 millions de dollars pour construire un modèle d'IA. Les exigences comprennent des tests de sécurité, la mise en œuvre de mesures de protection et la possibilité pour le procureur général de l'État de prendre des mesures à l'encontre du développeur de tout modèle d'IA qui cause un "préjudice grave", tel que des pertes massives ou des incidents entraînant des dommages d'une valeur de 500 millions de dollars ou plus.

    Si la nécessité de limiter les risques liés aux nouveaux modèles d'IA puissants est largement admise, les critiques ont fait valoir que les propositions étoufferaient les start-ups, profiteraient aux rivaux américains et compromettraient la position centrale de la Californie dans l'essor de l'IA. Jason Kwon, directeur de la stratégie d'OpenAI, avait déclaré que le projet de loi SB 1047 menace "le statut unique de la Californie en tant que leader mondial de l'intelligence artificielle". Il ajoute que cela pourrait "ralentir le rythme de l'innovation et inciter les ingénieurs et les entrepreneurs californiens de classe mondiale à quitter l'État à la recherche de meilleures opportunités ailleurs".

    Dans une déclaration concernant le veto sur SB 1047, Newsom a déclaré : « Bien que bien intentionné, le SB 1047 ne prend pas en compte si un système d’IA est déployé dans des environnements à haut risque, implique une prise de décision critique ou l’utilisation de données sensibles. Au lieu de cela, le projet de loi applique des normes strictes même aux fonctions les plus élémentaires, à condition qu'un grand système les déploie. Je ne pense pas que ce soit la meilleure approche pour protéger le public des menaces réelles posées par la technologie.»


    Source : Legislature de Californie

    Et vous ?

    Quel est votre avis sur le sujet ?
    Pensez-vous que ces projets de loi sont crédibles ou pertinents ?

    Voir aussi :

    AI Act : les nouvelles règles européennes en matière d'intelligence artificielle entrent en vigueur. L'objectif déclaré est d'encourager le développement et l'adoption de systèmes IA sûrs et fiables en UE

    Les Big Tech (GAFAM) veulent réglementer l'IA, mais les autres entrepreneurs sont sceptiques, selon eux leur réelle volonté serait juste de geler le marché de l'IA pour conserver leur monopole

    Le Sénat US présente un projet de loi visant à établir un cadre juridique pour le développement éthique de l'IA et ravive le débat sur la possibilité de frein à l'innovation telle que soulignée par Macron
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  12. #132
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 557
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 557
    Par défaut Le gouverneur de Californie oppose son veto à un projet de loi controversé sur la sécurité de l'IA
    Le gouverneur de Californie oppose son veto à un projet de loi controversé sur la sécurité de l'IA, Gavin Newsom souhaite des règles plus complètes pour le projet de loi auquel s'opposent Google, OpenAI et Meta

    Le gouverneur de Californie, Gavin Newsom, a opposé le dimanche 29 septembre 2024 son veto à un projet de loi très contesté sur la sécurité de l'intelligence artificielle (IA), après que l'industrie technologique eut soulevé des objections, estimant que ce projet de loi pourrait pousser les entreprises d'intelligence artificielle à quitter l'État et entraver l'innovation.

    Pour rappel, le gouverneur de Californie a précédemment signé 9 projets de loi réglementant les contenus générés par l'IA, pour répondre aux risques liés aux "deepfakes". Deux projets de loi parmi les neuf concernent les acteurs et les interprètes, trois projets de loi visent à lutter contre l'utilisation abusive de contenus générés par l'IA et quatre projets de loi visent à réglementer l'utilisation de l'IA dans les campagnes électorales. Mais les Big tech de l'IA critiquent le projet de loi pour la régulation de l'IA, y voyant un frein à l'innovation.

    Gavin Newsom a déclaré qu'il avait demandé à d'éminents experts en IA générative d'aider la Californie à « élaborer des garde-fous réalisables » qui se concentrent « sur le développement d'une analyse empirique et scientifique de la trajectoire ». Il a également ordonné aux agences de l'État d'élargir leur évaluation des risques d'événements catastrophiques potentiels liés à l'utilisation de l'IA.

    L'IA générative - qui peut créer du texte, des photos et des vidéos en réponse à des questions ouvertes - a suscité de l'enthousiasme, mais aussi des craintes qu'elle ne rende certains emplois obsolètes, qu'elle ne bouleverse les élections, qu'elle ne prenne le dessus sur les humains et qu'elle n'ait des effets catastrophiques.


    L'auteur du projet de loi, le sénateur démocrate Scott Wiener, a déclaré qu'une législation était nécessaire pour protéger le public avant que les progrès de l'IA ne deviennent difficiles à gérer ou incontrôlables. L'industrie de l'IA se développe rapidement en Californie et certains dirigeants s'interrogent sur l'avenir de ces entreprises dans l'État si le projet de loi est adopté.

    Scott Wiener a déclaré le dimanche 29 septembre que le veto rendait la Californie moins sûre et signifiait que « les entreprises visant à créer une technologie extrêmement puissante ne sont soumises à aucune restriction contraignante ». Il a ajouté que « les engagements volontaires de l'industrie ne sont pas applicables et sont rarement bénéfiques pour le public ».

    « Nous ne pouvons pas nous permettre d'attendre qu'une catastrophe majeure se produise avant de prendre des mesures pour protéger le public », a déclaré Gavin Newsom, tout en ajoutant qu'il n'était pas d'accord avec le fait que « nous devions nous contenter d'une solution qui n'est pas fondée sur une analyse empirique de la trajectoire des systèmes et des capacités de l'IA ».

    Gavin Newsom a déclaré qu'il travaillerait avec le corps législatif sur une législation relative à l'IA lors de la prochaine session. Cette déclaration intervient alors que la législation du Congrès américain visant à mettre en place des garde-fous est au point mort et que l'administration Biden avance des propositions de contrôle réglementaire de l'IA.

    Gavin Newsom a déclaré qu'« une approche californienne uniquement pourrait bien être justifiée - en particulier en l'absence d'une action fédérale du Congrès ».

    La Chamber of Progress, une coalition de l'industrie technologique, a salué le veto de Gavin Newsom en déclarant que « l'économie technologique californienne a toujours prospéré grâce à la concurrence et à l'ouverture ».

    La mesure aurait notamment imposé des tests de sécurité pour bon nombre des modèles d'IA les plus avancés, dont le développement coûte plus de 100 millions de dollars ou qui requièrent une puissance de calcul définie. Les développeurs de logiciels d'IA opérant dans l'État auraient également dû présenter des méthodes permettant de désactiver les modèles d'IA, ce qui aurait constitué un véritable « kill switch » (interrupteur d'arrêt).

    Le projet de loi prévoit la création d'une entité publique chargée de superviser le développement des « modèles frontières », qui dépassent les capacités des modèles existants les plus avancés.

    Nom : gavin-newsom.jpg
Affichages : 4294
Taille : 62,6 Ko

    Le projet de loi s'est heurté à une forte opposition de la part d'un large éventail de groupes. Google (Alphabet), OpenAI (soutenu par Microsoft) et Meta Platforms, qui développent tous des modèles d'IA générative, ont exprimé leurs inquiétudes quant à la proposition.

    Certains démocrates du Congrès américain, dont la représentante Nancy Pelosi, s'y sont également opposés. Parmi les partisans de la proposition, on trouve le PDG de Tesla, Elon Musk, qui dirige également une entreprise d'IA appelée xAI. Anthropic, soutenue par Amazon, a déclaré que les avantages du projet de loi l'emportaient probablement sur les coûts, tout en ajoutant que certains aspects semblaient encore préoccupants ou ambigus.

    Gavin Newsom a signé séparément une loi obligeant l'État à évaluer les menaces potentielles que l'IA générative fait peser sur les infrastructures essentielles de la Californie.

    L'État analyse les risques liés aux infrastructures énergétiques et a déjà réuni les fournisseurs du secteur de l'électricité. Il entreprendra la même évaluation des risques avec les fournisseurs d'infrastructures hydrauliques au cours de l'année à venir et, plus tard, avec le secteur des communications, a déclaré M. Gavin Newsom.

    La déclaration du gouverneur Gavin Newsom à l'intention des membres du Sénat de l'Etat de Californie est présentée ci-dessous :

    Aux membres du Sénat de l'État de Californie :
    Je renvoie le projet de loi 1047 du Sénat sans ma signature.

    Ce projet de loi obligerait les développeurs de grands modèles d'intelligence artificielle (IA), et ceux qui fournissent la puissance de calcul nécessaire à l'entraînement de ces modèles, à mettre en place certaines garanties et politiques afin de prévenir les dommages catastrophiques. Le projet de loi prévoit également la création d'un conseil des modèles frontières (Board of Frontier Models), une entité publique, chargée de superviser le développement de ces modèles.

    La Californie abrite 32 des 50 plus grandes entreprises mondiales d'lA, pionnières de l'une des avancées technologiques les plus importantes de l'histoire moderne. Nous sommes leaders dans ce domaine grâce à nos institutions de recherche et d'éducation, à notre main-d'œuvre diversifiée et motivée, et à notre culture de la liberté intellectuelle. En tant que gardiens et innovateurs de l'avenir, je prends au sérieux la responsabilité de réglementer cette industrie.

    Cette année, la législature m'a transmis plusieurs propositions réfléchies visant à réglementer les entreprises d'lA en réponse aux risques actuels qui évoluent rapidement, notamment les menaces pour notre processus démocratique, la propagation de la désinformation et des « deepfakes », les risques pour la vie privée en ligne, les menaces pour les infrastructures critiques et les perturbations dans la main-d'œuvre. Ces projets de loi et les actions de mon administration sont guidés par les principes de responsabilité, d'équité et de transparence des systèmes d'IA et du déploiement de la technologie d'IA en Californie.

    Le SB 1047 a amplifié la conversation sur les menaces qui pourraient émerger du déploiement de l'IA. Le débat porte essentiellement sur la question de savoir si le seuil de réglementation doit être basé sur le coût et le nombre de calculs nécessaires à l'élaboration d'un modèle d'IA, ou si nous devons évaluer les risques réels du système indépendamment de ces facteurs. Cette discussion globale a lieu alors que les capacités de l'lA continuent de se développer à un rythme impressionnant. Dans le même temps, les stratégies et les solutions pour faire face au risque de dommages catastrophiques évoluent rapidement.

    En se concentrant uniquement sur les modèles les plus coûteux et les plus importants, le SB 1047 établit un cadre réglementaire qui pourrait donner au public un faux sentiment de sécurité quant au contrôle de cette technologie en évolution rapide. Des modèles plus petits et spécialisés pourraient s'avérer tout aussi dangereux, voire plus, que les modèles visés par le projet de loi SB 1047, au risque de freiner l'innovation même qui alimente les progrès en faveur du bien public.

    La capacité d'adaptation est essentielle dans notre course à la réglementation d'une technologie qui n'en est encore qu'à ses balbutiements. Cela nécessitera un équilibre délicat. Bien que bien intentionné, le projet de loi SB 1047 ne tient pas compte du fait qu'un système d'IA est déployé dans des environnements à haut risque, qu'il implique des prises de décision critiques ou l'utilisation de données sensibles. Au lieu de cela, le projet de loi applique des normes strictes même aux fonctions les plus basiques, pour autant qu'un grand système les déploie. Je ne pense pas qu'il s'agisse là de la meilleure approche pour protéger le public des menaces réelles posées par cette technologie.

    Soyons clairs - je suis d'accord avec l'auteur - nous ne pouvons pas nous permettre d'attendre qu'une catastrophe majeure se produise avant de prendre des mesures pour protéger le public. La Californie n'abandonnera pas ses responsabilités. Des protocoles de sécurité doivent être adoptés. Des garde-fous proactifs doivent être mis en place, et les conséquences sévères pour les mauvais acteurs doivent être claires et applicables. Je ne suis toutefois pas d'accord avec le fait que, pour assurer la sécurité du public, nous devons nous contenter d'une solution qui ne repose pas sur une analyse empirique de la trajectoire des systèmes et des capacités de l'lA. En fin de compte, tout cadre visant à réglementer efficacement l'IA doit suivre l'évolution de la technologie elle-même.

    À ceux qui disent qu'il n'y a pas de problème à résoudre ou que la Californie n'a pas de rôle à jouer dans la réglementation des implications potentielles de cette technologie sur la sécurité nationale, je réponds par la négative. Une approche exclusivement californienne peut être justifiée - en particulier en l'absence d'action fédérale de la part du Congrès - mais elle doit être fondée sur des preuves empiriques et scientifiques. Le U.S. Al Safety Institute, qui dépend du National Institute of Science and Technology, élabore actuellement des orientations sur les risques pour la sécurité nationale, fondées sur des approches factuelles, afin de se prémunir contre les risques démontrables pour la sécurité publique. En vertu d'un décret que j'ai publié en septembre 2023, les agences de mon administration effectuent des analyses de risques sur les menaces et les vulnérabilités potentielles des infrastructures essentielles de la Californie utilisant l'IA. Ce ne sont là que quelques exemples des nombreuses initiatives en cours, menées par des experts, pour informer les décideurs politiques sur les pratiques de gestion des risques liés à l'IA qui sont fondées sur la science et les faits. Ces efforts ont conduit à l'introduction de plus d'une douzaine de projets de loi réglementant les risques spécifiques et connus posés par l'IA, que j'ai signés au cours des 30 derniers jours.

    Je m'engage à travailler avec la législature, les partenaires fédéraux, les experts en technologie, les éthiciens et les universitaires pour trouver la voie à suivre, y compris la législation et la réglementation. Compte tenu des enjeux - protéger contre les menaces réelles sans contrecarrer inutilement la promesse de cette technologie de faire progresser le bien public - nous devons faire les choses correctement.

    Pour ces raisons, je ne peux pas signer ce projet de loi.
    Source : Communiqué du gouverneur Gavin Newsom

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de cette décision du gouverneur Gavin Newsom, trouvez-vous qu'elle est crédible ou pertinente ?

    Voir aussi :

    Le gouverneur de Californie signe 9 projets de loi réglementant les contenus générés par l'IA pour répondre aux risques liés aux "deepfakes", malgré que les Big tech de l'IA y voient un frein à l'innovation

    Une nouvelle loi californienne oblige les magasins numériques à préciser que vous n'achetez pas le contenu, mais juste une licence, afin de lutter contre la "disparition" des achats de contenus numériques

    Le gouverneur de Californie signe une loi visant à protéger les enfants de l'addiction aux médias sociaux, et à interdire aux médias sociaux de fournir des flux addictifs aux enfants sans l'accord des parents
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  13. #133
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 262
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 262
    Par défaut Un juge bloque la nouvelle loi californienne sur l'IA dans l'affaire du deepfake sur Kamala Harris
    Un juge bloque la nouvelle loi californienne sur l'IA dans l'affaire du deepfake mettant en scène Kamala Harris
    ce blocage permet à Elon Musk, son réseau social X et ses alliés d'échapper à des poursuites

    La Californie s'est dotée d'une loi visant à empêcher la diffusion en ligne de deepfakes générés par l'IA et ciblant les candidats politiques à l'approche d'une élection. Mais l'application de la loi vient d'être bloquée par un juge fédéral. Il reconnaît que la crainte des deepfakes peut être justifiée, mais affirme que cette inquiétude ne donne pas aux législateurs une licence débridée pour passer outre la longue tradition de critique, de parodie et de satire protégée par le premier amendement. La décision du juge stipule que la loi californienne entrave l'expression humoristique et étouffe de manière inconstitutionnelle l'échange libre et sans restriction d'idées.

    Un juge fédéral affirme que la loi AB 2839 entrave la liberté d'expression

    La loi californienne AB 2839 vise les personnes qui partagent des deepfakes générés par l'IA en ligne, en particulier si leur message ressemble à celui d'un candidat politique et que l'auteur sait qu'il s'agit d'un faux susceptible de tromper les électeurs. Cette loi est unique, car elle ne s'attaque pas aux plateformes sur lesquelles apparaissent les deepfakes d'IA, mais plutôt à ceux qui les diffusent. La loi permet aux juges californiens d'ordonner aux auteurs de deepfakes générés par l'IA de les retirer sous peine de sanctions pécuniaires. Toutefois, elle suscite une forte opposition et a été attaquée devant les tribunaux.


    Après avoir signé la loi AB 2839, le gouverneur californien Gavin Newsom a suggéré qu'elle pourrait être utilisée pour forcer Elon Musk à retirer un deepfake de la vice-présidente Kamala Harris qu'il avait partagé sur son réseau social X (ce qui a déclenché une petite bataille en ligne entre les deux hommes). Cependant, un juge californien vient de décider que l'État ne peut pas obliger les gens à retirer les deepfakes électoraux, car ils sont protégés par la constitution.

    En effet, Christopher Kohls, le créateur du deepfake de Kamala Harris, a intenté un procès pour empêcher l'État d'appliquer la loi. Dans sa plainte de protestation, Christopher Kohls a déclaré que « la vidéo qu'il a publiée est protégée par le premier amendement parce qu'il s'agissait d'une parodie ». Le juge de district des États-Unis John Mendez lui a donné raison :

    Citation Envoyé par John Mendez, juge de district des États-Unis

    Presque tous les contenus modifiés numériquement, lorsqu'ils sont laissés à l'appréciation d'un individu arbitraire sur Internet, peuvent être considérés comme nuisibles. Par exemple, des chiffres approximatifs générés par l'IA sur le taux de participation des électeurs pourraient être considérés comme un faux contenu qui mine raisonnablement la confiance dans le résultat d'une élection en vertu de cette loi.

    D'un autre côté, de nombreuses représentations « préjudiciables », lorsqu'elles sont montrées à un grand nombre d'individus, peuvent en fin de compte ne pas influencer les perspectives électorales ou miner la confiance dans une élection. Comme le souligne de manière convaincante le plaignant, « la loi AB 2839 repose sur divers termes subjectifs et sur une mens rea maladroitement formulée », ce qui a pour effet d'impliquer de vastes quantités de discours politiques et protégés par la Constitution...

    Bien que la crainte fondée d'un paysage médiatique manipulé numériquement puisse être justifiée, cette crainte ne donne pas aux législateurs une licence débridée pour passer outre la longue tradition de critique, de parodie et de satire protégée par le Premier Amendement. Les vidéos YouTube, les posts Facebook et les tweets X sont les publicités des journaux et les caricatures politiques d'aujourd'hui, et le premier amendement protège le droit d'un individu à s'exprimer, quel que soit le nouveau support de ces critiques.

    D'autres causes d'action prévues par la loi, telles que les délits liés à la protection de la vie privée, la violation des droits d'auteur ou la diffamation, offrent déjà un recours aux personnalités publiques ou aux particuliers dont la réputation peut être affectée par des représentations artificiellement modifiées colportées par des satiristes ou des opportunistes sur Internet...

    Le dossier démontre que l'État de Californie a tout intérêt à préserver l'intégrité des élections et à s'attaquer aux contenus artificiellement manipulés. Cependant, l'intérêt de la Californie et les difficultés auxquelles l'État est confronté sont minimes par rapport à la gravité des valeurs du premier amendement en jeu et aux violations constitutionnelles permanentes que le plaignant et d'autres créateurs de contenu se trouvant dans une situation similaire subissent en voyant leur discours étouffé.
    Le juge John Mendez a ordonné une injonction préliminaire pour empêcher temporairement le procureur général de Californie d'appliquer la nouvelle loi à Kohls ou à quiconque, à l'exception des messages audio relevant de la loi AB 2839. En substance, le juge affirme que la loi, tel qu'elle est rédigée, est tout simplement trop large et qu'elle pourrait entraîner un grave débordement de la part des autorités de l'État en ce qui concerne les propos autorisés ou non.

    Comme il s'agit d'une injonction préliminaire, il faut attendre pour voir si la loi est bloquée pour de bon, mais dans tous les cas, il est peu probable qu'elle ait beaucoup d'effet sur les élections de novembre 2024. La loi AB 2839 est l'une des 18 nouvelles lois relatives à l'IA que Gavin Newsom a signées en septembre 2024.

    Elon Musk et ses alliés échappent à des poursuites avec cette injonction

    La loi A2839 qui rend illégale la distribution de médias audio ou visuels matériellement trompeurs d'un candidat 120 jours avant une élection et, dans certains cas, 60 jours après. La loi permet également aux candidats ciblés de demander à un tribunal de retirer toute publicité truquée et de poursuivre la personne qui l'a diffusée, bien que les parodies et les satires truquées divulguées en tant que telles soient exemptées. Deux autres lois, AB 2655 et AB 2355, portent respectivement sur les plateformes et sur le traitement de ce type de contenu par les groupes de campagne. Ces deux dernières entreront en vigueur.


    Le blocage de la loi AB 2839 est une grande victoire pour Elon Musk et ses partisans. Dans les jours qui ont suivi la signature de l'AB 2839 par Gavin Newsom, Elon Musk et ses alliés habituels ont partagé en ligne une série de deepfakes générés par l'IA, probablement dans le but de défier la nouvelle loi californienne. Christopher Kohls, qui a intenté le procès contre la loi, a réagi sur son compte X en déclarant : « VICTOIRE ! Le procès contre Newsom a été gagné ».

    Peu après la décision du tribunal, Elon Musk a tweeté : « la loi anticonstitutionnelle californienne portant atteinte à votre liberté d'expression a été bloquée par le tribunal ». Elon Musk a félicité Christopher Kohls en disant : « un point pour le droit du peuple à la liberté d'expression ». Musk avait partagé en juillet la vidéo créée par Christopher Kohls. Le message de Musk faisant la promotion de la vidéo mette en scène Kamala Harris a été vu plus de 135 millions de fois sur X.

    Le gouverneur californien Gavin Newsom s'était alors rapidement engagé à signer une loi visant à réprimer les deepfakes politiques, ce à quoi Elon Musk a répondu : « la parodie est légale aux Érats-Unis ». Après la signature des lois par Gavin Newsom, Elon Musk a reposté la vidéo montrant Kamala Harris et a écrit : « vous n'allez pas le croire, mais Gavin Newsom vient d'annoncer qu'il a signé une loi rendant la parodie illégale, sur la base de cette vidéo ».

    Theodore Frank, un avocat de Christopher Kohls, a déclaré dans un communiqué qu'ils étaient satisfaits que le tribunal de district soit d'accord avec leur analyse. De son côté, Izzy Gardon, le porte-parole du gouverneur Gavin Newsom, a déclaré dans un communiqué que « le bureau du gouverneur est confiant dans le fait que les tribunaux confirmeraient la capacité de la Californie à réglementer les deepfakes ». Izzy Gardon a déclaré que la loi était raisonnable.

    Selon le porte-parole, la loi est conforme à une mesure similaire adoptée en Alabama pour restreindre les deepfakes. « Les deepfakes menacent l'intégrité de nos élections et ces nouvelles lois protègent notre démocratie tout en préservant la liberté d'expression. La satire reste bien vivante en Californie, même pour ceux qui n'ont pas compris la chute », a déclaré le porte-parole. Il n'a pas donné de détail sur ce que la Californie prévoit de faire par la suite.

    Source : décision du juge fédéral John Mendez (PDF)

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de la décision du juge de bloquer la loi californienne sur l'IA ?
    Selon vous, les dispositions de la loi AB 2839 entravent-elles la liberté d'expressions en ligne ?
    Quels impacts le blocage de la loi AB 2839 pourrait avoir sur les élections de novembre 2024 aux États-Unis ?

    Voir aussi

    Le créateur de la vidéo parodique de Kamala Harris poursuit la Californie en raison de la loi "deepfake" après l'interdiction de sa parodie de la vice-présidente Kamala Harris

    Le gouverneur de Californie signe 9 projets de loi réglementant les contenus générés par l'IA pour répondre aux risques liés aux "deepfakes" malgré que les Big tech de l'IA y voient un frein à l'innovation

    Le gouverneur de Californie oppose son veto à un projet de loi controversé sur la sécurité de l'IA, Gavin Newsom souhaite des règles plus complètes pour le projet de loi auquel s'opposent Google, OpenAI et Meta

  14. #134
    Membre très actif
    Homme Profil pro
    Administrateur systèmes et réseaux
    Inscrit en
    Août 2018
    Messages
    415
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 56
    Localisation : Autre

    Informations professionnelles :
    Activité : Administrateur systèmes et réseaux

    Informations forums :
    Inscription : Août 2018
    Messages : 415
    Par défaut
    Le mensonge ne peut en aucun cas être rattaché à la liberté d'expression, il doit être clairement proscrit de toute forme de politique, sans quoi certains politiciens continueront à mener des campagnes de désinformation, de dénigrement d'autrui, voir de tentatives de déstabilisation de systèmes démocratiques mis en place !!!

  15. #135
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 371
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 371
    Par défaut Le UK ne met plus l'accent sur la sécurité de l'IA et fait appel à Anthropic pour les services publics
    Le Royaume-Uni abandonne sa stratégie de régulation stricte de l'IA au profit d'une collaboration avec Anthropic
    qui va l'aider à transformer ses services publics

    Le Royaume-Uni a rebaptisé son AI Safety Institute pour se concentrer sur la sécurité, en recrutant la startup américaine Anthropic pour étudier comment la technologie peut être utilisée pour améliorer les services publics. Lancé en 2023 sous le gouvernement du premier ministre de l'époque, Rishi Sunak, l'Institut de sécurité de l'IA a été inauguré alors que l'inquiétude concernant le potentiel de dommages catastrophiques de la technologie se propageait dans le monde entier, aboutissant à un sommet mondial à Bletchley Park.

    Depuis son arrivée au pouvoir l'année dernière, le gouvernement travailliste nouvellement élu s'est éloigné des appels à la réglementation de l'IA, se concentrant plutôt sur son potentiel de transformation des services publics. Des fonctionnaires ont été critiqués et félicités pour avoir refusé de signer une déclaration internationale sur l'IA « inclusive » lors du sommet de l'action qui s'est tenu cette semaine à Paris. Le sommet a marqué un changement de ton significatif par rapport à Bletchley, le président français Emmanuel Macron et les hauts fonctionnaires de l'UE soulignant la nécessité de défendre les champions nationaux de l'IA et d'éviter de les réglementer à outrance.


    Contexte

    Le Royaume-Uni a récemment modifié sa stratégie en matière d'intelligence artificielle en signant un partenariat majeur avec la startup américaine Anthropic, spécialisée dans le développement de chatbots avancés. Cette collaboration vise à intégrer le chatbot Claude d'Anthropic dans les services publics britanniques, afin d'améliorer l'interaction des citoyens avec les informations et les services gouvernementaux. Peter Kyle, ministre britannique des technologies, a déclaré que cet accord concrétisait l'objectif de faire du Royaume-Uni le meilleur endroit pour développer l'IA de pointe, afin que les avantages de cette technologie transformatrice soient ressentis par les personnes et les entreprises dans tout le pays.

    Jeudi, le gouvernement a refondu l'organisation en Institut de sécurité de l'IA. Comme son nouveau nom l'indique, l'AISI renaît et continue d'explorer certains de ces risques de sécurité. Toutefois, il ne garde plus un œil sur les risques sociétaux et ne semble plus se concentrer sur le potentiel de l'IA qui s'emballe. Pour souligner ce changement, la nouvelle AISI comprendra une « équipe chargée des abus criminels » qui travaillera en collaboration avec le Home Office, le ministère britannique de la sécurité.

    Une modification de son approche

    Le gouvernement britannique souhaite s'engager résolument dans la relance de son économie et de son industrie grâce à l'IA, et pour ce faire, il réoriente une institution fondée il y a un peu plus d'un an dans un but très différent. Le ministère des sciences, de l'industrie et de la technologie a annoncé qu'il renommerait l'Institut de sécurité de l'IA en « Institut de sécurité de l'IA ». Ainsi, l'organisme n'explorera plus principalement des domaines tels que les risques existentiels et les biais dans les grands modèles de langage, mais se concentrera sur la cybersécurité, en particulier sur le « renforcement des protections contre les risques que l'IA fait peser sur la sécurité nationale et la criminalité ».

    Parallèlement, le gouvernement a également annoncé un nouveau partenariat avec Anthropic. Aucun service ferme n'a été annoncé, mais le protocole d'accord indique que les deux parties « étudieront » la possibilité d'utiliser Claude, l'assistant IA d'Anthropic, dans les services publics ; Anthropic s'efforcera de contribuer aux travaux de recherche scientifique et de modélisation économique. Quant à l'AI Security Institute, il fournira des outils permettant d'évaluer les capacités de l'IA dans le contexte de l'identification des risques de sécurité.

    « L'IA a le potentiel de transformer la manière dont les gouvernements servent leurs citoyens », a déclaré Dario Amodei, cofondateur et directeur général d'Anthropic, dans un communiqué. « Nous sommes impatients de voir comment Claude, l'assistant IA d'Anthropic, pourrait aider les agences gouvernementales britanniques à améliorer les services publics, dans le but de découvrir de nouvelles façons de rendre les informations et les services vitaux plus efficaces et plus accessibles aux résidents du Royaume-Uni. »

    L'indice économique d'Anthropic, lancé cette semaine, entrera également en ligne de compte. L'indice s'appuie sur des conversations anonymes avec Claude pour déduire comment l'IA est utilisée dans l'ensemble de l'économie. Le Royaume-Uni utilisera ces informations pour « adapter sa main-d'œuvre et ses stratégies d'innovation à un avenir fondé sur l'IA », a déclaré le gouvernement.

    Anthropic est la seule entreprise à être annoncée aujourd'hui (ce qui coïncide avec une semaine d'activités sur l'IA à Munich et à Paris) mais elle n'est pas la seule à travailler avec le gouvernement. Une série de nouveaux outils dévoilés en janvier étaient tous basés sur OpenAI. (À l'époque, Peter Kyle, secrétaire d'État à la technologie, avait déclaré que le gouvernement prévoyait de travailler avec diverses entreprises d'IA fondamentales, ce que l'accord avec Anthropic est en train de prouver).

    Anthropic est en discussions pour lever 2 milliards de dollars dans le cadre d'une opération qui la valoriserait à 60 milliards dollars, ce qui fait d'elle la dernière startup d'IA à profiter de l'euphorie des investisseurs

    Des objectifs redéfinis

    Il y a moins de deux ans, le gouvernement britannique a annoncé la création de l'Institut britannique de sécurité de l'IA (AISI), dont l'objectif était de s'attaquer aux risques de sécurité tels que l'utilisation de l'IA pour fabriquer des armes chimiques ou biologiques, et la possibilité que l'humanité perde le contrôle d'une IA superintelligente. L'institut s'est également intéressé en partie aux risques sociétaux de l'IA, tels que la diffusion de fausses informations et la perpétuation des préjugés.

    « La sortie de ChatGPT a été un moment Spoutnik pour l'humanité - nous avons été surpris par les progrès rapides et inattendus d'une technologie de notre propre création. Avec l'accélération des investissements dans l'IA avancée et son adoption par le public, ces systèmes deviennent de plus en plus puissants et influent sur nos vies.

    « Ces systèmes pourraient libérer les gens du monde entier des tâches routinières fastidieuses et amplifier nos capacités créatives. Mais ils pourraient aussi modifier nos futurs marchés du travail et notre économie plus rapidement que n'importe quelle autre avancée technologique de l'histoire. Ils pourraient aider nos scientifiques à faire de nouvelles découvertes audacieuses, ouvrant la voie à un monde sans cancer et avec un accès à une énergie propre quasi illimitée. Mais ils pourraient aussi concentrer davantage de pouvoir non responsable entre les mains de quelques-uns, ou être utilisés malicieusement pour miner la confiance de la société, éroder la sécurité publique ou menacer la sécurité internationale.

    « Certains de ces risques se manifestent déjà sous la forme de préjudices pour les personnes aujourd'hui et sont exacerbés par les avancées à la frontière du développement de l'IA. L'existence d'autres risques est plus controversée et polarisée. Mais pour reprendre les mots du mathématicien I.J. Good, collègue d'Alan Turing à Bletchley Park, "il vaut parfois la peine de prendre la science-fiction au sérieux".

    « Nous devons toujours nous rappeler que l'IA n'est pas un phénomène naturel qui nous arrive, mais un produit de la création humaine que nous avons le pouvoir de façonner et de diriger ».

    La transformation par le gouvernement de l'AI Safety Institute (lancé en fanfare il y a un peu plus d'un an) en AI Security ne devrait pas surprendre outre mesure.

    Dans un communiqué, le ministre des technologies Peter Kyle a déclaré que l'Institut de sécurité de l'IA, rebaptisé Institut de sécurité de l'IA, aiderait à « libérer l'IA et à faire croître l'économie ». Il a ajouté : « Le travail de l'Institut de sécurité de l'IA ne changera pas, mais cette nouvelle orientation garantira que nos citoyens - et ceux de nos alliés - sont protégés contre ceux qui cherchent à utiliser l'IA contre nos institutions, nos valeurs démocratiques et notre mode de vie ».

    Nom : safety.png
Affichages : 5823
Taille : 439,5 Ko

    Changement d'orientation

    La mission révisée de l'AISI semble s'inscrire dans la nouvelle stratégie du Royaume-Uni, qui consiste à s'aligner sur celle du président Donald Trump aux États-Unis.

    En début de semaine, le Royaume-Uni a semé la consternation dans la communauté de l'IA en refusant de signer la déclaration issue du sommet de Paris sur l'action en matière d'IA. Les États-Unis ont également refusé de la signer.

    À première vue, le raisonnement des États-Unis s'explique par le désir d'éviter une réglementation excessive de l'IA (la déclaration fait référence à des cadres internationaux et à la gouvernance), mais beaucoup ont vu dans les références du document à l'IA inclusive et à la réduction de la fracture numérique une garantie que l'administration anti-DEI de Trump ne les signerait pas. Le refus du Royaume-Uni a été plus surprenant ; son gouvernement a invoqué des préoccupations liées à la « gouvernance mondiale » et à la sécurité nationale ».

    Quelques semaines auparavant, l'un des premiers actes de Trump en tant que nouveau président a été d'annuler le décret de 2023 du président Joe Biden sur la mise en place de garde-fous pour la technologie, y compris dans les domaines touchant aux libertés civiles.

    Le vice-président américain JD Vance a déclaré au sommet cette semaine qu'il n'était pas à Paris « pour parler de la sécurité de l'IA, qui était le titre de la conférence il y a quelques années », mais plutôt pour parler de « l'opportunité de l'IA ». Son message insistait sur la nécessité d'éviter toute aversion au risque en matière d'IA.

    Jeudi, le secrétaire d'État britannique à la technologie, Peter Kyle, a tenu des propos très similaires.

    « Les changements que j'annonce aujourd'hui représentent la suite logique de notre approche du développement responsable de l'IA, qui nous aidera à libérer l'IA et à faire croître l'économie », a-t-il déclaré. « La tâche principale de tout gouvernement est de s'assurer que ses citoyens sont en sécurité et protégés, et je suis convaincu que l'expertise que notre institut sera en mesure d'apporter permettra au Royaume-Uni d'être dans une position plus forte que jamais pour faire face à la menace de ceux qui chercheraient à utiliser cette technologie contre nous. »

    Le gouvernement a souligné dans sa déclaration que l'AISI « ne se concentrera pas sur les préjugés ou la liberté d'expression », et le président de l'AISI, Ian Hogarth, a insisté sur le fait que « depuis le début, l'Institut s'est concentré sur la sécurité ».

    Sources : AI Security Institute, Anthropic, Élysée, AI Safety Institute

    Et vous ?

    Quels sont les risques pour la société britannique si le Royaume-Uni continue de privilégier l'innovation technologique au détriment de la régulation de l'IA ?

    En quoi ce partenariat avec Anthropic pourrait-il influencer la manière dont l'IA est intégrée dans les services publics, et quelles pourraient être les répercussions sur la vie privée des citoyens ?

    Pourquoi le Royaume-Uni semble-t-il prendre du recul sur la régulation de l'IA alors que l'Europe renforce ses efforts pour créer un cadre juridique ? Cela risque-t-il de créer un écart technologique entre les deux régions ?

    L'accent mis sur l'innovation technologique par le Royaume-Uni pourrait-il donner un avantage à des entreprises comme Anthropic, au détriment de la transparence et de la sécurité des systèmes d'IA ?

    Quels autres partenariats stratégiques le Royaume-Uni pourrait-il chercher dans le domaine de l'IA pour se positionner comme un leader mondial, et comment cela se compare-t-il aux approches adoptées par d'autres pays ?

    Le Royaume-Uni pourrait-il, à terme, devoir reconsidérer sa position en matière de régulation, surtout si des incidents ou des problèmes liés à l'IA surviennent dans des secteurs sensibles ?

    Voir aussi :

    Anthropic a mis au point une nouvelle méthode pour protéger les LLM contre les piratages. Cette défense pourrait être la plus puissante à ce jour, mais aucun bouclier n'est parfait
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  16. #136
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 181
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 181
    Par défaut L'OTAN signe un accord avec Palantir pour l’acquisition de son système d'IA dénommé Maven
    L'OTAN signe un accord avec Palantir pour l’acquisition de son système d'intelligence artificielle dénommé Maven
    Dans un contexte de protestations contre l'utilisation de l'IA sur les champs de bataille

    L'OTAN annonce avoir passé un contrat avec Palantir en vue de l'adoption de son système Maven pour les opérations sur le champ de bataille fondées sur l'intelligence artificielle. Dans le cadre de ce contrat, qui a été finalisé le 25 mars, l'Agence des communications et de l'information de l'OTAN prévoit d'utiliser une version du système d'intelligence artificielle pour le soutien stratégique de son unité de commandement. La nouvelle tombe dans un contexte de protestations contre l’utilisation de l’intelligence artificielle sur les champs de bataille.

    L'OTAN prévoit d'utiliser le système pour fournir à l'Alliance « une capacité commune de combat basée sur les données, grâce à un large éventail d'applications d'IA - des grands modèles de langage (LLM) à l'apprentissage génératif et automatique », a indiqué l'organisation dans un communiqué, afin d'améliorer « la fusion des données du renseignement et le ciblage, la connaissance de l'espace de combat et la planification, ainsi que l'accélération de la prise de décision. »

    Le Commandement de l'OTAN commencera à utiliser Maven dans les 30 prochains jours, a déclaré l’organisation, ajoutant qu'elle espérait que l'utilisation de Maven accélérerait l'adoption des capacités d'IA émergentes. Palantir a déclaré que le contrat « a été l'un des plus rapides de son histoire, puisqu'il ne s'est écoulé que six mois entre la définition du besoin et l'acquisition du système. »

    Tous les pays sont lancés dans l’acquisition ou le développement d’armes animées par l’intelligence artificielle

    L'armée américaine, comme celle d’autres pays, effectue des tests de robots-chiens. Du point de vue du développeur informatique, ces robots sont des kits matériels - à la présentation visuelle similaire à celle d’un chien sur pattes – programmables via une API fournie par le constructeur. C’est au travers de cette dernière, ainsi que d’une série de modules d’extensions, que le développeur peut aller à l’essentiel de l’application à mettre en œuvre.

    Ces robots s’appuient à la base sur des applications de détection et suivi d’objets. Dans ce cas, il y a au préalable collecte des images provenant de caméras avant puis détection d’objet sur une classe spécifiée. Cette détection utilise Tensorflow via le tensorflow_object_detector. Le robot accepte n'importe quel modèle Tensorflow et permet au développeur de spécifier un sous-ensemble de classes de détection incluses dans le modèle. Il effectue cet ensemble d'opérations pour un nombre prédéfini d'itérations, en bloquant pendant une durée prédéfinie entre chaque itération. L'application détermine ensuite l'emplacement de la détection la plus fiable de la classe spécifiée et se dirige vers l'objet.

    L’application est organisée en trois ensembles de processus Python communiquant avec le robot Spot. Le diagramme des processus est illustré ci-dessous. Le processus principal communique avec le robot Spot via GRPC et reçoit constamment des images. Ces images sont poussées dans la RAW_IMAGES_QUEUE et lues par les processus Tensorflow. Ces processus détectent des objets dans les images et poussent l'emplacement dans PROCESSED_BOXES_QUEUE. Le thread principal détermine alors l'emplacement de l'objet et envoie des commandes au robot pour qu'il se dirige vers l'objet.

    Code Python : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    32
    33
    34
    35
    36
    37
    38
    39
    40
    41
    42
    43
    44
    45
    46
    47
    48
    49
    50
    51
    52
    53
    54
    55
    56
    57
    58
    59
    60
    61
    62
    63
    64
    65
    66
    67
    68
    69
    70
    71
    72
    73
    74
    75
    76
    77
    78
    79
    80
    81
    82
    83
    84
    85
    86
    87
    88
    89
    90
    91
    92
    93
    94
    95
    96
    97
    98
    99
    100
    101
    102
    103
    104
    105
    106
    107
    108
    109
    110
    111
    112
    113
    114
    115
    116
    117
    118
    119
    120
    121
    122
    123
    124
    125
    126
    127
    128
    129
    130
    131
    132
    133
    134
    135
    136
    137
    138
    139
    140
    141
    142
    143
    144
    145
    146
    147
    148
    149
    150
    151
    152
    153
    154
    155
    156
    157
    158
    159
    160
    161
    162
    163
    164
    165
    166
    167
    168
    169
    170
    171
    172
    173
    174
    175
    176
    177
    178
    179
    180
    181
    182
    183
    184
    185
    186
    187
    188
    189
    190
    191
    192
    193
    194
    195
    196
    197
    198
    199
    200
    201
    202
    203
    204
    205
    206
    207
    208
    209
    210
    211
    212
    213
    214
    215
    216
    217
    218
    219
    220
    221
    222
    223
    224
    225
    226
    227
    228
    229
    230
    231
    232
    233
    234
    235
    236
    237
    238
    239
    240
    241
    242
    243
    244
    245
    246
    247
    248
    249
    250
    251
    252
    253
    254
    255
    256
    257
    258
    259
    260
    261
    262
    263
    264
    265
    266
    267
    268
    269
    270
    271
    272
    273
    274
    275
    276
    277
    278
    279
    280
    281
    282
    283
    284
    285
    286
    287
    288
    289
    290
    291
    292
    293
    294
    295
    296
    297
    298
    299
    300
    301
    302
    303
    304
    305
    306
    307
    308
    309
    310
    311
    312
    313
    314
    315
    316
    317
    318
    319
    320
    321
    322
    323
    324
    325
    326
    327
    328
    329
    330
    331
    332
    333
    334
    335
    336
    337
    338
    339
    340
    341
    342
    343
    344
    345
    346
    347
    348
    349
    350
    351
    352
    353
    354
    355
    356
    357
    358
    359
    360
    361
    362
    363
    364
    365
    366
    367
    368
    369
    370
    371
    372
    373
    374
    375
    376
    377
    378
    379
    380
    381
    382
    383
    384
    385
    386
    387
    388
    389
    390
    391
    392
    393
    394
    395
    396
    397
    398
    399
    400
    401
    402
    403
    404
    405
    406
    407
    408
    409
    410
    411
    412
    413
    414
    415
    416
    417
    418
    419
    420
    421
    422
    423
    424
    425
    426
    427
    428
    429
    430
    431
    432
    433
    434
    435
    436
    437
    438
    439
    440
    441
    442
    443
    444
    445
    446
    447
    448
    449
    450
    451
    452
    453
    454
    455
    456
    457
    458
    459
    460
    461
    462
    463
    464
    465
    466
    467
    468
    469
    470
    471
    472
    473
    474
    475
    476
    477
    478
    479
    480
    481
    482
    483
    484
    485
    486
    487
    488
    489
    490
    491
    492
    493
    494
    495
    496
    497
    498
    499
    500
    501
    502
    503
    504
    505
    506
    507
    508
    509
    510
    511
    512
    513
    514
    515
    516
    517
    518
    519
    520
    521
    522
    523
    524
    525
    526
    527
    528
    529
    530
    531
    532
    533
    534
    535
    536
    537
    538
    539
    540
    541
    542
    543
    544
    545
    546
    547
    548
    549
    550
    551
    552
    553
    554
    555
    556
    557
    558
    559
    560
    561
    562
    563
    564
    565
    566
    567
    568
    569
    570
    571
    572
    573
    574
    575
    576
    577
    578
    579
    580
    581
    582
    583
    584
    585
    586
    587
    588
    589
    590
    591
    592
    593
    594
    595
    596
    597
    598
    599
    600
    601
    602
    603
    604
    605
    606
    607
    608
    609
    610
    611
    612
    613
    614
    615
    616
    617
    618
    619
    620
    621
    622
    623
    624
    625
    626
    627
    628
    629
    630
    631
    632
    633
    634
    635
    636
    637
    638
    639
    640
    641
    642
    643
    644
    645
    646
    647
    648
    649
    650
    651
    652
    653
    654
    655
    656
    657
    658
    659
    660
    661
    662
    663
    664
    665
    666
    667
    668
    669
    670
    671
    672
    673
    674
    675
    676
    677
    678
    679
    680
    681
    682
    683
    684
    685
    686
    687
    688
    689
    690
    691
    692
    693
    694
    695
    696
    697
    698
    699
    700
    701
    702
    703
    704
    705
    706
    707
    708
    709
    710
    711
    712
    713
    714
    715
    716
    717
    718
    719
    720
    721
    722
    723
    724
    725
    726
    727
    728
    729
    730
    731
    732
    733
    734
    735
    736
    737
    738
    739
    740
    741
    742
    743
    744
    745
    746
    747
    748
    749
    750
    751
    752
    753
    754
    755
    756
    757
    758
    759
    760
    761
    762
    763
    764
    765
    766
    767
    768
    769
    770
    771
    772
    773
    774
    775
    776
    777
    778
    779
    780
    781
    782
    783
    784
    785
    786
    787
    788
    789
    790
    791
    792
    793
    794
    795
    796
    797
    798
    799
    800
    801
    802
    803
    804
    805
    806
    807
    808
    809
    810
    811
    812
    813
    814
    815
    816
    817
    818
    819
    820
    821
    822
    823
    824
    825
    826
    827
    828
    829
    830
    831
    832
    833
    834
    835
    836
    837
    838
    839
    # Copyright (c) 2023 Boston Dynamics, Inc.  All rights reserved.  
    #  
    # Downloading, reproducing, distributing or otherwise using the SDK Software  
    # is subject to the terms and conditions of the Boston Dynamics Software  
    # Development Kit License (20191101-BDSDK-SL).  
     
    """Tutorial to show how to use the Boston Dynamics API to detect and follow an object"""  
    import argparse  
    import io  
    import json  
    import math  
    import os  
    import signal  
    import sys  
    import time  
    from multiprocessing import Barrier, Process, Queue, Value  
    from queue import Empty, Full  
    from threading import BrokenBarrierError, Thread  
     
    import cv2  
    import numpy as np  
    from PIL import Image  
    from scipy import ndimage  
    from tensorflow_object_detection import DetectorAPI  
     
    import bosdyn.client  
    import bosdyn.client.util  
    from bosdyn import geometry  
    from bosdyn.api import geometry_pb2 as geo  
    from bosdyn.api import image_pb2, trajectory_pb2  
    from bosdyn.api.image_pb2 import ImageSource  
    from bosdyn.api.spot import robot_command_pb2 as spot_command_pb2  
    from bosdyn.client.async_tasks import AsyncPeriodicQuery, AsyncTasks  
    from bosdyn.client.frame_helpers import (GROUND_PLANE_FRAME_NAME, VISION_FRAME_NAME, get_a_tform_b,  
                                             get_vision_tform_body)  
    from bosdyn.client.image import ImageClient  
    from bosdyn.client.lease import LeaseClient, LeaseKeepAlive  
    from bosdyn.client.math_helpers import Quat, SE3Pose  
    from bosdyn.client.robot_command import (CommandFailedError, CommandTimedOutError,  
                                             RobotCommandBuilder, RobotCommandClient, blocking_stand)  
    from bosdyn.client.robot_state import RobotStateClient  
     
    LOGGER = bosdyn.client.util.get_logger()  
     
    SHUTDOWN_FLAG = Value('i', 0)  
     
    # Don't let the queues get too backed up  
    QUEUE_MAXSIZE = 10  
     
    # This is a multiprocessing.Queue for communication between the main process and the  
    # Tensorflow processes.  
    # Entries in this queue are in the format:  
     
    # {  
    #     'source': Name of the camera,  
    #     'world_tform_cam': transform from VO to camera,  
    #     'world_tform_gpe':  transform from VO to ground plane,  
    #     'raw_image_time': Time when the image was collected,  
    #     'cv_image': The decoded image,  
    #     'visual_dims': (cols, rows),  
    #     'depth_image': depth image proto,  
    #     'system_cap_time': Time when the image was received by the main process,  
    #     'image_queued_time': Time when the image was done preprocessing and queued  
    # }  
    RAW_IMAGES_QUEUE = Queue(QUEUE_MAXSIZE)  
     
    # This is a multiprocessing.Queue for communication between the Tensorflow processes and  
    # the bbox print process. This is meant for running in a containerized environment with no access  
    # to an X display  
    # Entries in this queue have the following fields in addition to those in :  
    # {  
    #   'processed_image_start_time':  Time when the image was received by the TF process,  
    #   'processed_image_end_time':  Time when the image was processing for bounding boxes  
    #   'boxes': list of detected bounding boxes for the processed image  
    #   'classes': classes of objects,  
    #   'scores': confidence scores,  
    # }  
    PROCESSED_BOXES_QUEUE = Queue(QUEUE_MAXSIZE)  
     
    # Barrier for waiting on Tensorflow processes to start, initialized in main()  
    TENSORFLOW_PROCESS_BARRIER = None  
     
    COCO_CLASS_DICT = {  
        1: 'person',  
        2: 'bicycle',  
        3: 'car',  
        4: 'motorcycle',  
        5: 'airplane',  
        6: 'bus',  
        7: 'train',  
        8: 'truck',  
        9: 'boat',  
        10: 'trafficlight',  
        11: 'firehydrant',  
        13: 'stopsign',  
        14: 'parkingmeter',  
        15: 'bench',  
        16: 'bird',  
        17: 'cat',  
        18: 'dog',  
        19: 'horse',  
        20: 'sheep',  
        21: 'cow',  
        22: 'elephant',  
        23: 'bear',  
        24: 'zebra',  
        25: 'giraffe',  
        27: 'backpack',  
        28: 'umbrella',  
        31: 'handbag',  
        32: 'tie',  
        33: 'suitcase',  
        34: 'frisbee',  
        35: 'skis',  
        36: 'snowboard',  
        37: 'sportsball',  
        38: 'kite',  
        39: 'baseballbat',  
        40: 'baseballglove',  
        41: 'skateboard',  
        42: 'surfboard',  
        43: 'tennisracket',  
        44: 'bottle',  
        46: 'wineglass',  
        47: 'cup',  
        48: 'fork',  
        49: 'knife',  
        50: 'spoon',  
        51: 'bowl',  
        52: 'banana',  
        53: 'apple',  
        54: 'sandwich',  
        55: 'orange',  
        56: 'broccoli',  
        57: 'carrot',  
        58: 'hotdog',  
        59: 'pizza',  
        60: 'donut',  
        61: 'cake',  
        62: 'chair',  
        63: 'couch',  
        64: 'pottedplant',  
        65: 'bed',  
        67: 'diningtable',  
        70: 'toilet',  
        72: 'tv',  
        73: 'laptop',  
        74: 'mouse',  
        75: 'remote',  
        76: 'keyboard',  
        77: 'cellphone',  
        78: 'microwave',  
        79: 'oven',  
        80: 'toaster',  
        81: 'sink',  
        82: 'refrigerator',  
        84: 'book',  
        85: 'clock',  
        86: 'vase',  
        87: 'scissors',  
        88: 'teddybear',  
        89: 'hairdrier',  
        90: 'toothbrush'  
    }  
     
    # Mapping from visual to depth data  
    VISUAL_SOURCE_TO_DEPTH_MAP_SOURCE = {  
        'frontleft_fisheye_image': 'frontleft_depth_in_visual_frame',  
        'frontright_fisheye_image': 'frontright_depth_in_visual_frame'  
    }  
    ROTATION_ANGLES = {  
        'back_fisheye_image': 0,  
        'frontleft_fisheye_image': -78,  
        'frontright_fisheye_image': -102,  
        'left_fisheye_image': 0,  
        'right_fisheye_image': 180  
    }  
     
     
    def _update_thread(async_task):  
        while True:  
            async_task.update()  
            time.sleep(0.01)  
     
     
    class AsyncImage(AsyncPeriodicQuery):  
        """Grab image."""  
     
        def __init__(self, image_client, image_sources):  
            # Period is set to be about 15 FPS  
            super(AsyncImage, self).__init__('images', image_client, LOGGER, period_sec=0.067)  
            self.image_sources = image_sources  
     
        def _start_query(self):  
            return self._client.get_image_from_sources_async(self.image_sources)  
     
     
    class AsyncRobotState(AsyncPeriodicQuery):  
        """Grab robot state."""  
     
        def __init__(self, robot_state_client):  
            # period is set to be about the same rate as detections on the CORE AI  
            super(AsyncRobotState, self).__init__('robot_state', robot_state_client, LOGGER,  
                                                  period_sec=0.02)  
     
        def _start_query(self):  
            return self._client.get_robot_state_async()  
     
     
    def get_source_list(image_client):  
        """Gets a list of image sources and filters based on config dictionary  
       
        Args:  
            image_client: Instantiated image client  
        """  
     
        # We are using only the visual images with their corresponding depth sensors  
        sources = image_client.list_image_sources()  
        source_list = []  
        for source in sources:  
            if source.image_type == ImageSource.IMAGE_TYPE_VISUAL:  
                # only append if sensor has corresponding depth sensor  
                if source.name in VISUAL_SOURCE_TO_DEPTH_MAP_SOURCE:  
                    source_list.append(source.name)  
                    source_list.append(VISUAL_SOURCE_TO_DEPTH_MAP_SOURCE[source.name])  
        return source_list  
     
     
    def capture_images(image_task, sleep_between_capture):  
        """ Captures images and places them on the queue  
       
        Args:  
            image_task (AsyncImage): Async task that provides the images response to use  
            sleep_between_capture (float): Time to sleep between each image capture  
        """  
        while not SHUTDOWN_FLAG.value:  
            get_im_resp = image_task.proto  
            start_time = time.time()  
            if not get_im_resp:  
                continue  
            depth_responses = {  
                img.source.name: img  
                for img in get_im_resp  
                if img.source.image_type == ImageSource.IMAGE_TYPE_DEPTH  
            }  
            entry = {}  
            for im_resp in get_im_resp:  
                if im_resp.source.image_type == ImageSource.IMAGE_TYPE_VISUAL:  
                    source = im_resp.source.name  
                    depth_source = VISUAL_SOURCE_TO_DEPTH_MAP_SOURCE[source]  
                    depth_image = depth_responses[depth_source]  
     
                    acquisition_time = im_resp.shot.acquisition_time  
                    image_time = acquisition_time.seconds + acquisition_time.nanos * 1e-9  
     
                    try:  
                        image = Image.open(io.BytesIO(im_resp.shot.image.data))  
                        source = im_resp.source.name  
     
                        image = ndimage.rotate(image, ROTATION_ANGLES[source])  
                        if im_resp.shot.image.pixel_format == image_pb2.Image.PIXEL_FORMAT_GREYSCALE_U8:  
                            image = cv2.cvtColor(image, cv2.COLOR_GRAY2RGB)  # Converted to RGB for TF  
                        tform_snapshot = im_resp.shot.transforms_snapshot  
                        frame_name = im_resp.shot.frame_name_image_sensor  
                        world_tform_cam = get_a_tform_b(tform_snapshot, VISION_FRAME_NAME, frame_name)  
                        world_tform_gpe = get_a_tform_b(tform_snapshot, VISION_FRAME_NAME,  
                                                        GROUND_PLANE_FRAME_NAME)  
                        entry[source] = {  
                            'source': source,  
                            'world_tform_cam': world_tform_cam,  
                            'world_tform_gpe': world_tform_gpe,  
                            'raw_image_time': image_time,  
                            'cv_image': image,  
                            'visual_dims': (im_resp.shot.image.cols, im_resp.shot.image.rows),  
                            'depth_image': depth_image,  
                            'system_cap_time': start_time,  
                            'image_queued_time': time.time()  
                        }  
                    except Exception as exc:  # pylint: disable=broad-except  
                        print(f'Exception occurred during image capture {exc}')  
            try:  
                RAW_IMAGES_QUEUE.put_nowait(entry)  
            except Full as exc:  
                print(f'RAW_IMAGES_QUEUE is full: {exc}')  
            time.sleep(sleep_between_capture)  
     
     
    def start_tensorflow_processes(num_processes, model_path, detection_class, detection_threshold,  
                                   max_processing_delay):  
        """Starts Tensorflow processes in parallel.  
       
        It does not keep track of the processes once they are started because they run indefinitely  
        and are never joined back to the main process.  
       
        Args:  
            num_processes (int): Number of Tensorflow processes to start in parallel.  
            model_path (str): Filepath to the Tensorflow model to use.  
            detection_class (int): Detection class to detect  
            detection_threshold (float): Detection threshold to apply to all Tensorflow detections.  
            max_processing_delay (float): Allowed delay before processing an incoming image.  
        """  
        processes = []  
        for _ in range(num_processes):  
            process = Process(  
                target=process_images, args=(  
                    model_path,  
                    detection_class,  
                    detection_threshold,  
                    max_processing_delay,  
                ), daemon=True)  
            process.start()  
            processes.append(process)  
        return processes  
     
     
    def process_images(model_path, detection_class, detection_threshold, max_processing_delay):  
        """Starts Tensorflow and detects objects in the incoming images.  
       
        Args:  
            model_path (str): Filepath to the Tensorflow model to use.  
            detection_class (int): Detection class to detect  
            detection_threshold (float): Detection threshold to apply to all Tensorflow detections.  
            max_processing_delay (float): Allowed delay before processing an incoming image.  
        """  
     
        odapi = DetectorAPI(path_to_ckpt=model_path)  
        num_processed_skips = 0  
     
        if TENSORFLOW_PROCESS_BARRIER is None:  
            return  
     
        try:  
            TENSORFLOW_PROCESS_BARRIER.wait()  
        except BrokenBarrierError as exc:  
            print(f'Error waiting for Tensorflow processes to initialize: {exc}')  
            return False  
     
        while not SHUTDOWN_FLAG.value:  
            try:  
                entry = RAW_IMAGES_QUEUE.get_nowait()  
            except Empty:  
                time.sleep(0.1)  
                continue  
            for _, capture in entry.items():  
                start_time = time.time()  
                processing_delay = time.time() - capture['raw_image_time']  
                if processing_delay > max_processing_delay:  
                    num_processed_skips += 1  
                    print(f'skipped image because it took {processing_delay}')  
                    continue  # Skip image due to delay  
     
                image = capture['cv_image']  
                boxes, scores, classes, _ = odapi.process_frame(image)  
                confident_boxes = []  
                confident_object_classes = []  
                confident_scores = []  
                if len(boxes) == 0:  
                    print('no detections founds')  
                    continue  
                for box, score, box_class in sorted(zip(boxes, scores, classes), key=lambda x: x[1],  
                                                    reverse=True):  
                    if score > detection_threshold and box_class == detection_class:  
                        confident_boxes.append(box)  
                        confident_object_classes.append(COCO_CLASS_DICT[box_class])  
                        confident_scores.append(score)  
                        image = cv2.rectangle(image, (box[1], box[0]), (box[3], box[2]), (255, 0, 0), 2)  
     
                capture['processed_image_start_time'] = start_time  
                capture['processed_image_end_time'] = time.time()  
                capture['boxes'] = confident_boxes  
                capture['classes'] = confident_object_classes  
                capture['scores'] = confident_scores  
                capture['cv_image'] = image  
            try:  
                PROCESSED_BOXES_QUEUE.put_nowait(entry)  
            except Full as exc:  
                print(f'PROCESSED_BOXES_QUEUE is full: {exc}')  
        print('tf process ending')  
        return True  
     
     
    def get_go_to(world_tform_object, robot_state, mobility_params, dist_margin=0.5):  
        """Gets trajectory command to a goal location  
       
        Args:  
            world_tform_object (SE3Pose): Transform from vision frame to target object  
            robot_state (RobotState): Current robot state  
            mobility_params (MobilityParams): Mobility parameters  
            dist_margin (float): Distance margin to target  
        """  
        vo_tform_robot = get_vision_tform_body(robot_state.kinematic_state.transforms_snapshot)  
        print(f'robot pos: {vo_tform_robot}')  
        delta_ewrt_vo = np.array(  
            [world_tform_object.x - vo_tform_robot.x, world_tform_object.y - vo_tform_robot.y, 0])  
        norm = np.linalg.norm(delta_ewrt_vo)  
        if norm == 0:  
            return None  
        delta_ewrt_vo_norm = delta_ewrt_vo / norm  
        heading = _get_heading(delta_ewrt_vo_norm)  
        vo_tform_goal = np.array([  
            world_tform_object.x - delta_ewrt_vo_norm[0] * dist_margin,  
            world_tform_object.y - delta_ewrt_vo_norm[1] * dist_margin  
        ])  
        se2_pose = geo.SE2Pose(position=geo.Vec2(x=vo_tform_goal[0], y=vo_tform_goal[1]), angle=heading)  
        tag_cmd = RobotCommandBuilder.synchro_se2_trajectory_command(se2_pose,  
                                                                     frame_name=VISION_FRAME_NAME,  
                                                                     params=mobility_params)  
        return tag_cmd  
     
     
    def _get_heading(xhat):  
        zhat = [0.0, 0.0, 1.0]  
        yhat = np.cross(zhat, xhat)  
        mat = np.array([xhat, yhat, zhat]).transpose()  
        return Quat.from_matrix(mat).to_yaw()  
     
     
    def set_default_body_control():  
        """Set default body control params to current body position"""  
        footprint_R_body = geometry.EulerZXY()  
        position = geo.Vec3(x=0.0, y=0.0, z=0.0)  
        rotation = footprint_R_body.to_quaternion()  
        pose = geo.SE3Pose(position=position, rotation=rotation)  
        point = trajectory_pb2.SE3TrajectoryPoint(pose=pose)  
        traj = trajectory_pb2.SE3Trajectory(points=[point])  
        return spot_command_pb2.BodyControlParams(base_offset_rt_footprint=traj)  
     
     
    def get_mobility_params():  
        """Gets mobility parameters for following"""  
        vel_desired = .75  
        speed_limit = geo.SE2VelocityLimit(  
            max_vel=geo.SE2Velocity(linear=geo.Vec2(x=vel_desired, y=vel_desired), angular=.25))  
        body_control = set_default_body_control()  
        mobility_params = spot_command_pb2.MobilityParams(vel_limit=speed_limit, obstacle_params=None,  
                                                          body_control=body_control,  
                                                          locomotion_hint=spot_command_pb2.HINT_TROT)  
        return mobility_params  
     
     
    def depth_to_xyz(depth, pixel_x, pixel_y, focal_length, principal_point):  
        """Calculate the transform to point in image using camera intrinsics and depth"""  
        x = depth * (pixel_x - principal_point.x) / focal_length.x  
        y = depth * (pixel_y - principal_point.y) / focal_length.y  
        z = depth  
        return x, y, z  
     
     
    def remove_ground_from_depth_image(raw_depth_image, focal_length, principal_point, world_tform_cam,  
                                       world_tform_gpe, ground_tolerance=0.04):  
        """ Simple ground plane removal algorithm. Uses ground height  
            and does simple z distance filtering.  
       
        Args:  
            raw_depth_image (np.array): Depth image  
            focal_length (Vec2): Focal length of camera that produced the depth image  
            principal_point (Vec2): Principal point of camera that produced the depth image  
            world_tform_cam (SE3Pose): Transform from VO to camera frame  
            world_tform_gpe (SE3Pose): Transform from VO to GPE frame  
            ground_tolerance (float): Distance in meters to add to the ground plane  
        """  
        new_depth_image = raw_depth_image  
     
        # same functions as depth_to_xyz, but converted to np functions  
        indices = np.indices(raw_depth_image.shape)  
        xs = raw_depth_image * (indices[1] - principal_point.x) / focal_length.x  
        ys = raw_depth_image * (indices[0] - principal_point.y) / focal_length.y  
        zs = raw_depth_image  
     
        # create xyz point cloud  
        camera_tform_points = np.stack([xs, ys, zs], axis=2)  
        # points in VO frame  
        world_tform_points = world_tform_cam.transform_cloud(camera_tform_points)  
        # array of booleans where True means the point was below the ground plane plus tolerance  
        world_tform_points_mask = (world_tform_gpe.z - world_tform_points[:, :, 2]) < ground_tolerance  
        # remove data below ground plane  
        new_depth_image[world_tform_points_mask] = 0  
        return new_depth_image  
     
     
    def get_distance_to_closest_object_depth(x_min, x_max, y_min, y_max, depth_scale, raw_depth_image,  
                                             histogram_bin_size=0.50, minimum_number_of_points=10,  
                                             max_distance=8.0):  
        """Make a histogram of distances to points in the cloud and take the closest distance with  
        enough points.  
       
        Args:  
            x_min (int): minimum x coordinate (column) of object to find  
            x_max (int): maximum x coordinate (column) of object to find  
            y_min (int): minimum y coordinate (row) of object to find  
            y_max (int): maximum y coordinate (row) of object to find  
            depth_scale (float): depth scale of the image to convert from sensor value to meters  
            raw_depth_image (np.array): matrix of depth pixels  
            histogram_bin_size (float): size of each bin of distances  
            minimum_number_of_points (int): minimum number of points before returning depth  
            max_distance (float): maximum distance to object in meters  
        """  
        num_bins = math.ceil(max_distance / histogram_bin_size)  
     
        # get a sub-rectangle of the bounding box out of the whole image, then flatten  
        obj_depths = (raw_depth_image[y_min:y_max, x_min:x_max]).flatten()  
        obj_depths = obj_depths / depth_scale  
        obj_depths = obj_depths[obj_depths != 0]  
     
        hist, hist_edges = np.histogram(obj_depths, bins=num_bins, range=(0, max_distance))  
     
        edges_zipped = zip(hist_edges[:-1], hist_edges[1:])  
        # Iterate over the histogram and return the first distance with enough points.  
        for entry, edges in zip(hist, edges_zipped):  
            if entry > minimum_number_of_points:  
                filtered_depths = obj_depths[(obj_depths > edges[0]) & (obj_depths < edges[1])]  
                if len(filtered_depths) == 0:  
                    continue  
                return np.mean(filtered_depths)  
     
        return max_distance  
     
     
    def rotate_about_origin_degrees(origin, point, angle):  
        """  
        Rotate a point counterclockwise by a given angle around a given origin.  
       
        Args:  
            origin (tuple): Origin to rotate the point around  
            point (tuple): Point to rotate  
            angle (float): Angle in degrees  
        """  
        return rotate_about_origin(origin, point, math.radians(angle))  
     
     
    def rotate_about_origin(origin, point, angle):  
        """  
        Rotate a point counterclockwise by a given angle around a given origin.  
       
        Args:  
            origin (tuple): Origin to rotate the point around  
            point (tuple): Point to rotate  
            angle (float): Angle in radians  
        """  
        orig_x, orig_y = origin  
        pnt_x, pnt_y = point  
     
        ret_x = orig_x + math.cos(angle) * (pnt_x - orig_x) - math.sin(angle) * (pnt_y - orig_y)  
        ret_y = orig_y + math.sin(angle) * (pnt_x - orig_x) + math.cos(angle) * (pnt_y - orig_y)  
        return int(ret_x), int(ret_y)  
     
     
    def get_object_position(world_tform_cam, world_tform_gpe, visual_dims, depth_image, bounding_box,  
                            rotation_angle):  
        """  
        Extract the bounding box, then find the mode in that region.  
       
        Args:  
            world_tform_cam (SE3Pose): SE3 transform from world to camera frame  
            visual_dims (Tuple): (cols, rows) tuple from the visual image  
            depth_image (ImageResponse): From a depth camera corresponding to the visual_image  
            bounding_box (list): Bounding box from tensorflow  
            rotation_angle (float): Angle (in degrees) to rotate depth image to match cam image rotation  
        """  
     
        # Make sure there are two images.  
        if visual_dims is None or depth_image is None:  
            # Fail.  
            return  
     
        # Rotate bounding box back to original frame  
        points = [(bounding_box[1], bounding_box[0]), (bounding_box[3], bounding_box[0]),  
                  (bounding_box[3], bounding_box[2]), (bounding_box[1], bounding_box[2])]  
     
        origin = (visual_dims[0] / 2, visual_dims[1] / 2)  
     
        points_rot = [rotate_about_origin_degrees(origin, point, rotation_angle) for point in points]  
     
        # Get the bounding box corners.  
        y_min = max(0, min([point[1] for point in points_rot]))  
        x_min = max(0, min([point[0] for point in points_rot]))  
        y_max = min(visual_dims[1], max([point[1] for point in points_rot]))  
        x_max = min(visual_dims[0], max([point[0] for point in points_rot]))  
     
        # Check that the bounding box is valid.  
        if (x_min < 0 or y_min < 0 or x_max > visual_dims[0] or y_max > visual_dims[1]):  
            print(f'Bounding box is invalid: ({x_min}, {y_min}) | ({x_max}, {y_max})')  
            print(f'Bounds: ({visual_dims[0]}, {visual_dims[1]})')  
            return  
     
        # Unpack the images.  
        try:  
            if depth_image.shot.image.pixel_format == image_pb2.Image.PIXEL_FORMAT_DEPTH_U16:  
                dtype = np.uint16  
            else:  
                dtype = np.uint8  
            img = np.fromstring(depth_image.shot.image.data, dtype=dtype)  
            if depth_image.shot.image.format == image_pb2.Image.FORMAT_RAW:  
                img = img.reshape(depth_image.shot.image.rows, depth_image.shot.image.cols)  
            else:  
                img = cv2.imdecode(img, -1)  
            depth_image_pixels = img  
            depth_image_pixels = remove_ground_from_depth_image(  
                depth_image_pixels, depth_image.source.pinhole.intrinsics.focal_length,  
                depth_image.source.pinhole.intrinsics.principal_point, world_tform_cam, world_tform_gpe)  
            # Get the depth data from the region in the bounding box.  
            max_distance = 8.0  
            depth = get_distance_to_closest_object_depth(x_min, x_max, y_min, y_max,  
                                                         depth_image.source.depth_scale,  
                                                         depth_image_pixels, max_distance=max_distance)  
     
            if depth >= max_distance:  
                # Not enough depth data.  
                print('Not enough depth data.')  
                return False  
            else:  
                print(f'distance to object: {depth}')  
     
            center_x = round((x_max - x_min) / 2.0 + x_min)  
            center_y = round((y_max - y_min) / 2.0 + y_min)  
     
            tform_x, tform_y, tform_z = depth_to_xyz(  
                depth, center_x, center_y, depth_image.source.pinhole.intrinsics.focal_length,  
                depth_image.source.pinhole.intrinsics.principal_point)  
            camera_tform_obj = SE3Pose(tform_x, tform_y, tform_z, Quat())  
     
            return world_tform_cam * camera_tform_obj  
        except Exception as exc:  # pylint: disable=broad-except  
            print(f'Error getting object position: {exc}')  
            return  
     
     
    def _check_model_path(model_path):  
        if model_path is None or \  
        not os.path.exists(model_path) or \  
        not os.path.isfile(model_path):  
            print(f'ERROR, could not find model file {model_path}')  
            return False  
        return True  
     
     
    def _check_and_load_json_classes(config_path):  
        if os.path.isfile(config_path):  
            with open(config_path) as json_classes:  
                global COCO_CLASS_DICT  # pylint: disable=global-statement  
                COCO_CLASS_DICT = json.load(json_classes)  
     
     
    def _find_highest_conf_source(processed_boxes_entry):  
        highest_conf_source = None  
        max_score = 0  
        for key, capture in processed_boxes_entry.items():  
            if 'scores' in capture.keys():  
                if len(capture['scores']) > 0 and capture['scores'][0] > max_score:  
                    highest_conf_source = key  
                    max_score = capture['scores'][0]  
        return highest_conf_source  
     
     
    def signal_handler(signal, frame):  
        print('Interrupt caught, shutting down')  
        SHUTDOWN_FLAG.value = 1  
     
     
    def main():  
        """Command line interface."""  
     
        parser = argparse.ArgumentParser()  
        parser.add_argument(  
            '--model-path', default='/model.pb', help=  
            ('Local file path to the Tensorflow model, example pre-trained models can be found at '  
             'https://github.com/tensorflow/models/blob/master/research/object_detection/g3doc/tf1_detection_zoo.md'  
            ))  
        parser.add_argument('--classes', default='/classes.json', type=str,  
                            help='File containing json mapping of object class IDs to class names')  
        parser.add_argument('--number-tensorflow-processes', default=1, type=int,  
                            help='Number of Tensorflow processes to run in parallel')  
        parser.add_argument('--detection-threshold', default=0.7, type=float,  
                            help='Detection threshold to use for Tensorflow detections')  
        parser.add_argument(  
            '--sleep-between-capture', default=0.2, type=float,  
            help=('Seconds to sleep between each image capture loop iteration, which captures '  
                  'an image from all cameras'))  
        parser.add_argument(  
            '--detection-class', default=1, type=int,  
            help=('Detection classes to use in the Tensorflow model.'  
                  'Default is to use 1, which is a person in the Coco dataset'))  
        parser.add_argument(  
            '--max-processing-delay', default=7.0, type=float,  
            help=('Maximum allowed delay for processing an image. '  
                  'Any image older than this value will be skipped'))  
        parser.add_argument('--test-mode', action='store_true',  
                            help='Run application in test mode, don\'t execute commands')  
     
        bosdyn.client.util.add_base_arguments(parser)  
        bosdyn.client.util.add_payload_credentials_arguments(parser)  
        options = parser.parse_args()  
        signal.signal(signal.SIGINT, signal_handler)  
        try:  
            # Make sure the model path is a valid file  
            if not _check_model_path(options.model_path):  
                return False  
     
            # Check for classes json file, otherwise use the COCO class dictionary  
            _check_and_load_json_classes(options.classes)  
     
            global TENSORFLOW_PROCESS_BARRIER  # pylint: disable=global-statement  
            TENSORFLOW_PROCESS_BARRIER = Barrier(options.number_tensorflow_processes + 1)  
            # Start Tensorflow processes  
            tf_processes = start_tensorflow_processes(options.number_tensorflow_processes,  
                                                      options.model_path, options.detection_class,  
                                                      options.detection_threshold,  
                                                      options.max_processing_delay)  
     
            # sleep to give the Tensorflow processes time to initialize  
            try:  
                TENSORFLOW_PROCESS_BARRIER.wait()  
            except BrokenBarrierError as exc:  
                print(f'Error waiting for Tensorflow processes to initialize: {exc}')  
                return False  
            # Start the API related things  
     
            # Create robot object with a world object client  
            sdk = bosdyn.client.create_standard_sdk('SpotFollowClient')  
            robot = sdk.create_robot(options.hostname)  
     
            if options.payload_credentials_file:  
                robot.authenticate_from_payload_credentials(  
                    *bosdyn.client.util.get_guid_and_secret(options))  
            else:  
                bosdyn.client.util.authenticate(robot)  
     
            # Time sync is necessary so that time-based filter requests can be converted  
            robot.time_sync.wait_for_sync()  
     
            # Verify the robot is not estopped and that an external application has registered and holds  
            # an estop endpoint.  
            assert not robot.is_estopped(), 'Robot is estopped. Please use an external E-Stop client,' \  
                                            ' such as the estop SDK example, to configure E-Stop.'  
     
            # Create the sdk clients  
            robot_state_client = robot.ensure_client(RobotStateClient.default_service_name)  
            robot_command_client = robot.ensure_client(RobotCommandClient.default_service_name)  
            lease_client = robot.ensure_client(LeaseClient.default_service_name)  
            image_client = robot.ensure_client(ImageClient.default_service_name)  
            source_list = get_source_list(image_client)  
            image_task = AsyncImage(image_client, source_list)  
            robot_state_task = AsyncRobotState(robot_state_client)  
            task_list = [image_task, robot_state_task]  
            _async_tasks = AsyncTasks(task_list)  
            print('Detect and follow client connected.')  
     
            lease = lease_client.take()  
            lease_keep = LeaseKeepAlive(lease_client)  
            # Power on the robot and stand it up  
            resp = robot.power_on()  
            try:  
                blocking_stand(robot_command_client)  
            except CommandFailedError as exc:  
                print(f'Error ({exc}) occurred while trying to stand. Check robot surroundings.')  
                return False  
            except CommandTimedOutError as exc:  
                print(f'Stand command timed out: {exc}')  
                return False  
            print('Robot powered on and standing.')  
            params_set = get_mobility_params()  
     
            # This thread starts the async tasks for image and robot state retrieval  
            update_thread = Thread(target=_update_thread, args=[_async_tasks])  
            update_thread.daemon = True  
            update_thread.start()  
            # Wait for the first responses.  
            while any(task.proto is None for task in task_list):  
                time.sleep(0.1)  
     
            # Start image capture process  
            image_capture_thread = Process(target=capture_images,  
                                           args=(image_task, options.sleep_between_capture),  
                                           daemon=True)  
            image_capture_thread.start()  
            while not SHUTDOWN_FLAG.value:  
                # This comes from the tensorflow processes and limits the rate of this loop  
                try:  
                    entry = PROCESSED_BOXES_QUEUE.get_nowait()  
                except Empty:  
                    continue  
                # find the highest confidence bounding box  
                highest_conf_source = _find_highest_conf_source(entry)  
                if highest_conf_source is None:  
                    # no boxes or scores found  
                    continue  
                capture_to_use = entry[highest_conf_source]  
                raw_time = capture_to_use['raw_image_time']  
                time_gap = time.time() - raw_time  
                if time_gap > options.max_processing_delay:  
                    continue  # Skip image due to delay  
     
                # Find the transform to the highest confidence object using the depth sensor  
                get_object_position_start = time.time()  
                robot_state = robot_state_task.proto  
                world_tform_gpe = get_a_tform_b(robot_state.kinematic_state.transforms_snapshot,  
                                                VISION_FRAME_NAME, GROUND_PLANE_FRAME_NAME)  
                world_tform_object = get_object_position(  
                    capture_to_use['world_tform_cam'], world_tform_gpe, capture_to_use['visual_dims'],  
                    capture_to_use['depth_image'], capture_to_use['boxes'][0],  
                    ROTATION_ANGLES[capture_to_use['source']])  
                get_object_position_end = time.time()  
                print(f'system_cap_time: {capture_to_use["system_cap_time"]}, '  
                      f'image_queued_time: {capture_to_use["image_queued_time"]}, '  
                      f'processed_image_start_time: {capture_to_use["processed_image_start_time"]}, '  
                      f'processed_image_end_time: {capture_to_use["processed_image_end_time"]}, '  
                      f'get_object_position_start_time: {get_object_position_start}, '  
                      f'get_object_position_end_time: {get_object_position_end}, ')  
     
                # get_object_position can fail if there is insufficient depth sensor information  
                if not world_tform_object:  
                    continue  
     
                scores = capture_to_use['scores']  
                print(f'Position of object with confidence {scores[0]}: {world_tform_object}')  
                print(f'Process latency: {time.time() - capture_to_use["system_cap_time"]}')  
                tag_cmd = get_go_to(world_tform_object, robot_state, params_set)  
                end_time = 15.0  
                if tag_cmd is not None:  
                    if not options.test_mode:  
                        print('executing command')  
                        robot_command_client.robot_command(lease=None, command=tag_cmd,  
                                                           end_time_secs=time.time() + end_time)  
                    else:  
                        print('Running in test mode, skipping command.')  
     
            # Shutdown lease keep-alive and return lease gracefully.  
            lease_keep.shutdown()  
            lease_client.return_lease(lease)  
            return True  
        except Exception as exc:  # pylint: disable=broad-except  
            LOGGER.error('Spot Tensorflow Detector threw an exception: %s', exc)  
            # Shutdown lease keep-alive and return lease gracefully.  
            return False   
     
     
    if __name__ == '__main__':  
        if not main():  
            sys.exit(1)

    Israël figure dans la liste des plus gros consommateurs de solutions d’intelligence artificielle destinées à la guerre

    En septembre 2022, l'armée israélienne a commencé à installer une arme automatique à un poste de contrôle très fréquenté de la ville d'Hébron (Al-Khalil), en Cisjordanie occupée. Les tourelles jumelles ont été installées au sommet d'une tour de garde surplombant le camp de réfugiés d'Al-Aroub. « Elle tire toute seule sans intervention de la part du soldat. Quand un soldat israélien voit un petit garçon, il appuie sur un bouton ou quelque chose comme ça et elle tire toute seule. Elle est très rapide, même plus rapide que les soldats. Les bombes lacrymogènes qu'il tire peuvent atteindre l'extrémité du camp et tout le reste », a déclaré un résident du camp.

    La tourelle télécommandée a été développée par la société de défense israélienne Smart Shooter, qui a mis au point un système de contrôle de tir autonome appelé SMASH, qui peut être fixé sur des fusils d'assaut pour suivre et verrouiller des cibles à l'aide d'un traitement d'image basé sur l'intelligence artificielle. Le site Web de la société appelle ce système "One Shot-One Hit" (qui pourrait être traduit en français par : "un tir - un succès". Elle se vante d'avoir réussi à "combiner un matériel simple à installer avec un logiciel de traitement d'image avancé pour transformer des armes légères de base en armes intelligentes du XXIe siècle".

    La société affirme que la technologie SMASH permet de surmonter les défis auxquels sont confrontés les soldats lors des batailles, tels que l'effort physique, la fatigue, le stress et la pression mentale pour viser avec précision et assurer le succès du tireur. « Notre objectif est de permettre à tous les corps d'infanterie de bénéficier des armes de précision. Quelle que soit l'expérience ou la mission du soldat, notre système lui permet de ne pas faire d'erreur lorsqu'il tire et de toucher la cible sans faute. Tout soldat devient un véritable tireur d'élite », a déclaré Michal Mor, fondateur et PDG de Smart Shooter, lors d'une interview en 2020.

    La tourelle vue à Hébron n'est pas annoncée sur le site Web de l'entreprise israélienne, mais deux autres tourelles automatisées, 'SMASH HOPPER' et 'SMASH HOPPER P', sont équipées de fusils d'assaut et du système Smart Shooter. « Le HOPPER peut être monté dans plusieurs configurations, notamment sur un trépied, un mât fixe, un navire de surface et des véhicules », indique le site Web de l'entreprise. Dans l'ensemble, l'entreprise indique que la technologie SMASH est censée améliorer l'efficacité des missions en engageant avec précision et en éliminant les cibles terrestres, aériennes, statiques ou mobiles, de jour comme de nuit.

    « Habituellement, le terroriste se trouve dans un environnement civil avec de nombreuses personnes que nous ne voulons pas blesser. Nous permettons au soldat de regarder à travers son système de contrôle de tir, pour s'assurer que la cible qu'il veut atteindre est la cible légitime. Une fois qu'il aura verrouillé la cible, le système s'assurera que la balle sera libérée lorsqu'il appuiera sur la gâchette, uniquement sur la cible légitime et qu'aucun des passants ne pourra être touché par l'arme », a déclaré Mor. Les militants des droits de l'homme s'inquiètent de "la déshumanisation numérique des systèmes d'armes".

    Selon les médias locaux, l'armée israélienne a déclaré qu'elle teste la possibilité d'utiliser le système pour appliquer des méthodes approuvées de dispersion de la foule, qui n'incluent pas le tir de balles réelles. « Dans le cadre des préparatifs améliorés de l'armée pour faire face aux personnes qui perturbent l'ordre dans la région, elle examine la possibilité d'utiliser des systèmes télécommandés pour employer des mesures approuvées de dispersion de foule. Cela n'inclut pas le contrôle à distance de tirs à balles réelles », explique un porte-parole de l'armée israélienne. Mais cela n'a pas suffi à calmer les craintes des militants des droits de l'homme.

    L'armée israélienne a également précisé qu'au cours de sa phase pilote, le système n'utilisera que des balles à pointe éponge. Cependant, des experts ont signalé qu'à plusieurs reprises, des balles à pointe éponge ont causé des blessures permanentes à des personnes en Cisjordanie occupée et en Israël, certaines ayant même perdu leurs yeux. Des militants des droits de l'homme d'Hébron ont exprimé leur inquiétude quant à la défaillance du système qui pourrait avoir un impact sur de nombreuses personnes, notant que le système a été placé au centre d'une zone fortement peuplée, avec des centaines de personnes passant à proximité.

    En outre, les militants des droits de l'homme, ainsi que d'autres critiques, affirment également que ce dispositif est un nouvel exemple de l'utilisation par Israël des Palestiniens comme cobayes, ce qui lui permettrait de commercialiser sa technologie militaire comme testée sur le terrain auprès des gouvernements du monde entier. « Je vois cela comme une transition du contrôle humain au contrôle technologique. En tant que Palestiniens, nous sommes devenus un objet d'expérimentation et de formation pour l'industrie militaire israélienne de haute technologie, qui n'est pas responsable de ce qu'elle fait », a déclaré un habitant de la région.

    Les armes létales autonomes sont de plus en plus utilisées dans le monde. Les drones, notamment les drones kamikazes, sont largement utilisés de l'Ukraine en l'Éthiopie et les armes télécommandées ont été utilisées par les États-Unis en Irak, par la Corée du Sud le long de la frontière avec la Corée du Nord et par les rebelles syriens. Par ailleurs, la dépendance de l'armée israélienne à l'égard des systèmes automatisés s'est accrue au fils des ans. Ces dernières années, Israël a adopté de plus en plus de systèmes automatisés à des fins militaires, dont certains sont controversés. Cela comprend des robots et des chars d'assaut dotés d'une intelligence artificielle.

    L'année dernière, un rapport a révélé qu'Israël avait déployé un système élaboré de caméras en Cisjordanie occupée pour contrôler et surveiller les Palestiniens. Ces caméras seraient reliées à une base de données appelée "Blue Wolf". La base de données comprendrait des détails et des photos des Palestiniens, notamment les numéros d'identité, l'âge, le sexe, l'adresse, les numéros de plaque d'immatriculation, les liens avec d'autres individus, le statut professionnel en Israël et les impressions négatives que les soldats ont du comportement d'un Palestinien lorsqu'ils le rencontrent. Hébron aurait été l'une des premières villes à utiliser ce système.

    Selon d'autres rapports, en 2018, l'armée israélienne a commencé à utiliser un drone capable de lancer des gaz lacrymogènes pour disperser les manifestants dans la bande de Gaza. En 2021, même la police israélienne aurait commencé à employer de tels drones contre des manifestants en Israël. Dans ce contexte, beaucoup estiment que le déploiement des armes létales autonomes va davantage s'accélérer. Elon Musk, PDG de Tesla, affirme : « les drones autonomes sont le futur. Ce n’est pas que je veuille que l’avenir soit ainsi fait, mais c’est juste que c’est inéluctable. L’ère des avions de chasse est révolue ».

    En Europe, Milrem Robotics, leader européen en matière de robotique et de systèmes autonomes, a partagé en juin dernier une vidéo mettant en scène un char doté d'une IA qui fait exploser des voitures et d'autres cibles. L'entrepreneur a déclaré que le char, baptisé Type-X, est conçu pour permettre aux troupes de "percer les positions défensives de l'ennemi avec un risque minimal". Il devrait fournir aux troupes "une puissance de feu et une utilisation tactique égales ou supérieures à celles d'une unité équipée de véhicules de combat d'infanterie". Les critiques ont déclaré que la démonstration reflète un futur dystopique de la guerre.

    « Vous avez du sang sur les mains » : des employés interrompent la célébration des 50 ans de Microsoft pour dénoncer l'usage militaire de son IA

    Le 4 avril 2025, lors de la célébration du 50ᵉ anniversaire de Microsoft à son siège de Redmond, Washington, l'événement a été marqué par des protestations d'employés dénonçant les liens de l'entreprise avec l'armée israélienne.

    Alors que Mustafa Suleyman, PDG de la division IA de Microsoft, présentait des mises à jour sur le produit Copilot, Ibtihal Aboussad, employée de Microsoft, a interrompu la présentation en s'avançant vers la scène. Elle a accusé Suleyman et l'entreprise de complicité dans les actions militaires en cours au Moyen-Orient, déclarant :

    « Honte à vous ! Vous êtes un profiteur de guerre. Arrêtez d'utiliser l'IA pour le génocide. Arrêtez d'utiliser l'IA pour le génocide dans notre région. Vous avez du sang sur les mains. Tout Microsoft a du sang sur les mains. Comment osez-vous célébrer alors que Microsoft tue des enfants ? Honte à vous tous ».
    Peu après avoir été expulsée de l'événement organisé par Microsoft, Aboussad a envoyé un courriel à un certain nombre de listes de distribution de courriels contenant des centaines ou des milliers d'employés de Microsoft. En voici un extrait :

    « Bonjour à tous,

    « Comme vous venez peut-être de le voir sur le livestream ou en personne, j'ai perturbé le discours de Mustafa Suleyman, PDG de Microsoft AI, lors de la célébration très attendue du 50e anniversaire de l'entreprise. Voici pourquoi.

    « Je m'appelle Ibtihal et, depuis trois ans et demi, je suis ingénieur logiciel au sein de la plateforme d'IA de Microsoft. J'ai pris la parole aujourd'hui parce qu'après avoir appris que mon organisation alimentait le génocide de mon peuple en Palestine, je n'ai pas vu d'autre choix moral. C'est d'autant plus vrai que j'ai été témoin de la façon dont Microsoft a essayé d'étouffer et de supprimer toute dissidence de la part de mes collègues qui ont tenté de soulever cette question. Depuis un an et demi, la communauté arabe, palestinienne et musulmane de Microsoft est réduite au silence, intimidée, harcelée et victime de doxxage, en toute impunité de la part de Microsoft. Les tentatives de prise de parole sont au mieux tombées dans l'oreille d'un sourd, et au pire, ont conduit au licenciement de deux employés pour avoir simplement organisé une veillée. Il n'y avait tout simplement pas d'autre moyen de se faire entendre (...).

    « Nous sommes complices

    « Lorsque j'ai rejoint AI Platform, j'étais enthousiaste à l'idée de contribuer à la technologie de pointe de l'IA et à ses applications pour le bien de l'humanité : produits d'accessibilité, services de traduction et outils pour "permettre à chaque être humain et à chaque organisation d'accomplir davantage". Je n'ai pas été informée que Microsoft vendrait mon travail à l'armée et au gouvernement israéliens, dans le but d'espionner et d'assassiner des journalistes, des médecins, des travailleurs humanitaires et des familles civiles entières. Si j'avais su que mon travail sur les scénarios de transcription permettrait d'espionner et de transcrire des appels téléphoniques pour mieux cibler les Palestiniens (source), je n'aurais pas rejoint cette organisation et contribué à un génocide. Je n'ai pas signé pour écrire un code qui viole les droits de l'homme.

    « Selon AP news, il existe "un contrat de 133 millions de dollars entre Microsoft et le ministère israélien de la Défense". "L'utilisation par l'armée israélienne de l'intelligence artificielle de Microsoft et d'OpenAI a grimpé en mars dernier à près de 200 fois plus qu'avant la semaine précédant l'attaque du 7 octobre. La quantité de données stockées sur les serveurs Microsoft a doublé entre cette date et juillet 2024, pour atteindre plus de 13,6 pétaoctets" ».


    C’est la raison de la demande du Pape aux dirigeants du G7 d’interdire l’utilisation d’armes autonomes

    Le pape François a prononcé un discours historique devant les dirigeants du G7, les exhortant à reconnaître qu'ils ont le pouvoir de décider si l'intelligence artificielle devient un outil terrifiant ou créatif, et leur demandant d'interdire l'utilisation d'armes autonomes dans les guerres. Sa sortie s’inscrit dans la suite du Rome Call for AI Ethics et de l’appel à un traité mondial contraignant pour réglementer l’intelligence artificielle.

    « Nous condamnerions l'humanité à un avenir sans espoir si nous retirions aux gens la capacité de prendre des décisions sur eux-mêmes et sur leur vie », a déclaré le Pape François lors du dernier sommet du G7 en Italie.

    « À la lumière de la tragédie que constituent les conflits armés, il est urgent de reconsidérer le développement et l'utilisation de dispositifs tels que les armes autonomes létales et, à terme, d'en interdire l'usage.

    Cela commence par un engagement effectif et concret à introduire un contrôle humain toujours plus important et adéquat. Aucune machine ne devrait jamais choisir de prendre la vie d'un être humain.

    Une telle mesure représenterait un affaiblissement du sens de l'humanité et du concept de dignité humaine », a-t-il ajouté.

    Source : OTAN

    Et vous ?

    Pour ou contre l'utilisation de l'IA à des fins militaires ? Si pour, à quel degré ou à quelles fins ? Si contre, pourquoi ?
    Êtes-vous surpris de la mise à contribution de l’intelligence artificielle sur les champs de bataille ?

    Voir aussi :

    Des représentants de 150 entreprises de la tech plaident contre les robots tueurs autonomes, lors d'une conférence internationale sur l'IA
    USA : le sous-secrétaire à la défense soulève l'importance d'associer l'intelligence artificielle à l'armée, évoquant une future course aux armes
    Des experts en IA boycottent un projet de robots tueurs d'une université en Corée du Sud, en partenariat avec le fabricant d'armes Hanwha Systems
    Non, l'IA de Google ne doit pas être au service de la guerre ! Plus de 3000 employés de Google protestent contre la collaboration avec le Pentagone
    Robots militaires : les États-Unis testent l'efficacité de leurs prototypes dans le Pacifique, l'armée irakienne présente son robot mitrailleur
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  17. #137
    Membre éprouvé Avatar de marsupial
    Homme Profil pro
    Retraité
    Inscrit en
    Mars 2014
    Messages
    1 828
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : Retraité

    Informations forums :
    Inscription : Mars 2014
    Messages : 1 828
    Par défaut
    Et les tirs sur Gaza qui ont fait plus de 45 000 morts et des centaines de milliers de blessés femmes, enfants, vieillards, le repérage et le guidage des bombes ont été faits par IA.

  18. #138
    Membre actif
    Profil pro
    Inscrit en
    Novembre 2003
    Messages
    117
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Novembre 2003
    Messages : 117
    Par défaut
    Aucune machine ne devrait jamais choisir de prendre la vie d'un être humain.
    Une telle mesure représenterait un affaiblissement du sens de l'humanité et du concept de dignité humaine
    Ah parce que tuer de ses propres mains c'est digne par contre ? Qu'est ce qu'il ne faut pas lire
    Je vous assure que le cadavre aurait préféré rester en vie, même si c'était un humain qui a décidé de la mise à mort.

Discussions similaires

  1. 52e classement des superordinateurs les plus puissants : les États-Unis occupent les deux premières places
    Par Patrick Ruiz dans le forum Programmation parallèle, calcul scientifique et de haute performance (HPC)
    Réponses: 7
    Dernier message: 14/11/2018, 14h00
  2. Réponses: 10
    Dernier message: 17/09/2014, 22h30
  3. Réponses: 25
    Dernier message: 11/12/2013, 09h22
  4. Réponses: 8
    Dernier message: 25/06/2013, 00h22
  5. Quelles sont les personnalités IT les plus puissantes au monde
    Par Gordon Fowler dans le forum Actualités
    Réponses: 5
    Dernier message: 06/11/2010, 11h27

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo