IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Invité
    Invité(e)
    Par défaut
    Bonsoir,

    L'Autriche veut des règles éthiques sur l'utilisation des robots tueurs dotés d'IA sur le champ de bataille

    Quel est votre avis sur le sujet ?
    De la part d'un pays "bien pensant" comme l'Autriche c'est louable ... et perdu d'avance. Les USA , la Russie , Israel , Chine, et j'en passe ne vont pas attendre des législations de "bien pensant" ...

    De forme rectangulaire et avec des marches de char, son sommet est équipé de capteurs, de caméras et d'un espace pour les armements. Cependant, la caractéristique la plus unique du Carmel se trouve à l'entrée de la trappe arrière, qui mène vers un espace rempli d'équipements que l'on trouve le plus souvent dans la chambre d'un “adolescent”.
    Le Carmel israelien me fait bien rire ... la réutilisation de vieux M113 avec un armement "neuf" rien de révolutionnaire ... Éventuellement "l'automatisation" de roulement et du tir .

    Les robots tueur devraient-ils être interdits ?
    On se réveille un peu tard . Dans la logique oui. Dans la réalité c'est bien plus compliqué. Puis bon les "robots tueurs" et autres armes , mêmes des automates "tueurs" ne dates pas d'hier ...

    Citation Envoyé par Ryu2000 Voir le message
    Ce serait chouette qu'on interdise aux états d'utiliser des robots contre leur peuple, par contre quand c'est la guerre il n'y a plus de règle.
    Exactement , faites ce que je dis pas ce que je fais quoi ...

    ONU. Soixante-dix ans après les Conventions de Genève, les violations du droit international humanitaire qui ravagent la vie des civils en temps de guerre illustrent un échec catastrophique

    Citation Envoyé par Ryu2000 Voir le message
    Les pays peuvent signer toutes les conventions que vous voulez, les puissances militaire comme les USA et Israël continueront de développer des armes en secret. Quoi que parfois les pays sortent d'un traité officiellement :
    Comme d'hab , l'UE et sa bien pensance ... pendant ce temps nos allier/ennemis prennent de l'avance ... USA , Russie, Chine ...

    Citation Envoyé par Ryu2000 Voir le message
    Il est probable que les armes autonomes jouent un rôle lors de la prochaine guerre mondiale. Les gouvernements investissent beaucoup dans l'IA militaire.
    Hé beh oui , des sommes délirantes même !

    Citation Envoyé par Jesus63 Voir le message
    Je me coucherais moins bête, mais je ne suis pas sûr de pouvoir dormir après avoir lu ceci...
    En librairie parfois je zieute des revues comme "défence internationale" ou alors des sites spécialisés qui parlent des armées du monde. On serait étonné de voir par moment , les décisions même discrètes de certains pays ...

  2. #2
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    10 264
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 10 264
    Par défaut
    Citation Envoyé par tanaka59 Voir le message
    Comme d'hab , l'UE et sa bien pensance ... pendant ce temps nos allier/ennemis prennent de l'avance ... USA , Russie, Chine ...
    Il doit y avoir des pays membre de l'UE qui sont en train d'augmenter leur budget militaire.
    L'armée française voit son budget poursuivre sa remontée en puissance
    En hausse pour la troisième année consécutive, le budget de la défense équivaut à un plan de relance pour l'industrie de la défense.
    L’Allemagne portera ses dépenses militaires à 2% du PIB d’ici 2031, promet Mme Kramp-Karrenbauer

    De toute façon je crois que les USA (OTAN) ont demandé aux autres pays d'augmenter leur budget militaire.
    Otan : les USA demandent aux pays de l'UE d'augmenter leurs budgets militaires
    La troisième guerre mondiale approche il faut se préparer un minimum. Même les Suisses préparent leur défense (parce que des gens vont essayer d'entrer en Suisse et il faut les en empêcher) : L'armée devrait obtenir 24 milliards pour 2020-2024.

    Citation Envoyé par tanaka59 Voir le message
    Hé beh oui , des sommes délirantes même !
    La FED créer des dollars à l'infini, les USA jouent avec un cheat code, quand t'as l'argent illimité tu peux injecter des milliards et des milliards sans aucune limite.

  3. #3
    Membre confirmé
    Homme Profil pro
    Consultant informatique
    Inscrit en
    Octobre 2012
    Messages
    82
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 49
    Localisation : Suisse

    Informations professionnelles :
    Activité : Consultant informatique
    Secteur : Finance

    Informations forums :
    Inscription : Octobre 2012
    Messages : 82
    Par défaut
    Citation Envoyé par Bill Fassinou Voir le message
    le pays affirme que seuls les humains doivent décider des questions de vie ou de mort
    Depuis quand les humains sont réellement capable d'une telle décision ?

    A travers toute la planète la notion même de vie ou de mort n'est pas unique.
    Rien qu'au US d'un état à un autre les conclusions sur la vie et la mort d'une personne sont différentes.

    Au moins avec une IA j'aurais l'impression d'une équité; Que si je pose mon arme celui en face ne vas pas me tirer dessus par nervosité.

  4. #4
    Membre émérite Avatar de stigma
    Homme Profil pro
    Créateur jeux vidéo
    Inscrit en
    Octobre 2003
    Messages
    1 130
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 75
    Localisation : France, Pas de Calais (Nord Pas de Calais)

    Informations professionnelles :
    Activité : Créateur jeux vidéo
    Secteur : Arts - Culture

    Informations forums :
    Inscription : Octobre 2003
    Messages : 1 130
    Par défaut
    Apocalypse 9-10

  5. #5
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 538
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 538
    Par défaut Plus de 60 pays appellent à une utilisation « responsable » de l'IA militaire
    Les États-Unis, la Chine et une soixantaine d'autres pays appellent à une utilisation « responsable » de l'IA militaire,
    les critiques soulignent que cette déclaration n'est pas juridiquement contraignante

    Plus de 60 pays, dont les États-Unis et la Chine, ont signé jeudi un modeste « appel à l'action » approuvant l'utilisation responsable de l'intelligence artificielle (IA) dans l'armée. Des experts des droits de l'homme et des universitaires ont noté que la déclaration n'était pas juridiquement contraignante et ne répondait pas à des préoccupations telles que les drones guidés par l'IA, les «slaughterbots» qui pourraient tuer sans intervention humaine ou le risque qu'une IA puisse aggraver un conflit militaire.

    Cependant, la déclaration était un résultat tangible du premier sommet international sur l'IA militaire, coorganisé par les Pays-Bas et la Corée du Sud à La Haye.

    Les signataires ont déclaré qu'ils s'étaient engagés à développer et à utiliser l'IA militaire conformément aux « obligations juridiques internationales et d'une manière qui ne porte pas atteinte à la sécurité, à la stabilité et à la responsabilité internationales ».


    La montée et l'avancement soudains des systèmes d'intelligence artificielle au cours des derniers mois ont fait craindre ses effets potentiellement néfastes sur la société. Non seulement l'IA pourrait menacer les emplois humains et la créativité, mais l'utilisation de machines intelligentes dans la guerre pourrait avoir des conséquences catastrophiques. Pour faire face au danger des « slaughterbots », le premier Sommet mondial sur l'intelligence artificielle responsable dans le domaine militaire (REAIM) s'est tenu la semaine dernière, ce qui a conduit les pays à signer un accord pour placer l'utilisation responsable de l'IA plus haut dans l'agenda politique.

    Le nom « slaughterbots » (également appelés « systèmes d'armes létales autonomes » ou « robots tueurs ») est le nom d'une vidéo de plaidoyer pour le contrôle des armements de 2017 présentant un scénario dramatisé dans un futur proche où des essaims de microdrones bon marché utilisent l'intelligence artificielle et la reconnaissance faciale pour assassiner des opposants politiques sur la base de critères préprogrammés. La vidéo a été publiée sur YouTube par le Future of Life Institute et Stuart Russell, professeur d'informatique à Berkeley, le 12 novembre 2017. La vidéo est rapidement devenue virale, gagnant plusieurs millions de vues. La vidéo a également été projetée lors de la réunion de novembre 2017 de la Convention des Nations Unies sur certaines armes classiques à Genève.


    Un autre scénario parle de l'époque où tout le monde disait que les IA embarqués dans les robots tueurs ne cibleraient que des militaires, etc. avant une catastrophe à l'échelle mondiale. Regardez plutôt.


    Un groupe de dirigeants gouvernementaux, universitaires et militaires du monde entier a passé ces derniers jours à parler de la nécessité d'aborder l'utilisation de l'intelligence artificielle dans la guerre.

    Leurs conclusions ? Nous devons agir maintenant pour éviter de réglementer l'IA seulement après qu'elle a provoqué une catastrophe humanitaire ou un crime de guerre.

    Le premier sommet mondial sur l'intelligence artificielle responsable dans le domaine militaire, ou REAIM, a réuni des représentants de plus de 60 pays (dont les États-Unis et la Chine) à La Haye aux Pays-Bas pour discuter et finalement signer un appel à l'action sur la manière de rendre responsable l'utilisation de l'IA dans l'armée.

    La Russie n'a pas participé.

    Les signataires ont convenu que l'accélération de l'utilisation de l'IA signifie qu'il est essentiel d'agir maintenant pour établir des normes militaires internationales en matière d'IA, ainsi que pour résoudre les problèmes de manque de fiabilité de l'IA, la responsabilité des humains dans le processus décisionnel de l'IA, les conséquences involontaires de l'utilisation de l'IA et l'escalade potentielle des risques.

    L'un des moyens par lesquels le sommet espère atteindre ses objectifs consiste à créer une commission mondiale sur l'IA qui sensibilisera à la manière dont l'IA peut et doit être utilisée dans le domaine militaire, et à la manière dont cette technologie peut être développée et déployée de manière responsable.

    Nom : realm.png
Affichages : 3830
Taille : 619,4 Ko

    L'appel à l'action, signé par tous les participants à l'exception d'Israël, a confirmé que les nations s'étaient engagées à développer et à utiliser l'IA militaire conformément aux « obligations juridiques internationales et d'une manière qui ne porte pas atteinte à la sécurité, à la stabilité et à la responsabilité internationales ».

    La sous-secrétaire d'État américaine au contrôle des armements, Bonnie Jenkins, a appelé à une utilisation responsable de l'IA dans les situations militaires. « Nous invitons tous les États à se joindre à nous pour mettre en œuvre les normes internationales, en ce qui concerne le développement militaire et l'utilisation de l'IA et des armes autonomes », a déclaré Jenkins. « Nous tenons à souligner que nous sommes ouverts à un engagement avec tout pays souhaitant nous rejoindre ».

    Le représentant de la Chine, Jian Tan, a déclaré au sommet que les pays devraient « s'opposer à la recherche d'un avantage militaire absolu et de l'hégémonie par le biais de l'IA » et travailler par l'intermédiaire des Nations Unies.


    Les avantages et les inconvénients ont été évoqués durant le sommet

    Parmi les autres problèmes que les signataires ont convenu d'aborder, citons la fiabilité de l'IA militaire, les conséquences imprévues de son utilisation, les risques d'escalade et la manière dont les humains doivent être impliqués dans le processus de prise de décision.

    En 2019, le DoD a déclaré que les humains auront toujours le dernier mot sur la question de savoir si les systèmes d'armes autonomes ouvrent le feu sur des cibles réelles. En ce qui concerne les conséquences involontaires mentionnées dans la déclaration, certains craignent que la poussée de l'Inde vers des systèmes militaires alimentés par l'IA ne conduise à une guerre nucléaire avec le Pakistan en raison du risque accru de frappes préventives.

    Certains participants ont noté les avantages de l'utilisation de l'IA dans les conflits, en particulier en Ukraine, où l'apprentissage automatique et d'autres technologies ont été utilisés pour repousser un agresseur plus grand et plus puissant.

    Une discussion lors du sommet était de savoir dans quelle mesure les humains seraient responsables des actions entreprises par les systèmes autonomes, la conclusion semblant pencher vers les personnes étant les décideurs finaux lorsqu'il s'agit de tirer un système autonome ou d'adopter une action recommandée par une IA.

    « Imaginez un missile frappant un immeuble d'habitation », a déclaré le vice-premier ministre néerlandais Wopke Hoekstra. « En une fraction de seconde, l'IA peut détecter son impact et indiquer où les survivants pourraient se trouver. Encore plus impressionnant, l'IA aurait pu intercepter le missile en premier lieu. Pourtant, l'IA a également le potentiel de détruire en quelques secondes ».

    Hoekstra a poursuivi en expliquant dans son discours d'ouverture du sommet comment le statut actuel de l'IA lui rappelait les règles de guerre internationales antérieures établies pour prévenir les violations des droits de l'homme. « L'interdiction d'étendre les balles dum-dum qui ont laissé des victimes avec des blessures horribles, l'interdiction des armes biologiques et chimiques et le traité pour empêcher la propagation des armes nucléaires pourraient tous être considérés comme des parallèles », a déclaré Hoekstra.

    Mais il y a une grande différence entre les règles édictées pour empêcher l'utilisation d'armes inhumaines et l'IA : les autorités envisagent déjà d'agir avant que le pire ne se produise. « Nous avons la possibilité d'étendre et de renforcer l'ordre juridique international et d'empêcher qu'il ne s'effondre », a déclaré Hoekstra.

    Quant au type d'applications vers lesquelles une utilisation responsable de l'IA pourrait être utilisée en temps de guerre, la ministre néerlandaise de la Défense Kajsa Ollongren a laissé entendre qu'il n'y avait aucune raison pour qu'elle ne puisse pas être utilisée pour sauver des vies : « Avec les cadres et la législation appropriés en place, l'utilisation de l'IA rendra nos processus opérationnels et logistiques plus simples et plus efficaces. De cette façon, non seulement nous protégeons nos propres troupes, mais nous pouvons également limiter les dommages et les pertes dans la mesure du possible », dit Ollongren.

    Des limitations légales à l'utilisation de l'IA

    Les critiques disent que la déclaration n'est pas juridiquement contraignante et ne répond pas à de nombreuses autres préoccupations concernant l'utilisation de l'IA dans les conflits militaires, y compris les drones guidés par l'IA.

    D'autres craintes concernant les nombreuses applications potentielles de l'IA dans la guerre ont été soulevées la semaine dernière après que Lockheed Martin a révélé que son nouveau jet d'entraînement avait été piloté par l'intelligence artificielle pendant plus de 17 heures, marquant la première fois que l'IA était engagée de cette manière sur un avion tactique. Ailleurs, l'ancien PDG de Google et président d'Alphabet, Eric Schmidt, a déclaré que l'intelligence artificielle pourrait avoir un effet similaire sur les guerres comme l'introduction des armes nucléaires.

    La conférence intervient alors que l'intérêt pour l'IA est à son plus haut niveau grâce au lancement du programme ChatGPT d'OpenAI et que l'Ukraine a utilisé la reconnaissance faciale et les systèmes de ciblage assisté par l'IA dans sa lutte contre la Russie.

    Les organisateurs n'ont pas invité la Russie après son invasion de l'Ukraine en 2022, que Moscou appelle une « opération militaire spéciale ». L'Ukraine n'a pas participé.

    Israël a participé à la conférence, mais n'a pas signé la déclaration.

    La sous-secrétaire d'État américaine au contrôle des armements, Bonnie Jenkins, a proposé un cadre américain pour une utilisation militaire responsable de l'IA. Les États-Unis et d'autres pays puissants ont été réticents à accepter des limitations légales à l'utilisation de l'IA, de peur que cela ne les désavantage par rapport à leurs rivaux.

    En 2021, le comité d'éthique de l'armée française disait « non, mais » aux « robots tueurs »

    « Non » aux systèmes d’armes létaux pleinement autonomes (SALA), parfois résumés sous l’appellation « robots tueurs », mais la porte reste ouverte aux armes robotisées pilotées par l’homme. C’est en substance le contenu d’un avis rendu le 29 avril 2021 par le comité d’éthique de la défense, une structure de réflexion adossée au ministère français des Armées pour le conseiller sur les sujets les plus sensibles. Les membres de cette structure indépendante approuvent ainsi l’introduction d’une certaine dose d’autonomie dans les systèmes d’armes, mais pas question d'entériner le principe de « robots tueurs », qui excluent tout contrôle humain. Ces robots, boostés par l’intelligence artificielle, utilisent eux-mêmes un logiciel intégré pour trouver et frapper des cibles.

    Les conclusions du Comité sont claires : l'emploi par les forces armées de systèmes d'armes létales autonomes serait « absolument contraire au principe constitutionnel de nécessaire libre disposition de la force armée et au principe de continuité de la chaîne de commandement ». Par conséquent, l'emploi des SALA ne peut qu’être refusé tout comme la fabrication et l’exportation.

    Soit le rejet de l’utilisation, sur un théâtre de guerre, de toute forme d’arme programmée dont l’homme n’aurait pas la maîtrise complète. Ces systèmes sont acceptables à condition qu'ils soient toujours supervisés par l'Homme. En revanche, les systèmes d'armes létales complètement autonomes, qui excluent tout contrôle humain, pourraient donc se révéler dangereux et doivent être interdits. « La France confirme qu’elle ne développera et n’emploiera pas » de SALA, écrivent ainsi les dix-huit membres civils et militaires de ce comité où siège notamment l’ancien chef d’état-major des armées, le général Henri Bentégeat.

    Le comité d’éthique de la défense ne voit ainsi pas d’objection à l’introduction d’une certaine dose d’autonomie et donc de recours aux SALIA (systèmes d’armes létaux intégrant de l’autonomie). Ce qui distinguerait les SALA des SALIA, « c'est une différence de nature qui tient à la place de l'humain dans certaines fonctions critiques », peut-on lire dans le rapport.

    Les SALA ont été conçu pour faire évoluer ses propres règles de fonctionnement et redéfinir tout seul sa mission. Ils se passent ainsi de l’appréciation de la situation par le commandement. Les SALIA peuvent se voir attribuer la responsabilité et l’exécution de certaines tâches de façon autonome, mais de manière temporaire et uniquement pour des missions d’identification, de classification, d’interception ou d’engagement. Le comité d’éthique précise bien qu’ils ne peuvent prendre d’initiatives létales sans contrôle humain.

    La présence de robots aux côtés des combattants ne relève plus depuis longtemps de la science-fiction, pas plus que les systèmes automatisés. À terre ou sur mer, les missiles sol-air Aster sont capables d’identifier des cibles pénétrant leur périmètre de défense tout comme le système Phalanx CIWS sur les bâtiments américains.

    Conscient de la compétition qui s’est engagée à l’international et des risques de « décrochages » pour l’armée française, le comité ne ferme toutefois pas la porte à la recherche dans « les domaines de l’intelligence artificielle de défense et des automatismes dans les systèmes d’armes ». Les travaux doivent « se poursuivre », selon l’avis du comité, considérant qu’il s’agit aussi là d’un moyen de se « défendre contre ce type d’armes au cas, qui n’est pas improbable, où un État adverse ou un groupe terroriste entreprendrait de les employer contre nos troupes ou la population française ».

    La balle est maintenant dans le camp de la ministre des Armées qui doit examiner le texte attentivement avec ses équipes avant toute communication officielle.

    Source : REAIM 2023

    Et vous ?

    Pour ou contre l'utilisation de l'IA dans l'armée ? Pourquoi ?
    Que pensez-vous de la vidéo plaidoyer Slaughterbots ? A-t-elle, selon vous, la possibilité de devenir réalité ? Dans quelles conditions ?
    Laquelle des deux vidéos vous interpelle le plus ?
    Que pensez-vous de l'appel à l'action pour une utilisation « responsable » de l'IA militaire ?
    Étant donné que cet appel n'est pas contraignant, a-t-il, selon vous, une valeur ? Des vœux pieux à ce niveau ?
    D'ailleurs, qui va s'assurer que les pays respectent leurs engagements non contraignants ?
    Quelle lecture faites-vous de la situation ?

    Voir aussi :

    L'Europe estime qu'une IA ne doit pas avoir le droit de vie ou de mort sur le champ de bataille et appelle à interdire les robots tueurs
    L'Autriche veut des règles éthiques sur l'utilisation des robots tueurs dotés d'IA sur le champ de bataille, le pays affirme que seuls les humains doivent décider des questions de vie ou de mort
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  6. #6
    Membre chevronné Avatar de der§en
    Homme Profil pro
    Bretagne
    Inscrit en
    Septembre 2005
    Messages
    1 066
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Bretagne
    Secteur : Industrie

    Informations forums :
    Inscription : Septembre 2005
    Messages : 1 066
    Par défaut
    Si vis pacem, para bellum !

  7. #7
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 243
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 243
    Par défaut
    Des travailleurs de Google DeepMind font pression sur l'entreprise pour qu'elle abandonne les contrats militaires, dans un contexte de tensions croissantes concernant les relations de l'entreprise avec Israël.
    Et que proposent-ils contre les terroristes du Hamas? Ben rien, mon bon Monsieur!

    L'entreprise n'a pas à devenir le lieu de combat politique...

    Réaction prévisible de Google... Ces "travailleurs" ne seront tout simplement plus des "travailleurs Google" assez vite! Ils deviendront juste des "plaignants accusant en justice Google de licenciement abusif"

  8. #8
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 724
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 724
    Par défaut Le personnel de Google DeepMind tente de bloquer l'utilisation de l'IA par l'armée d'Israël en se syndiquant
    Le personnel de Google DeepMind tente de bloquer l'utilisation de l'IA par l'armée israélienne en se syndiquant, des centaines d'employés tentent d'empêcher la conclusion d'accords technologiques avec Israël

    Le personnel de Google DeepMind tente de se syndiquer en réponse à l'implication de l'entreprise dans la vente de technologies d'intelligence artificielle (IA) à des groupes liés au gouvernement israélien, selon le Financial Times (FT).

    Ces événements interviennent peu de temps après que Google a discrètement levé l'interdit sur l'IA militaire et supprimé son engagement à ne pas utiliser l'IA pour les armes. L'entreprise a en effet récemment mis à jour sa page publique sur les principes de l'IA, en supprimant la section « applications que nous ne poursuivrons pas » et en introduisant à la place des directives plus générales parlant de supervision humaine appropriée.

    Ce contexte a conduit les employés de Google DeepMind a intensifier leurs efforts pour faire pression sur l'entreprise afin qu'elle abandonne les contrats militaires, notamment en raison des inquiétudes suscitées par les liens avec Israël. Leurs actions s'inscrivent dans le cadre d'un mouvement mondial plus large, comprenant des manifestations devant les bureaux d'OpenAI et de Google, qui s'opposent à l'utilisation de l'IA à des fins militaires.

    Plus récemment, environ 300 employés londoniens de DeepMind, la division d'IA cofondée par le PDG Sir Demis Hassabis et dont le siège se trouve à King's Cross, cherchent à rejoindre le Communications Workers Union (CWU), selon des sources proches de l'affaire, comme l'a rapporté le FT.

    Cet effort de syndicalisation fait suite à des articles de presse suggérant que Google fournit ses services cloud et ses technologies d'IA au ministère israélien de la défense.

    Le gouvernement israélien a conclu un accord de 1,2 milliard de dollars avec Google et Amazon dans le cadre du projet Nimbus, qui a suscité des protestations ailleurs chez Google.

    Le FT a cité trois employés de DeepMind impliqués dans l'effort de syndicalisation, qui ont déclaré que les rapports sur l'implication de Google avec Israël avaient provoqué une « inquiétude » au sein du personnel.

    Les travailleurs seraient également mécontents de la décision de Google de supprimer l'engagement de ne pas utiliser l'IA à des fins d'armement ou de surveillance.


    DeepMind a subi des pressions de la part de Google pour trouver des applications commerciales à son IA, Sir Demis Hassabis suggérant que les entreprises des pays démocratiques devraient collaborer pour soutenir la sécurité.

    Le FT a fait référence à des articles de presse affirmant que les Forces de défense israéliennes (FDI) ont utilisé l'IA pour générer des cibles pour des attaques à Gaza. On ne sait toujours pas si les forces israéliennes utilisent une technologie achetée dans le commerce ou si elles développent leur propre logiciel à cette fin.

    Un ingénieur anonyme impliqué dans les efforts de syndicalisation a déclaré au FT : « Nous faisons le rapprochement et pensons que la technologie que nous développons est utilisée dans le conflit. »

    « Il s'agit en fait d'une IA de pointe que nous fournissons à un conflit en cours. Les gens ne veulent pas que leur travail soit utilisé de la sorte... ils se sentent dupés ».

    Selon certaines informations, cinq membres du personnel de DeepMind ont récemment démissionné, invoquant des préoccupations liées à l'accord sur le cloud avec Israël et à la mise à jour des politiques de Google en matière d'IA.

    Les efforts de syndicalisation interviennent après que Google a pris la décision, en février de cette année, de revenir sur son engagement de 2018 d'éviter de développer des technologies d'IA susceptibles de causer un préjudice généralisé, y compris celles utilisées pour les armes et à des fins militaires ou de surveillance.

    En mai dernier, près de 200 employés de DeepMind ont signé une lettre exhortant l'entreprise à rompre ses contrats avec des organisations militaires, craignant que cela n'enfreigne les directives de Google en matière d'IA.

    La lettre, datée du 16 mai 2024, stipulait : « Toute implication avec les militaires et la fabrication d'armes a un impact sur notre position de leader en matière d'IA éthique et responsable, et va à l'encontre de notre déclaration de mission et de nos principes déclarés en matière d'IA. »

    Les travailleurs concernés par la lettre ont tenu des réunions avec la direction, mais leurs demandes auraient été rejetées.

    Les principes actualisés de Google en matière d'IA stipulent désormais que l'entreprise procédera à des tests et à un suivi rigoureux afin d'atténuer les « résultats involontaires ou néfastes ».

    Google Cloud vend des services, notamment des technologies d'IA développées par DeepMind, à des gouvernements et des armées, dont Israël et les États-Unis.

    Un porte-parole de Google a déclaré au FT : « Notre approche est et a toujours été de développer et de déployer l'IA de manière responsable. Nous encourageons un dialogue constructif et ouvert avec tous nos employés. Au Royaume-Uni et dans le monde entier, les employés de Google font depuis longtemps partie de groupes de représentation des employés, de comités d'entreprise et de syndicats. »

    L'agitation croissante parmi les employés de Google DeepMind reflète des incidents similaires dans l'industrie technologique. Des tensions concernant l'implication des entreprises dans des projets militaires sont en effet apparues lors de l'événement organisé à l'occasion du 50e anniversaire de Microsoft, au cours duquel des employés ont protesté contre les liens de l'entreprise avec l'armée israélienne.

    Lors de l'événement, l'ingénieur logiciel Ibtihal Aboussad a publiquement interrompu une présentation de Mustafa Suleyman, PDG de Microsoft AI, le dénonçant comme un « profiteur de guerre » et critiquant l'implication de l'entreprise dans des projets à visée militaire. À la suite de cette protestation, Aboussad Ibtihal a été rapidement licenciée pour conduite inappropriée en contexte professionnel.

    Ces tensions surviennent alors que les dirigeants mondiaux sont aux prises avec les implications éthiques de l'IA dans les applications militaires. Lors d'un sommet international à La Haye, plus de 60 pays, dont les États-Unis et la Chine, ont signé une déclaration appelant à une utilisation responsable de l'IA militaire. Les critiques ont souligné les limites de cette déclaration, notamment l'absence de mesures contraignantes concernant les armes autonomes et les risques d'escalade induits par l'IA.

    Source : Rapport du Financial Times

    Et vous ?

    Quelle lecture faites-vous de cette situation ?
    Trouvez-vous les revendications des employés de Google DeepMind crédibles ou pertinentes ?

    Voir aussi :

    Projet Nimbus : Google aurait travaillé directement avec l'armée israélienne sur des outils d'IA près l'invasion de la bande de Gaza, l'entreprise avait affirmé ne travailler qu'avec des ministères civils

    Google licencie 28 employés ayant participé à une protestation contre un contrat de 1,2 Md $ visant à fournir des services cloud et d'IA à Israël, ils auraient violé les règles de l'entreprise

    Une employée de Google affirme avoir été mise à la porte après s'être opposée à un contrat cloud de 1,2 milliard de dollars avec Israël, elle aurait subi des représailles de la part de l'entreprise
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  9. #9
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    10 264
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 10 264
    Par défaut
    Citation Envoyé par Anthony Voir le message
    Plus récemment, environ 300 employés londoniens de DeepMind, la division d'IA cofondée par le PDG Sir Demis Hassabis et dont le siège se trouve à King's Cross, cherchent à rejoindre le Communications Workers Union (CWU), selon des sources proches de l'affaire, comme l'a rapporté le FT.

    Cet effort de syndicalisation fait suite à des articles de presse suggérant que Google fournit ses services cloud et ses technologies d'IA au ministère israélien de la défense.

    Le gouvernement israélien a conclu un accord de 1,2 milliard de dollars avec Google et Amazon dans le cadre du projet Nimbus, qui a suscité des protestations ailleurs chez Google.

    Le FT a cité trois employés de DeepMind impliqués dans l'effort de syndicalisation, qui ont déclaré que les rapports sur l'implication de Google avec Israël avaient provoqué une « inquiétude » au sein du personnel.

    Les travailleurs seraient également mécontents de la décision de Google de supprimer l'engagement de ne pas utiliser l'IA à des fins d'armement ou de surveillance.
    Les travailleurs qui n'aiment pas que l'IA de Google soit utilisé à des fins d'armement ne peuvent pas convaincre Google de ne pas le faire.
    Donc soit ils démissionnent, soit ils attendent de se faire virer.
    Google n'aura pas de mal à les remplacer.

    C'est sympa de se syndiquer et de critiquer son employeur, mais il y a peu de chance que ça fonctionne.

Discussions similaires

  1. Réponses: 7
    Dernier message: 06/04/2018, 12h48
  2. Développer une DLL pour postgresql.
    Par vaness7 dans le forum Extensions
    Réponses: 5
    Dernier message: 22/08/2011, 17h17
  3. Développer une extension pour Web browser
    Par Arrakis dans le forum Général Conception Web
    Réponses: 6
    Dernier message: 04/12/2008, 15h37
  4. Comment développer une application pour CE?
    Par highdata dans le forum VB.NET
    Réponses: 3
    Dernier message: 05/06/2007, 10h47
  5. développer une toolbar pour Internet Explorer
    Par Jérémy Lefevre dans le forum C++
    Réponses: 16
    Dernier message: 15/11/2006, 17h12

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo