IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 458
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 458
    Points : 197 853
    Points
    197 853
    Par défaut San Francisco revient sur son projet d'autoriser la police à déployer des robots capables de tuer des humains
    Les robots de la police de San Francisco sont autorisés à tuer dans des situations dangereuses,
    selon un projet de politique approuvé à l'unanimité

    Le département de police de San Francisco demande actuellement au conseil de surveillance de la ville l'autorisation de déployer des robots pour tuer des suspects que les forces de l'ordre considèrent comme une menace suffisante pour que « le risque de mort pour les membres du public ou les officiers soit imminent et l'emporte sur toute autre force option à la disposition de SFPD ».

    Cette proposition s'est d'abord heurtée à une forte opposition tant à l'intérieur qu'à l'extérieur du conseil de direction. Puis, le comité des règles composé de trois membres, présidé par Aaron Peskin, a approuvé à l'unanimité le projet et l'a soumis à l'ensemble du conseil de surveillance pour un vote le 29 novembre. Peskin a tenu à noter « qu'il pourrait y avoir des scénarios où l'utilisation de la force meurtrière serait la seule option ».


    Le département de police de San Francisco propose une nouvelle politique qui donnerait aux robots le droit de tuer. Le brouillon de cette politique, qui décrit comment le SFPD (San Francisco Police Department) peut utiliser des armes de type militaire, stipule que les robots peuvent être « utilisés comme une option de force meurtrière lorsque le risque de mort pour des membres du public ou des officiers est imminent et l'emporte sur toute autre option de force ».

    Les membres du comité des règles du conseil de surveillance de la ville examinent la nouvelle politique d'équipement depuis plusieurs semaines. La version originale du projet n'incluait aucun langage entourant l'utilisation de la force meurtrière par les robots jusqu'à ce qu'Aaron Peskin, le doyen du conseil de surveillance de la ville, ait initialement ajouté que « les robots ne doivent pas être utilisés comme recours à la force contre qui que ce soit ».

    Cependant, le SFPD a renvoyé le brouillon avec une ligne rouge barrant l'ajout de Peskin, le remplaçant par la ligne qui donne aux robots le pouvoir de tuer des suspects. Selon un média, Peskin a finalement décidé d'accepter le changement, car « il pourrait y avoir des scénarios où le déploiement d'une force létale est la seule option ». Le comité des règles de San Francisco a approuvé à l'unanimité une version du projet la semaine dernière, qui sera soumise au conseil de surveillance le 29 novembre.

    Comme indiqué dans la politique d'équipement, la SFPD dispose actuellement de 17 robots télépilotés, mais seuls 12 sont fonctionnels. En plus d'accorder aux robots la capacité d'utiliser la force meurtrière, la proposition les autorise également à être utilisés dans « la formation et les simulations, les arrestations criminelles, les incidents critiques, les circonstances urgentes, l'exécution d'un mandat ou lors d'évaluations d'appareils suspects ».

    Alors que la plupart des robots répertoriés dans l'inventaire du SFPD sont principalement utilisés pour désamorcer des bombes ou traiter des matières dangereuses, les nouveaux modèles Remotec ont un système d'armes en option, et le F5A existant du département dispose d'un outil appelé le disrupteur PAN qui peut charger un fusil de chasse de calibre 12. Il est généralement utilisé pour faire exploser des bombes à distance. Le QinetiQ Talon du département peut également être modifié pour contenir diverses armes (une version armée du robot est actuellement utilisée par l'armée américaine et peut être équipée de lance-grenades, de mitrailleuses ou même d'un fusil antimatériel de calibre 50).

    Nom : robots.png
Affichages : 6966
Taille : 319,2 Ko

    « La SFPD a toujours eu la capacité d'utiliser la force létale lorsque le risque de mort pour des membres du public ou des officiers est imminent et l'emporte sur toute autre option de force disponible », a déclaré l'officier du SFPD Eve Laokwansathitaya. « La SFPD n'a aucune sorte de plan spécifique en place, car les opérations inhabituellement dangereuses ou spontanées où le besoin de la SFPD de fournir une force mortelle grâce à un robot seraient une circonstance rare et exceptionnelle ».

    Le département de police de Dallas a utilisé un robot pour exercer une force meurtrière pour la première fois en 2016. Il a utilisé un robot de déminage (le même modèle Remotec F5A appartenant au SFPD) armé d'un engin explosif pour tuer un suspect qui a tué cinq policiers et en a blessé plusieurs autres. À l'époque, le chef de la police de Dallas, David Brown, a déclaré que le département « n'avait pas d'autre choix que d'utiliser notre robot de déminage et de placer un appareil sur son extension pour qu'il explose là où se trouvait le suspect ».

    Le mois dernier, un rapport a révélé que le département de police d'Oakland en Californie envisageait également de laisser les robots Remotec F5A équipés de fusils de chasse utiliser une force mortelle. Peu de temps après la publication du rapport, le département de police d'Oakland a annoncé sur Facebook qu'il avait décidé de ne pas ajouter de « véhicules télécommandés armés au département » :

    « Le département de police d'Oakland (OPD) n'ajoute pas de véhicules armés à distance au département. L'OPD a participé aux discussions du comité ad hoc avec la commission de police d'Oakland et les membres de la communauté pour explorer toutes les utilisations possibles du véhicule. Cependant, après d'autres discussions avec le chef et l'équipe de direction, le département a décidé qu'il ne voulait plus explorer cette option particulière ».

    Nom : oakland.png
Affichages : 2425
Taille : 12,7 Ko

    Pendant ce temps, un groupe de fabricants de robots, dont Boston Dynamics, a signé un engagement de ne pas armer leurs robots plus tôt cette année.

    Alors que San Francisco n'a jamais explicitement autorisé les robots à prendre des vies humaines, les armes létales autonomes sont de plus en plus courantes dans la guerre moderne. Les mines antipersonnel, l'une des premières itérations d'armes automatisées, sont interdites depuis 1997 (mais dites-le aux mines déjà dans le sol) et des défenses entièrement automatisées comme les systèmes Phalanx à bord des navires sont utilisées depuis les années 1970. Les systèmes offensifs autonomes, tels que les drones et les drones de combat, sont utilisés depuis des années, mais ont toujours exigé qu'un « humain au courant » assume la responsabilité de faire feu sur un ennemi. Maintenant, la SFPD (le même département qui coûte régulièrement à la ville des montants à six chiffres pour son usage excessif de la force et s'oppose activement aux enquêtes sur son affinité pour les passages à tabac à la matraque) veut exercer ce même pouvoir de vie ou de mort sur les civils de San Francisco.

    Des scientifiques demandent l'interdiction du développement d'armes contrôlées par l'IA

    La question de l'utilisation de l'IA pour le développement des armes autonomes agite de plus en plus le monde scientifique et militaire. Et c'est d'autant plus sérieux à cause des tentatives de développement d'armes autonomes de la part des industriels. En août 2016 déjà, les États-Unis d'Amérique et l'armée irakienne testaient leurs prototypes d'arme autonome. De même, les experts de l'IA n'hésitent pas à s'opposer au développement de ces armes. En 2017, un groupe d'experts de l'IA a appelé le Canada et l'Australie à lutter pour l'interdiction des robots tueurs autonomes. L'ONU aussi ne cesse de militer contre ces armes. Fin 2018, plus de 2400 professionnels de l’intelligence artificielle et de la robotique représentant 150 entreprises de 90 pays à travers le monde ont signé un engagement contre le développement des armes autonomes.

    Durant la conférence mixte internationale sur l’intelligence artificielle de 2018 à Stockholm, un engagement a été signé pour exiger des gouvernements, des industries et des universités, la création « de normes, régulations et lois internationales contre les armes létales autonomes ». Le Future of Life Institute, organisateur de la conférence, définit les armes létales autonomes, ou robots tueurs, comme des armes capables d’identifier, de cibler et de tuer une personne. « Ceci étant dit, aucun humain ne prend la décision finale d’autoriser la force létale », ajoute l’institut.

    « L’intelligence artificielle a un immense potentiel pour aider le monde si nous empêchons qu’on en abuse. Les armes contrôlées par intelligence artificielle qui décident en toute indépendance de tuer des gens sont aussi répugnantes et déstabilisantes que les armes biologiques, et donc, devraient être traitées de la même manière », avait alors déclaré Max Tegmark, le président de l’institut.

    En septembre 2018, le Parlement européen a adopté une résolution demandant une interdiction internationale des robots soi-disant tueurs. Il vise à anticiper le développement et l'utilisation de systèmes d'armes autonomes capables de tuer sans intervention humaine.

    Une position affirmée qui peut être expliquée par le fait que les négociations à l’ONU n’ont pas abouti à un consensus, certains pays ayant déclaré que les avantages des armes autonomes devaient être explorés.

    Néanmoins, l’Europe n’est pas encore unanime. En effet, certains députés craignent que la législation ne limite les progrès scientifiques de l'intelligence artificielle. D’autres ont déclaré que cela pouvait devenir un problème de sécurité si certains pays autorisaient de telles armes alors que d’autres ne le faisaient pas.

    « Je sais que cela pourrait ressembler à un débat sur un futur lointain ou sur la science-fiction. Ce n'est pas le cas », a déclaré Federica Mogherini, chef de la politique étrangère et de sécurité de l'UE lors du débat au Parlement européen.

    En février 2019, un groupe de scientifiques a appelé à l'interdiction du développement d'armes contrôlées par l'intelligence artificielle. Le groupe insiste sur le fait que les armes autonomes peuvent mal fonctionner de manière imprévisible et tuer des innocents. Les experts en éthique soutiennent également que permettre à des systèmes boostés par une IA de tuer sans aucune intervention humaine ne relève pas de la morale.

    Ces commentaires ont été faits lors de la réunion de l’Association américaine pour le progrès de la science à Washington DC.

    Human Rights Watch (HRW) est l'une des 89 organisations non gouvernementales de 50 pays qui ont formé la Campagne pour arrêter le développement des robots tueurs, afin de faire pression pour un traité international.

    « Robots tueurs » : le « non, mais » du comité d'éthique de l'armée

    « Non » aux systèmes d’armes létaux pleinement autonomes (SALA), parfois résumés sous l’appellation « robots tueurs », mais la porte reste ouverte aux armes robotisées pilotées par l’homme. C’est en substance le contenu d’un avis rendu le 29 avril 2021 par le comité d’éthique de la défense, une structure de réflexion adossée au ministère français des Armées pour le conseiller sur les sujets les plus sensibles. Les membres de cette structure indépendante approuvent ainsi l’introduction d’une certaine dose d’autonomie dans les systèmes d’armes, mais pas question d'entériner le principe de « robots tueurs », qui excluent tout contrôle humain. Ces robots, boostés par l’intelligence artificielle, utilisent eux-mêmes un logiciel intégré pour trouver et frapper des cibles.

    Les conclusions du Comité sont claires : l'emploi par les forces armées de systèmes d'armes létales autonomes serait « absolument contraire au principe constitutionnel de nécessaire libre disposition de la force armée et au principe de continuité de la chaîne de commandement ». Par conséquent, l'emploi des SALA ne peut qu’être refusé tout comme la fabrication et l’exportation.

    Soit le rejet de l’utilisation, sur un théâtre de guerre, de toute forme d’arme programmée dont l’homme n’aurait pas la maîtrise complète. Ces systèmes sont acceptables à condition qu'ils soient toujours supervisés par l'Homme. En revanche, les systèmes d'armes létales complètement autonomes, qui excluent tout contrôle humain, pourraient donc se révéler dangereux et doivent être interdits. « La France confirme qu’elle ne développera et n’emploiera pas » de SALA, écrivent ainsi les dix-huit membres civils et militaires de ce comité où siège notamment l’ancien chef d’état-major des armées, le général Henri Bentégeat.

    Sources : brouillon de la politique du SFPD (1, 2), séance du comité du SFPD, annonce du département de police d'Oakland

    Et vous ?

    Pour ou contre les robots tueurs utilisés par la police ? Dans quelle mesure ?
    Que pourrait-il se passer si les robots tueurs venaient à être piratés ? Un risque suffisant pour repenser l'éthique autour de l'armement des robots ou un risque qui peut être classé comme celui de perdre son arme ?

    Voir aussi :

    Intelligence artificielle : Amazon, Microsoft ou Intel seraient en bonne place pour la création potentielle de "Skynet", d'après une étude
    Que se passera-t-il si des robots tueurs sont piratés ou détournés ? La question fait débat au sein de la communauté scientifique
    « Robots tueurs » : le « non, mais » du comité d'éthique de l'armée. Jusqu'où la France est-elle prête à aller ?
    L'armée américaine veut transformer les chars d'assaut en machines à tuer alimentées par l'IA, à travers son projet ATLAS, selon un rapport
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Expert éminent Avatar de marsupial
    Homme Profil pro
    Retraité
    Inscrit en
    Mars 2014
    Messages
    1 764
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : Retraité

    Informations forums :
    Inscription : Mars 2014
    Messages : 1 764
    Points : 7 187
    Points
    7 187
    Par défaut
    Robocop.
    Repeat after me
    Le monsieur lutte pour la défense des libertés individuelles et collectives

    Repeat after me...

  3. #3
    Invité
    Invité(e)
    Par défaut
    Que les forces de police soient autorisées à tuer en dehors du cadre de la légitime défense me suffit pour ne jamais mettre les pieds aux USA.

  4. #4
    Membre éprouvé
    Homme Profil pro
    Intégrateur Web
    Inscrit en
    Août 2012
    Messages
    263
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : Intégrateur Web
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Août 2012
    Messages : 263
    Points : 1 045
    Points
    1 045
    Par défaut Terminator
    Citation Envoyé par marsupial Voir le message
    Robocop.
    Terminator.

  5. #5
    Membre éclairé
    Homme Profil pro
    Développeur .NET
    Inscrit en
    Septembre 2014
    Messages
    208
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Développeur .NET
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Septembre 2014
    Messages : 208
    Points : 727
    Points
    727
    Par défaut
    L'algorithme du robot aura des biais ethniques aussi ?

  6. #6
    Membre émérite
    Homme Profil pro
    Étudiant
    Inscrit en
    Novembre 2021
    Messages
    1 060
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Novembre 2021
    Messages : 1 060
    Points : 2 852
    Points
    2 852
    Par défaut
    De pire en pire aux États-Unis. Et pas uniquement dans les états républicains, n’en déplaise à certains. La dérive autoritaire et sécuritaire semble avoir lieu dans les deux bords politiques.

    Je rappelle d’ailleurs que les grandes villes de Californie sont les villes avec la ségrégation parmi la plus forte au monde.

    https://books.openedition.org/pupo/2147
    https://www.nouvelles-du-monde.com/l...e-segregation/
    https://courrierdesameriques.com/202...ux-etats-unis/
    https://www.francetvinfo.fr/monde/us...e_3723791.html
    https://www.rtl.fr/actu/internationa...ues-7795661404

  7. #7
    Membre expert
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 125
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 125
    Points : 3 453
    Points
    3 453
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    « le risque de mort pour les membres du public ou les officiers soit imminent et l'emporte sur toute autre force option à la disposition de SFPD ».
    « qu'il pourrait y avoir des scénarios où l'utilisation de la force meurtrière serait la seule option »
    « utilisés comme une option de force meurtrière lorsque le risque de mort pour des membres du public ou des officiers est imminent et l'emporte sur toute autre option de force ».
    « il pourrait y avoir des scénarios où le déploiement d'une force létale est la seule option »
    On parle de scénarios mais on en identifie aucun.
    Citation Envoyé par Stéphane le calme Voir le message
    « La SFPD n'a aucune sorte de plan spécifique en place car les opérations inhabituellement dangereuses ou spontanées où le besoin de la SFPD de fournir une force mortelle via un robot seraient une circonstance rare et exceptionnelle ».
    Ils reconnaissent donc que c'est compliqué d'en identifier donc on va autorisé le plus en priant pour que tout se passe bien?
    La question n'est pas si une bavure arrivera mais quand (et pourquoi).
    Donc ne pas limiter les scénarios est une grave erreur de mon point de vue.
    Citation Envoyé par Stéphane le calme Voir le message
    Le département de police de Dallas a utilisé un robot pour exercer une force meurtrière pour la première fois en 2016. Il a utilisé un robot de déminage (le même modèle Remotec F5A appartenant au SFPD) armé d'un engin explosif pour tuer un suspect qui a tué cinq policiers et en a blessé plusieurs autres. À l'époque, le chef de la police de Dallas, David Brown, a déclaré que le département « n'avait pas d'autre choix que d'utiliser notre robot explosif et de placer un appareil sur son extension pour qu'il explose là où se trouvait le suspect ».
    Ce cas est très différent, pour moi.
    On a pas programmé un robot pour qu'il puisse tuer.
    Un humain a pris la décision de détourner un robot de son utilisation nominale pour résoudre une situation. La responsabilité est explicitement celle de la personne.

    La mise en place de ce genre de robot est l'ouverture vers de nombreuses bavures.
    Combien de scénarios pouvons-nous écrire où le robot abat une personne sans que ça soit justifié? (Combien impliquent qu'un policier a été mal identifié et a été abattu par celui censé le protéger?)

  8. #8
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    1 841
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 1 841
    Points : 51 489
    Points
    51 489
    Par défaut San Francisco va permettre à la police de déployer des robots capables de tuer des humains
    San Francisco va permettre à la police de déployer des robots capables de tuer des humains
    Et ravive le débat mondial sur la possibilité d’une utilisation éthique de tels outils

    Le Comité de surveillance de la ville de San Francisco a voté pour donner à la police la possibilité de déployer des robots capables de tuer des humains. Le Département de police de la ville pourra donc lancer ces outils pour tuer des suspects que les forces de l’ordre considèrent comme une menace suffisante pour que « le risque de mort pour les membres du public ou les officiers soit imminent et l’emporte sur toute autre option à la disposition des policiers. » La décision divise l’opinion sur la possibilité d’une utilisation éthique des robots tueurs.

    La police de San Francisco entend déployer des robots équipés de charges explosives « pour entrer en contact, neutraliser ou désorienter un suspect violent, armé ou dangereux » lorsque des vies sont en jeu. Ces robots peuvent pilotés à distance par des humains être utiles dans de telles situations. Le cas du sniper de Dallas qui s’est retranché dans un parking et qui a pu tuer 5 officiers de police l’illustre. C’est avec un robot Remotec F5A équipé de charges explosives que les forces de l’ordre ont pu le mettre hors d’état de nuire.


    L’Electronic Frontier Foundation reste néanmoins d’avis que la police ne devrait pas avoir la permission de tuer des humains à l’aide de robots. « Cette décision permettrait à la police d'amener des robots armés à chaque arrestation et à chaque exécution d'un mandat de perquisition dans une maison, un véhicule ou un appareil. Selon la façon dont la police choisit de définir les mots "critique" ou "urgent", elle pourrait même amener des robots armés à une manifestation », commente l’EFF.

    Nom : 2.jpg
Affichages : 27866
Taille : 103,3 Ko

    C’est du bien commun dont il est question sur ces débats en lien avec la mise à contribution de robots tueurs. Sur la question, le Comité d’éthique de l’armée française prend position et signe : « De tels systèmes sont acceptables à condition qu’ils soient toujours supervisés par l’Homme. En revanche, les systèmes d'armes létales complètement autonomes, qui excluent tout contrôle humain, pourraient donc se révéler dangereux et doivent être interdits. » La France indiquait ainsi jusqu’à quel niveau elle serait prête à aller dans l’utilisation de tels outils. D’ailleurs, les dix-huit membres civils et militaires de ce comité avaient indiqué que « la France confirme qu’elle ne développera et n’emploiera pas de systèmes d’armes létaux pleinement autonomes. »

    Et vous ?

    Pour ou contre les robots tueurs utilisés par la police ? Dans quelle mesure ?

    Voir aussi :

    Intelligence artificielle : Amazon, Microsoft ou Intel seraient en bonne place pour la création potentielle de "Skynet", d'après une étude
    Que se passera-t-il si des robots tueurs sont piratés ou détournés ? La question fait débat au sein de la communauté scientifique
    L'armée américaine veut transformer les chars d'assaut en machines à tuer alimentées par l'IA, à travers son projet ATLAS, selon un rapport
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  9. #9
    Expert confirmé
    Avatar de GLDavid
    Homme Profil pro
    Service Delivery Manager
    Inscrit en
    Janvier 2003
    Messages
    2 852
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 47
    Localisation : France, Seine Saint Denis (Île de France)

    Informations professionnelles :
    Activité : Service Delivery Manager
    Secteur : Industrie Pharmaceutique

    Informations forums :
    Inscription : Janvier 2003
    Messages : 2 852
    Points : 4 759
    Points
    4 759
    Par défaut
    Citation Envoyé par sirthie Voir le message
    Terminator.
    Non, pire, ED-209 (du film Robocop d'ailleurs).
    Nom : ED209.jpg
Affichages : 1587
Taille : 7,5 Ko
    Ah, San Francisco, auparavant, capitale des hippies, connue pour son Summer Of Love...
    Maintenant, régie par les grandes sociétés de technologie qui imposent aux gouvernants leurs choix...

    @++
    GLDavid
    Consultez la FAQ Perl ainsi que mes cours de Perl.
    N'oubliez pas les balises code ni le tag

    Je ne répond à aucune question technique par MP.

  10. #10
    Membre confirmé
    Homme Profil pro
    Administrateur systèmes et réseaux
    Inscrit en
    Juillet 2018
    Messages
    120
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Russie

    Informations professionnelles :
    Activité : Administrateur systèmes et réseaux
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Juillet 2018
    Messages : 120
    Points : 599
    Points
    599
    Par défaut
    Quelle bonne idée ! ... (non)

  11. #11
    Membre expérimenté

    Homme Profil pro
    Collégien
    Inscrit en
    Juillet 2010
    Messages
    545
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Afghanistan

    Informations professionnelles :
    Activité : Collégien

    Informations forums :
    Inscription : Juillet 2010
    Messages : 545
    Points : 1 429
    Points
    1 429
    Par défaut
    La police de San Francisco entend déployer des robots équipés de charges explosives « pour entrer en contact, neutraliser ou désorienter un suspect violent, armé ou dangereux
    Ce n'est pas différent d'un missile/torpille/drone kamikaze/obus guidé par GPS. Du déjà vu.
    Mettez des pattes à un missile et ca devient un robot tueur... donc immorale...LOL

    La décision de "neutraliser"(tuer) reste prise par un humain.

    Le cap sera franchi quand cette décision sera autonome

    Par contre j'avoue que j'aurais les boules de me faire contrôler/interpellé par un robot ...

  12. #12
    Invité
    Invité(e)
    Par défaut
    C'est juste l'extension de l'arme donc je ne vois pas le problème de son utilisation, pour sauver la vie ou les vies des agents, c'est pas comme si il prenait ses décisions tout seul.

  13. #13
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 853
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 853
    Points : 36 409
    Points
    36 409
    Par défaut Le département de police de San Francisco ne devrait pas armer les robots
    Le département de police de San Francisco ne devrait pas armer les robots,
    selon EFF

    Le département de police de San Francisco a introduit une demande auprès du conseil de surveillance de la ville pour une autorisation de déployer des « Robots tueurs » contre des suspects que les forces de l'ordre considèrent comme une menace suffisante pour que « le risque de mort pour les membres du public ou les officiers soit imminent et l'emporte sur toute autre force option à la disposition de ». Le 29 novembre, le conseil des superviseurs de San Francisco a approuvé à 8 voix contre 3, en première instance, la demande qui autoriserait officiellement la police de San Francisco à déployer une force meurtrière par le biais de robots télécommandés.

    Cette proposition s'était d'abord heurtée à une forte opposition tant à l'intérieur qu'à l'extérieur du conseil de direction. Puis, le comité des règles composé de trois membres, présidé par Aaron Peskin, a approuvé à l'unanimité le projet et l'a soumis à l'ensemble du conseil de surveillance pour le vote du 29 novembre.

    Nom : RobotTuer.jpg
Affichages : 2983
Taille : 62,5 Ko

    Peskin a tenu à noter « qu'il pourrait y avoir des scénarios où l'utilisation de la force meurtrière serait la seule option ». Pour certains, la majorité est tombée dans le piège du théâtre de la sécurité : « faire n'importe quoi pour donner l'impression de lutter contre le crime, sans se soucier de savoir si cela a ou non un effet positif sur la sécurité publique. »

    Ces superviseurs de San Francisco semblent non seulement prêts à approuver un langage dangereusement large sur le moment où la police peut déployer des robots équipés d'explosifs en tant que force mortelle, mais ils sont également prêts à dénigrer ceux qui osent remettre en question ces abus possibles en les qualifiant de sensationnalistes, d'anti-flics et de malhonnêtes.

    Les robots énumérés dans la directive ne doivent pas être utilisés en dehors de la formation et des simulations, des appréhensions criminelles, des incidents critiques, des circonstances exigeantes, de l'exécution d'un mandat ou pendant les évaluations de dispositifs suspects.

    Les robots ne seront utilisés comme une option de force mortelle que lorsque le risque de perte de vie pour les membres du public ou les officiers est imminent et les officiers ne peuvent pas maîtriser la menace après avoir utilisé d'autres options de force ou de tactiques de désescalade, ou concluent qu'ils ne seront pas en mesure de maîtriser la menace après avoir évalué d'autres options de force ou de tactiques de désescalade. Seuls le chef de police, le chef adjoint ou le chef adjoint des opérations spéciales peuvent autoriser le recours aux options de force mortelle du robot.

    « Les armes autonomes létales menacent de devenir la troisième révolution dans la guerre. Une fois développées, elles vont propulser les conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains puissent comprendre », ont averti Elon Musk et une centaine de spécialistes de l'IA et la robotique, dans une lettre ouverte en 2017. Dans cette lettre, ils appelaient les Nations Unies à agir le plus vite possible et bannir les robots tueurs.

    La police peut utiliser la force meurtrière après avoir « évalué les options de force alternatives ou les tactiques de désescalade », ce qui signifie qu'elle n'a pas besoin de les essayer avant de tuer quelqu'un à distance avec un robot équipé d'une bombe. Le superviseur Hillary Ronen a proposé un amendement qui aurait obligé la police à essayer ces options non mortelles, mais le conseil l'a rejeté.

    Jusqu'où la France est-elle prête à aller sur la question de « Robots tueurs » ?

    La France dit « Non » aux « robots tueurs », mais la porte reste ouverte aux armes robotisées pilotées par l’homme. C’est en substance le contenu d’un avis rendu le 29 avril par le comité d’éthique de la défense, une structure de réflexion adossée au ministère français des Armées pour le conseiller sur les sujets les plus sensibles. Les membres de cette structure indépendante avaient approuvé ainsi l’introduction d’une certaine dose d’autonomie dans les systèmes d’armes, mais pas question d'entériner le principe de « robots tueurs », qui excluent tout contrôle humain. Ces robots, boostés par l’intelligence artificielle, utilisent eux-mêmes un logiciel intégré pour trouver et frapper des cibles.

    Le comité d’éthique de la défense ne voit ainsi pas d’objection à l’introduction d’une certaine dose d’autonomie et donc de recours aux SALIA (systèmes d’armes létaux intégrant de l’autonomie). Ce qui distinguerait les SALA des SALIA, « c'est une différence de nature qui tient à la place de l'humain dans certaines fonctions critiques », peut-on lire dans le rapport.

    En clair, le comité d’éthique ouvre la voie à des armes ou des robots qui pourront certes tuer, mais seront « incapables d’agir seuls, sans contrôle humain, de modifier leurs règles d’engagement et de prendre des initiatives létales », en s’adaptant de manière indépendante à un théâtre de guerre, par exemple. Cette définition peut concerner diverses catégories d’armes, comme des mules de transports, certains missiles ou drones.

    En avril 2021, les élèves officiers de l’école militaire de Saint-Cyr Coëtquidan ont pu s’entraîner avec le produit phare de Boston Dynamics, Spot. Spot est un robot quadrupède. Il est agile, discret. Il peut cheminer dans des environnements hostiles et emporter sur son dos divers capteurs. L’entreprise espère bien convaincre les armées de son utilité sur les futurs champs de bataille.

    « Nous pensons que l'armée, dans la mesure où elle utilise la robotique pour mettre les gens hors d'état de nuire, est une utilisation parfaitement valable de cette technologie », a déclaré le vice-président du développement commercial de Boston Dynamics, Michael Perry, en avril en s’adressant à un média. « Avec ce modèle de déploiement avancé dont vous discutez, c'est quelque chose que nous devons mieux comprendre pour déterminer si oui ou non il est activement utilisé pour nuire aux gens ».

    Source : EFF

    Et vous ?

    Pour ou contre les robots tueurs utilisés par la police ? Dans quelle mesure ?

    Quel commentaire faites-vous de l'adoption par le conseil des superviseurs de San Francisco de la demande du département de police ?

    Que pourrait-il se passer si les robots tueurs venaient à être piratés ? Un risque suffisant pour repenser l'éthique autour de l'armement des robots ou un risque qui peut être classé comme celui de perdre son arme ?

    Voir aussi :

    « Robots tueurs » : le « non, mais » du comité d'éthique de l'armée. Jusqu'où la France est-elle prête à aller ?

    Les robots de la police de San Francisco sont autorisés à tuer dans des situations dangereuses, selon un projet de politique approuvé à l'unanimité par le conseil de surveillance de la ville
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  14. #14
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    1 841
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 1 841
    Points : 51 489
    Points
    51 489
    Par défaut San Francisco revient sur son projet d'autoriser la police à déployer des robots capables de tuer des humains
    San Francisco revient sur son projet d'autoriser la police à déployer des robots capables de tuer des humains
    Et ravive le débat mondial sur la possibilité d’une utilisation éthique de tels outils

    Les autorités de la ville de San Francisco sont revenues sur leur décision d'autoriser la police de déployer des robots pour tuer des suspects. La manœuvre fait suite aux protestations des citoyens et des groupes de défense des droits civils. Toutefois, le revirement n'est pas permanent. La question est désormais sous examen par un comité pour une discussion plus approfondie. Le tableau ravive le débat mondial sur la possibilité d'une utilisation éthique de tels outils.

    À l'origine, le conseil d'administration avait approuvé une politique autorisant le Département de la police de San Francisco (SFPD) à lancer ces outils pour tuer des suspects que les forces de l’ordre considèrent comme une menace suffisante pour que « le risque de mort pour les membres du public ou les officiers soit imminent et l’emporte sur toute autre option à la disposition des policiers. » La police entendait déployer des robots équipés de charges explosives « pour entrer en contact, neutraliser ou désorienter un suspect violent, armé ou dangereux » lorsque des vies sont en jeu.

    Nom : 1.jpg
Affichages : 730
Taille : 82,9 Ko

    On parle de robots pouvant être pilotés à distance par des humains. Le cas du sniper de Dallas qui s’est retranché dans un parking et qui a pu tuer 5 officiers de police l’illustre. C’est avec un robot Remotec F5A équipé de charges explosives que les forces de l’ordre ont pu le mettre hors d’état de nuire.

    Cette politique a été vivement critiquée par les groupes de défense des droits civiques qui ont déclaré qu'elle témoignait de la militarisation croissante et inquiétante des forces de l'ordre américaines. Dans une lettre de protestation signée par 44 groupes communautaires, les critiques ont déclaré que la politique mettrait « inutilement des vies en danger » et que le public est « naturellement mal à l'aise avec l'utilisation de robots armés dans n'importe quelle situation. »

    « Il n'y a aucune raison de croire que les robots transportant des explosifs pourraient être une exception à l'utilisation excessive de la force meurtrière par la police. L'utilisation de robots conçus pour désarmer des bombes afin de les livrer est un parfait exemple de ce modèle d'escalade et de la militarisation des forces de police qui préoccupe tant de personnes dans la ville », indique la lettre.

    De tels arguments semblent avoir convaincu le conseil de surveillance de San Francisco. L'un des superviseurs ayant initialement voté en faveur de la mesure a déclaré dans un message qu'il était depuis lors « de plus en plus mal à l'aise avec notre vote et le précédent qu'il crée pour d'autres villes. »

    « Je ne pense pas que le fait de rendre la violence d'État plus éloignée, distante et moins humaine soit un pas en avant. Je ne pense pas que les robots dotés d'une force létale renforceront notre sécurité ni qu'ils préviendront ou résoudront des crimes », ajoute Gordon Mar.

    Nom : 2.jpg
Affichages : 645
Taille : 103,3 Ko

    Un autre superviseur qui avait précédemment voté contre la mesure a également célébré ce revirement. « Nous venons d'arrêter l'utilisation de robots tueurs à San Francisco. Retournement complet par rapport à la semaine dernière. Le bon sens l'a emporté », lance-t-il.

    Nom : 3.jpg
Affichages : 694
Taille : 36,9 Ko

    C’est du bien commun dont il est question sur ces débats en lien avec la mise à contribution de robots tueurs. Sur la question, le Comité d’éthique de l’armée française prend position et signe : « De tels systèmes sont acceptables à condition qu’ils soient toujours supervisés par l’Homme. En revanche, les systèmes d'armes létales complètement autonomes, qui excluent tout contrôle humain, pourraient donc se révéler dangereux et doivent être interdits. » La France indiquait ainsi jusqu’à quel niveau elle serait prête à aller dans l’utilisation de tels outils. D’ailleurs, les dix-huit membres civils et militaires de ce comité avaient indiqué que « la France confirme qu’elle ne développera et n’emploiera pas de systèmes d’armes létaux pleinement autonomes. »

    Et vous ?

    Pour ou contre les robots tueurs utilisés par la police ? Dans quelle mesure ?

    Voir aussi :

    Intelligence artificielle : Amazon, Microsoft ou Intel seraient en bonne place pour la création potentielle de "Skynet", d'après une étude
    Que se passera-t-il si des robots tueurs sont piratés ou détournés ? La question fait débat au sein de la communauté scientifique
    L'armée américaine veut transformer les chars d'assaut en machines à tuer alimentées par l'IA, à travers son projet ATLAS, selon un rapport
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 4
    Dernier message: 23/05/2022, 13h44
  2. Réponses: 0
    Dernier message: 02/10/2021, 14h34
  3. [PostgreSQL] Ajouter les fichiers de la police "Liberation Sans" dans le dossier font de FPDF
    Par Invité dans le forum PHP & Base de données
    Réponses: 2
    Dernier message: 31/08/2021, 13h06
  4. Trouver les aides pour faire un stage à San Francisco
    Par lionceau dans le forum Stages
    Réponses: 7
    Dernier message: 02/11/2012, 20h29
  5. Réponses: 2
    Dernier message: 08/03/2011, 17h43

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo