IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Expert éminent sénior

    Homme Profil pro
    Consultant informatique
    Inscrit en
    Avril 2018
    Messages
    1 548
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Côte d'Ivoire

    Informations professionnelles :
    Activité : Consultant informatique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Avril 2018
    Messages : 1 548
    Points : 125 224
    Points
    125 224
    Par défaut Une "IA éthiquement correcte" pourrait-elle mettre fin à la violence des armes à feu ?
    Une "IA éthiquement correcte" pourrait-elle mettre fin à la violence des armes à feu ?
    Elle pourrait reconnaître l'intention et bloquer les tireurs de masse

    L’ intelligence artificielle est un élément clé dans l’informatique des temps modernes qui a gagné tous les secteurs d’activité dans le monde, et des efforts pour une mise en œuvre qui serait capable de suivre des normes éthiques sont devenus une nécessité. Une récente recherche décrit une intervention éthique qui permet à l’IA d’empêcher le meurtre par un verrouillage éthique des armes. L’idée étant de mettre un terme aux fusillades de masse et autres utilisations éthiquement incorrectes des armes à feu grâce au développement d'une IA capable de reconnaître l'intention, de juger s'il s'agit d'une utilisation éthique, et finalement de rendre une arme à feu inerte si un utilisateur tente de la préparer pour un tir inapproprié.

    La recherche menée par trois informaticiens de l'Institut polytechnique de Rensselaer à New York ne décrit pas la création d'une arme à feu intelligente en soi, mais l'efficacité potentielle d'un système d'intelligence artificielle qui peut prendre le même genre de décisions pour les utilisateurs d'armes à feu que, par exemple, les voitures qui peuvent bloquer les conducteurs s'ils ne peuvent pas passer un alcootest.

    Nom : a01.jpg
Affichages : 1370
Taille : 18,9 Ko

    La recherche publiée dans l’archive de prépublications ArXiv semble avoir un objectif noble, les chercheurs eux-mêmes le qualifiant d'idée du "ciel bleu", mais la technologie pour le rendre possible est déjà là, selon eux. On peut lire dans le document de recherche de l'équipe :

    « Comme on pouvait s'y attendre, certains objecteront ce qui suit : "Le concept que vous présentez est attrayant. Mais malheureusement, ce n'est rien d'autre qu'un rêve ; en fait, rien d'autre qu'une chimère. Cette IA est-elle vraiment réalisable, du point de vue de la science et de l'ingénierie ?" Nous répondons par l'affirmative, en toute confiance. »

    En effet, la recherche explique également comment les récentes percées impliquant des études à long terme ont conduit au développement de divers systèmes de raisonnement basés sur l'IA qui pourraient servir à banaliser et à mettre en œuvre un système de jugement éthique assez simple pour les armes à feu.

    Selon les chercheurs, leur IA serait formée à reconnaître l'intention humaine derrière une action. Ils décrivent la récente fusillade de masse dans un Walmart à El Paso et offrent un point de vue différent sur ce qui aurait pu se passer :

    « Le tireur se dirige vers Walmart, un fusil d'assaut et une quantité massive de munitions, dans son véhicule. L'IA que nous envisageons sait que cette arme est là, et qu'elle ne peut être utilisée qu'à des fins très spécifiques, dans des environnements très spécifiques (et bien sûr elle sait quels sont ces fins et ces environnements).

    Chez Walmart même, dans le parking, toute tentative de la part de l'agresseur potentiel d'utiliser son arme, ou même de la positionner pour une utilisation quelconque, aura pour conséquence de la verrouiller par l'IA. Dans le cas particulier qui nous occupe, l'IA sait que tuer quelqu'un avec une arme, sauf peut-être à des fins d'autodéfense, est contraire à l'éthique. Puisque l'IA exclut la légitime défense, l'arme est rendue inutile et verrouillée ».

    Cela donne une image magnifique, mais tout le monde ne sera certainement pas d’accord avec le concept de "verrouillage éthique" par l’intelligence artificielle des scientifiques. La responsabilité des créateurs de l’IA est engagée à une époque où les systèmes automatisés sont impliqués dans toutes les facettes de l'existence humaine.

    Les quelques rubriques sur lesquelles les entreprises de l’IA comme Microsoft, IBM et DeepMind de Google basent leurs principes éthiques pour le développement de l’IA consistent dans les points suivants : l'intelligence artificielle doit utiliser l’équité dans le traitement de toutes les personnes, donner à chacun les moyens d'agir, être fiable et sûre, être compréhensible, sécurisée et respectueuse de la vie privée, et avoir une responsabilité algorithmique. Elle doit être conforme aux valeurs humaines existantes, être explicable, être équitable et respecter les droits des utilisateurs en matière de données.

    Selon Tom Chatfield, auteur et philosophe technologique britannique, dans un article publié l’année dernière, les technologues seraient convaincus que les codes d'IA sont des recettes pour automatiser l'éthique elle-même, et qu'une fois que la majorité serait d’accord avec ces codes, « le problème de la détermination d'une direction future éthiquement positive pour le code informatique aura commencé à être résolu ».

    Cependant selon Chatfield, alors même que le monde prend conscience de l'importance de ce domaine, une tendance troublante est évidente lorsqu'il est question de la manière dont les codes d'éthique de l'IA sont discutés. Pour la simple raison du manque de consensus sur ce qui est éthique, l’auteur dit que nous ne pouvons pas le programmer. « Il n'existe pas d'ensemble unique de principes éthiques qui puisse être justifié rationnellement d'une manière que tout être rationnel acceptera », a-t-il écrit à l’époque.

    Il ne s’agit pas du développement d'une arme à feu intelligente, mais la création d'une IA éthiquement correcte

    Les chercheurs ont prévu certainement une myriade d'objections à leur concept d’IA éthiquement correcte, alors qu’ils se concentrent sur la navigation dans le paysage politique américain. Dans la plupart des pays civilisés, le contrôle des armes à feu est une question de bon sens. L'équipe prévoit que des personnes feront remarquer que les criminels utiliseront simplement des armes à feu qui n'ont pas de système de surveillance à l’IA intégré :

    « En réponse, nous notons que notre conception du "ciel bleu" ne se limite pas à l'idée que l'IA de surveillance ne se trouve que dans les armes en question », ont dit les informaticiens dans leur document de recherche.

    Selon les chercheurs, leur contribution ici n'est pas le développement d'une arme à feu intelligente, mais la création d'une IA éthiquement correcte. Si les criminels continuent à utiliser des armes sans leur système, l'IA peut toujours être efficace lorsqu'elle est installée dans d'autres capteurs, d’après les chercheurs. Elle pourrait, hypothétiquement, être utilisée pour remplir un certain nombre de fonctions une fois qu'elle aura déterminé l'intention humaine violente.

    Elle pourrait verrouiller les portes, arrêter les ascenseurs, alerter les autorités, modifier les feux de circulation, envoyer des alertes par SMS en fonction de la localisation, et toute une série d'autres mesures réactionnaires, y compris le déverrouillage des armes des forces de l'ordre et du personnel de sécurité pour la défense.

    Les chercheurs pensent également qu'il y aura des objections basées sur l'idée que des personnes pourraient pirater les armes. Celle-ci est assez facilement écartée : les armes à feu seront plus faciles à sécuriser que les robots, et nous y intégrons déjà l'IA, disent-ils. Bien qu'il n'y ait pas de sécurité totale, l'armée américaine remplit ses navires, ses avions et ses missiles d'IA et nous avons réussi à trouver comment empêcher l'ennemi de les pirater. Nous devrions être en mesure de garder les armes de service des policiers tout aussi sûres.

    De manière réaliste, il faut un acte de foi pour supposer qu'une IA éthique peut être mise en place pour comprendre la différence entre des situations telles que, par exemple, l'invasion de domicile et la violence domestique, mais le travail de base est déjà là, selon les chercheurs. Si vous regardez les voitures sans conducteur, nous savons que des gens sont déjà morts parce qu'ils comptaient sur une IA pour les protéger. Mais nous savons aussi que le potentiel de sauver des dizaines de milliers de vies est trop important pour l'ignorer face à un nombre, jusqu'à présent relativement faible, de décès accidentels, lit-on.

    Il est probable que, tout comme l'IA de Tesla, une IA de contrôle des armes pourrait entraîner des morts accidentelles et inutiles. Mais environ 24 000 personnes meurent chaque année aux États-Unis à la suite d'un suicide par arme à feu, 1 500 enfants sont tués par la violence armée et près de 14 000 adultes sont assassinés avec des armes à feu, selon UC Davis Health. Il va sans dire qu'une intervention d'un système d’IA pourrait faire baisser ces chiffres de manière significative.

    Il se peut que l’utilisation de cette IA dans d'autres capteurs pour d’autres fonctions citées par les chercheurs pourrait devenir l’utilisation la plus courante en lieu et place de son utilisation pour surveiller une arme à feu. Pourquoi quelqu'un dans la communauté des armes à feu achèterait-il une arme avec une telle IA ? « Et il est évident que l'armée et la police n'auront pas à être paralysées par de tels dispositifs », a écrit un commentateur. Et vous, qu’en pensez-vous ?

    Source : ArXiv

    Et vous ?

    Que pensez-vous de l’idée de "l’IA éthiquement correcte" des chercheurs ?
    Pensez-vous que les gens utiliseront ce système sur leur arme à feu ?
    La police peut-elle être amenée à utiliser une telle IA alors qu’en face elle ne sera certainement pas adoptée ?

    Voir aussi :

    Les experts de l'Union européenne publient le premier draft sur les lignes directrices d'une IA éthique, la version finale est attendue en mars 2019
    Un nombre croissant d'entreprises reconnaissent la nécessité d'une intelligence artificielle éthique et de confiance, mais les progrès en la matière restent inégaux, selon Capgemini
    L'« IA éthique » pourrait-elle exister ? Les technologues pensent que les défis éthiques de l'IA pourraient être résolus par du code, mais ces défis seraient beaucoup plus complexes, selon un auteur
    Le Pentagone annonce l'adoption de cinq principes visant à garantir l'utilisation éthique et responsable de l'IA par les États-Unis, dns le domaine militaire
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre chevronné
    Profil pro
    Inscrit en
    Décembre 2007
    Messages
    761
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Décembre 2007
    Messages : 761
    Points : 2 102
    Points
    2 102
    Par défaut
    "Elle pourrait verrouiller les portes, arrêter les ascenseurs, alerter les autorités, modifier les feux de circulation, envoyer des alertes par SMS en fonction de la localisation, et toute une série d'autres mesures réactionnaires, y compris le déverrouillage des armes des forces de l'ordre et du personnel de sécurité pour la défense."

    C'est flippant, je suppose qu'on doit trouver les même système en prison...

  3. #3
    Membre éprouvé

    Homme Profil pro
    Ingénieur logiciel embarqué
    Inscrit en
    Juillet 2002
    Messages
    386
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Ingénieur logiciel embarqué
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juillet 2002
    Messages : 386
    Points : 1 164
    Points
    1 164
    Par défaut
    Que pensez-vous de l’idée de "l’IA éthiquement correcte" des chercheurs ?
    Ca serait un beau sujet de philo pour le bac 2021
    (je ne débâterai pas d'étique, de culture ou de morale sur ce sujet, c'est bien trop épineux)

    Pensez-vous que les gens utiliseront ce système sur leur arme à feu ?
    Probablement pas. Quelle serait la cible commercial ?
    La ménagère ou le pere de famille américain.e qui veux se protéger d'un éventuel agresseur ?
    Je pense que la plupart des gents n’ont pas suffisamment confiance pour mettre leur vie entre les main d'une IA.


    La police peut-elle être amenée à utiliser une telle IA alors qu’en face elle ne sera certainement pas adoptée ?
    J'imagine une grosse levé de bouclier dans ce cas.

    A la limite l'IA pourrai remplacer la sécurité ou proposer un mode intermédiaire :
    sécurité mise, IA active, je ne suis pas responsable en cas de tir, l'IA le légitime automatiquement. Si il y a des poursuite, c'est contre le developpeur de l'IA.
    Dans une situation de dissuasion, le danger peut arriver mais il n'est pas immédiat par exemple.

    securité off : je tire ou je veux, Je suis dans une situation ou je m'estime en danger, je veux contrôler mon outil de défense (je répondrai des mes actes plus tard au besoin).
    securité off : je fait un raid, je suis l'agresseur (potentiellement légitime) ...

  4. #4
    Expert éminent Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 564
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 564
    Points : 7 288
    Points
    7 288
    Par défaut
    Citation Envoyé par Stan Adkens Voir le message
    Que pensez-vous de l’idée de "l’IA éthiquement correcte" des chercheurs ?
    Qui décide de ce qui est éthique? Est-ce que fabriquer des armes est éthique? Est-ce que donner un accès libre aux armes à feu est éthique? Leur problème c'est que tout le monde peut avoir une arme à feu chez eux.

    Citation Envoyé par Stan Adkens Voir le message
    Pensez-vous que les gens utiliseront ce système sur leur arme à feu ?
    Il faudrait être le dernier des abrutis pour accepter une perte de contrôle sur son arme.

    Citation Envoyé par Stan Adkens Voir le message
    La police peut-elle être amenée à utiliser une telle IA alors qu’en face elle ne sera certainement pas adoptée ?
    Donner le contrôle à une IA, va sans doute amener de belles backdoors gouvernementales (comme dans tous nos logiciels). Donc en gros ce serait un bon moyen pour armer la police ("oh zut alors, l'IA n'a pas fonctionné") tout en désarmant ceux d'en face ("ce qu'ils faisaient n'était pas éthique").
    Copier c'est copier; voler c'est vendre un CD une vingtaine d'euros!


    Code C : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    #include <stdio.h>
     
    int main(int argc, char **argv) {
     
        printf("So long, and thanks for the fish, Dennis...\n");
        return 0;
    }

  5. #5
    Invité
    Invité(e)
    Par défaut
    Ca me rappelle un film avec Tom Cruise

  6. #6
    Membre expérimenté
    Homme Profil pro
    retraité
    Inscrit en
    Septembre 2014
    Messages
    606
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : retraité

    Informations forums :
    Inscription : Septembre 2014
    Messages : 606
    Points : 1 447
    Points
    1 447
    Par défaut
    On peut demander à Google pour l'éthique et l'IA, ils en connaissent un rayon :
    https://www.developpez.net/forums/d2...-ethique-l-ia/
    Chez Facebook aussi, ils en connaissent un rayon : https://www.bvoltaire.fr/laurent-ale...-linformation/

  7. #7
    Membre émérite
    Profil pro
    Inscrit en
    Juin 2009
    Messages
    909
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Juin 2009
    Messages : 909
    Points : 2 818
    Points
    2 818
    Par défaut
    Ca doit être plus simple de refaire minority report contre les tueurs de masse que de détecter la maltraitance et le harcèlement scolaire faut croire.

Discussions similaires

  1. rechercher variable contenant une quote
    Par fins51 dans le forum Access
    Réponses: 2
    Dernier message: 21/03/2007, 22h20
  2. [VB.Net 1.1] Comment "échapper" une quote ?
    Par arnolem dans le forum VB.NET
    Réponses: 1
    Dernier message: 07/09/2006, 10h39
  3. [PL/SQL] Chaine de caractères avec une quote
    Par Titouf dans le forum Oracle
    Réponses: 2
    Dernier message: 15/05/2006, 14h36
  4. faire une Quote en php " ' '
    Par budylove dans le forum Langage
    Réponses: 4
    Dernier message: 26/04/2006, 14h13
  5. VARCHAR contenant une quote '
    Par tonyskn dans le forum Langage SQL
    Réponses: 2
    Dernier message: 29/05/2003, 19h21

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo