IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Awful AI : une liste organisée pour suivre de près les utilisations alarmantes actuelles de l'IA


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 384
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 384
    Points : 196 431
    Points
    196 431
    Par défaut Awful AI : une liste organisée pour suivre de près les utilisations alarmantes actuelles de l'IA
    Awful AI : une liste organisée pour suivre de près les utilisations alarmantes actuelles de l'IA,
    dans l'espoir de sensibiliser

    Awful AI est une liste organisée pour suivre de près les utilisations alarmantes actuelles de l'IA dans l'espoir de sensibiliser le public à ses utilisations abusives dans la société.

    Les découvertes ont été classées par catégories. La liste ci-dessous n'est pas exhaustive.

    La discrimination

    HireVue : à l’intention des recruteurs, HireVue a été déployé et est présenté comme une plateforme qui analyse votre visage et indique aux entreprises si vous valez la peine d’être embauchés. HireVue souhaite faciliter la tâche du recruteur en utilisant l'intelligence artificielle pour faire le gros du travail et filtrer plusieurs candidats à la fois.

    Les candidats peuvent utiliser l’application mobile ou de bureau de HireVue pour organiser une interview vidéo avec un employeur et enregistrer les réponses aux questions de l’entrevue à leur convenance.

    L’éditeur d’HireVue a déclaré qu’il ne souhaitait pas voir son outil remplacer les recruteurs; au lieu de cela, il veut rendre le processus d'entretien d'embauche plus efficace. Dans le meilleur des cas, il peut servir de premier outil de sélection avant que les demandeurs d'emploi puissent se rendre sur la terre promise d'entrevue avec un humain.

    Gaydar : plutôt controversé, cet outil boosté à l'intelligence artificielle a été développé pour deviner si les personnes sont homosexuelles sur la base de photos de leurs visages. Selon une nouvelle étude, les machines pourraient avoir un "gaydar" bien meilleur que les humains.

    Le chatbot devenu raciste : Microsoft s’est excusé pour les tweets déplacés de Tay : son chatbot qui était supposé reproduire une conversation qu’aurait tenue une jeune femme âgée entre 18 et 24 ans sur les plateformes Twitter, Kik et GroupMe, a été mis hors ligne en moins de 24 heures après des tweets comme « je déteste les féministes, et ils devraient tous mourir et brûler en enfer », ou « Hitler avait raison, je déteste les juifs ».

    Nom : Tay microsoft.png
Affichages : 3552
Taille : 42,4 Ko

    L’Auto Tag raciste : Google s’est confondu en excuses après que l’algorithme qui reconnait les visages et les situations de son application Google Photos ait commis l’impair de confondre un couple de Noirs avec des gorilles. Cette erreur a été rapportée par le développeur New Yorkais Jacky Alciné qui est l’une des deux personnes sur la photo. Il l’a signalé en publiant un tweet, preuve à l’appui, avec un petit message pour bien montrer son irritation « Google Photos, vous avez merdé. Mon amie n’est pas un gorille ».

    Peu de temps après ce premier tweet, Google a réagi par l’entremise d’un de ses responsables Yonathan Zunger, lequel a reconnu sur le fil de discussion amorcé par Alciné que ce n’était pas du tout correct. Il a par la suite certifié que l’entreprise prenait des mesures afin que le problème ne survienne plus, précisant que des problèmes de ce type sont désormais « classés haut dans ma liste de bugs que vous ne voulez ‘jamais’ voir se produire ». Il a rajouté que Google « travaille également sur des corrections à long terme concernant à la fois la reconnaissance linguistique – les mots qu’il faut utiliser avec précaution une fois en face de photos de personnes – et la reconnaissance faciale elle-même – par exemple mieux reconnaître les visages à la peau foncée ».

    Nom : google image.png
Affichages : 3199
Taille : 328,6 Ko

    PredPol : ce programme destiné aux services de police qui prédit les points chauds dans lesquels des crimes pourraient se produire, pourrait éventuellement rester bloqué dans une boucle de surveillance policière dans des quartiers où les minorités sont les plus représentées.

    COMPAS : un algorithme d'évaluation du risque utilisé par les tribunaux judiciaires par l'État du Wisconsin pour prédire le risque de récidive. Son éditeur refuse de divulguer l'algorithme propriétaire et seul le score final d'évaluation du risque est connu. Selon un article du NYT, une fois appliqué aux Noirs, l'algorithme se montre biaisé.

    Nom : analyse.png
Affichages : 3060
Taille : 116,6 Ko

    Infer Criminality From Your Face (Inférer la criminalité de votre visage) : un programme qui détermine si vous êtes un criminel d'après vos traits de visage.

    Influence, désinformation et contrefaçon

    Cambridge Analytica : Cambridge Analytica a utilisé les données de Facebook pour modifier le comportement de l'auditoire à des fins politiques et commerciales

    Deep Fakes : Deep Fakes est une technique de synthèse d'images humaines basée sur l'intelligence artificielle. Elle est utilisée pour combiner et superposer des images et des vidéos existantes sur des images ou des vidéos sources. Deepfakes peut être utilisé pour créer de fausses vidéos pornographiques de célébrités ou bien d’autres.


    Fake News Bots : des comptes automatisés sont programmés pour diffuser de fausses informations. Récemment, de fausses informations ont été utilisées pour manipuler les marchés boursiers, inciter les gens à choisir des options de soins de santé et à manipuler des élections, y compris l’élection présidentielle de l’année dernière aux États-Unis.

    Attention Engineering : des notifications Facebook aux Snapstreaks en passant par les jeux automatiques YouTube, ils se font concurrence pour une seule chose: votre attention. Les entreprises s'en prennent à notre psychologie pour leur propre profit

    Systèmes de crédit social

    Système de crédits sociaux : à l'aide d'un algorithme secret, le crédit Sesame attribue un score constant de 350 à 950, et ses notations sont basées sur des facteurs tels que les « relations interpersonnelles » et les habitudes de consommation.

    Vitality : société d'assurance maladie proposant des offres basées sur l'accès aux données de trackers de fitness.

    Surveillance

    Analyse de la démarche : votre démarche est extrêmement complexe, très unique et difficile, sinon impossible, à masquer en cette ère de vidéosurveillance. Votre démarche n'a besoin d'être enregistrée qu'une seule fois et associée à votre identité pour que vous puissiez être suivi en temps réel. En Chine, ce type de surveillance est déjà déployé. En outre, plusieurs personnes ont été condamnées pour leur démarche dans l'ouest. Nous ne pouvons même plus rester modestement anonymes en public.

    SenseTime & Megvii : Basé sur la technologie de reconnaissance des visages reposant sur un algorithme d'apprentissage en profondeur, SenseFace et Megvii fournissent des solutions intégrées d'analyse vidéo intelligente, fonctionnant dans les domaines de la surveillance des cibles, de l'analyse de trajectoire et de la gestion de la population.

    Uber God View : le mode God View d'Uber permet aux employés d'Uber de voir tous les Uber d'une ville et les silhouettes et les noms des utilisateurs Uber en attente qui ont demandé un Uber.

    Palantir : une start-up d'un milliard de dollars centrée sur les politiques prédictives, le renseignement et les systèmes de défense militaires à moteur par intérim.

    Source : liste

    Et vous ?

    Que pensez-vous de ce projet ?
    Quels sont, selon vous, les éléments qui sont les plus alarmants ?
    Quelles utilisations de l'IA pouvez-vous rajouter ?

    Voir aussi :

    Une nouvelle méthode inédite de deepfake a été mise au point par des chercheurs, permettant de transférer le style d'une personne à une autre
    Google présente ses excuses pour un tag malheureux de son application Photos, qui a identifié un couple d'afro-américains comme étant des gorilles
    Microsoft explique les raisons qui ont fait de son chatbot Tay un fan d'Hitler, l'entreprise parle d'une « attaque coordonnée »
    Espagne : la police s'appuie sur l'IA pour débusquer les fausses déclarations de vol, VeriPol dispose d'un taux de précision de 83%
    20th Century Fox se tourne vers l'IA pour analyser les bandes-annonces et déterminer les films qui sont susceptibles de plaire au public
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 552
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 552
    Points : 18 446
    Points
    18 446
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Le chatbot devenu raciste : Microsoft s’est excusé pour les tweets déplacés de Tay : son chatbot qui était supposé reproduire une conversation qu’aurait tenue une jeune femme âgée entre 18 et 24 ans sur les plateformes Twitter, Kik et GroupMe, a été mis hors ligne en moins de 24 heures après des tweets comme « je déteste les féministes, et ils devraient tous mourir et brûler en enfer », ou « Hitler avait raison, je déteste les juifs ».
    Je me suis marré quand j'ai appris que Tay, le chatbot de Microsoft, avait dit ça ^^

    Citation Envoyé par Stéphane le calme Voir le message
    COMPAS : un algorithme d'évaluation du risque utilisé par les tribunaux judiciaires par l'État du Wisconsin pour prédire le risque de récidive. Son éditeur refuse de divulguer l'algorithme propriétaire et seul le score final d'évaluation du risque est connu. Selon un article du NYT, une fois appliqué aux Noirs, l'algorithme se montre biaisé.
    Est-ce qu'il ont essayé de prendre des photos de blanc et de les coloriser ?
    Statistiquement, aux USA, les noirs ont plus de chance de commettre des délits, ça vient peut-être de là...

    Citation Envoyé par Stéphane le calme Voir le message
    Deep Fakes : Deep Fakes est une technique de synthèse d'images humaines basée sur l'intelligence artificielle. Elle est utilisée pour combiner et superposer des images et des vidéos existantes sur des images ou des vidéos sources. Deepfakes peut être utilisé pour créer de fausses vidéos pornographiques de célébrités ou bien d’autres.
    Ça c'est très grave par contre.
    Si un jour l'AFP diffuse une fausse vidéo elle va être reprise par l'ensemble des médias, tout le monde va croire que c'est vrai.
    On ne peut avoir confiance en rien, tout peut être faux.
    Keith Flint 1969 - 2019

Discussions similaires

  1. crée une liste déroulante pour une requete
    Par gastoncs dans le forum Access
    Réponses: 14
    Dernier message: 10/06/2008, 13h48
  2. Créer une liste déroulante pour un attribut booléen?
    Par Flackou dans le forum Ruby on Rails
    Réponses: 1
    Dernier message: 29/05/2008, 10h35
  3. Réponses: 2
    Dernier message: 10/04/2007, 12h58
  4. Réponses: 10
    Dernier message: 14/02/2007, 13h13
  5. Réponses: 2
    Dernier message: 01/09/2006, 01h02

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo