Pseudo-IA : des entreprises de tech préfèrent recourir à des humains
et les font passer pour une intelligence artificielle
Le Turc mécanique ou l’automate joueur d'échecs est un célèbre canular construit à la fin du XVIIIe siècle : il s’agissait d'un prétendu automate doté de la faculté de jouer aux échecs. L’automate était prétendument capable de jouer une partie d’échecs contre un adversaire humain. Mais en réalité, il possédait un compartiment secret dans lequel un joueur humain pouvait se glisser. Pendant 84 ans, et grâce au talent des joueurs cachés, le Turc mécanique put remporter la plupart des parties d'échecs auxquelles il participa en Europe et en Amérique, y compris contre certains hommes d'État tels que Napoléon Bonaparte, Catherine II de Russie et Benjamin Franklin.
Plus de deux siècles plus tard, il apparaît que ce même leurre fonctionne toujours. Et pour cause, il est difficile de concevoir un service propulsé par une intelligence artificielle. Une tâche si difficile que certaines startups se sont résolues de se tourner vers des humains et les faire passer pour des robots plutôt que le contraire.
« Utiliser un humain pour faire le travail vous permet d’outrepasser une panoplie d’enjeux de développement d’ordre technique et commercial. Il n’y a pas de scalabilité, bien évidemment, mais cela vous permet de créer quelque chose et sauter très tôt la partie difficile, » a dit Gregory Koberger, PDG de ReadMe, qui dit avoir tombé sur beaucoup de “pseudo-IA”. « Il s’agit essentiellement d’un prototypage de l’IA avec des êtres humains, » dit-il.
Cette pratique a été mise à la lumière du jour après la publication d’un article du Wall Street Journal informant que des centaines de développeurs tiers bénéficient de l’accès aux emails avec l’autorisation de Google.
Dans le cas de la société Edison Software, des ingénieurs d’IA ont scanné les emails personnels de centaines d’utilisateurs (avec leurs identités éditées) pour améliorer une fonctionnalité de « réponses intelligentes ». L’entreprise n’a pas indiqué dans sa politique de confidentialité que des employés humains ont accès aux emails des utilisateurs.
Ce n’est pas la première fois qu’une telle chose arrive. En 2008, Spinvox, une entreprise qui convertissait les messages vocaux en messages textes, a été accusée de recourir à des employés humains étrangers dans des centres d’appel au lieu de machines pour faire le travail.
En 2016, une autre entreprise relevée par Bloomberg cette fois a obligé des employés à passer 12 heures par jour à prétendre qu’ils sont des chatbots pour des services d’agenda comme X.ai et Clara. Ce travail a été si contraignant que les employés ont dit qu’ils avaient hâte de voir une IA venir les remplacer.
En 2017, l’application de gestion de dépenses Expensify a admis avoir employé des humains pour transcrire au moins quelques-uns des reçus supposés être analysés par sa “technologie smartscreen”. L’entreprise a utilisé le service de travail collaboratif Mechanical Turk d’Amazon, où des travailleurs faiblement rémunérés ont dû lire et transcrire les reçus.
« Je me demande si les utilisateurs de SmartScan d’Expensify savent que des travailleurs dans MTurk entrent leurs reçus, » a dit Rochelle LaPlante, une “Turker” et une partisane des travailleurs de la “gig economy” sur Twitter. « Je suis en train de voir le reçu Uber de quelqu’un avec son nom complet, et les adresses de départ et d’arrivée. »
Même Facebook, qui a investi massivement dans l’IA, a eu recours à des employés humains pour son assistant virtuel sur Messenger.
Dans certains cas, certaines entreprises font appel à des humains pour entrainer le système IA et améliorer sa précision. Une entreprise appelée Scale offre une banque de travailleurs humains pour fournir des données d’entrainement aux voitures autonomes et les autres systèmes propulsés par l’IA. Ces employés vont, par exemple, jeter un coup d’œil sur un flux d’une caméra ou un capteur et les marques de voiture, les piétons et les cyclistes dans une image. Avec assez de calibrage humain, l’IA apprend à reconnaître ces objets, seule.
Dans d’autres cas, les entreprises vont juste faire semblant d’avoir une IA prête, en informant les investisseurs et les utilisateurs qu’ils ont réussi à développer une technologie scalable alors que le travail est réalisé secrètement par des humains.
Alison Darcy, une psychologue et fondatrice de Woebot, un chatbot de support pour la santé mentale, décrit ceci comme « la technique de design du magicien d’Oz ».
« Vous simulez ce que va être l’expérience ultime. Et beaucoup de temps, lorsqu’il s’agit d’IA, il y a une personne derrière les rideaux au lieu d’un algorithme, » dit-elle. Créer un bon système IA requiert « beaucoup de données » et des fois, les développeurs ont besoin de savoir s’il y a une demande suffisante pour un service avant de se lancer dans un investissement.
Cette approche n’a pas été appropriée pour le développement d’un chatbot de support psychologique comme Woebot.
« En tant que psychologistes, nous sommes guidés par un code d’éthique. Ne pas leurrer les gens est très clairement l’un de ces principes d’éthique. »
Des études ont montré que les gens ont tendance à divulguer plus de détails quand ils pensent qu’ils parlent à une machine, au lieu d’une personne, à cause de la honte associée au fait de chercher de l’aide pour la santé mentale.
Une équipe de l’Université de Southern California a testé ceci avec une thérapeute virtuelle appelée Ellie. Ils ont trouvé que les vétérans souffrant de stress post-traumatique sont plus susceptibles de divulguer leurs symptômes quand ils ont su qu’Ellie a été un système IA au lieu d’une machine téléguidée par un humain.
“Les entreprises doivent être transparentes”
Certains pensent que les entreprises doivent être toujours transparentes sur le fonctionnement de leurs services. Si certaines sociétés offrent des services propulsés par l’IA, mais en réalité elles emploient des humains, c’est malhonnête et trompeur, pense LaPlante.
« Et pour l’employé, on sent qu’on est poussés derrière les rideaux. Je n’aime pas que mon travail soit utilisé par une entreprise qui va mentir à ses clients sur ce qui est en train d’arriver réellement. »
L’ensemble de ces faits montrent réellement pourquoi il faut utiliser les bons termes pour décrire ce que font certains systèmes. Par exemple, au lieu de tout dépeindre comme étant une IA, le terme “machine learning” serait plus approprié.
Le problème aussi réside dans le fait que certaines entreprises ne sont pas complètement honnêtes avec leurs clients. Certes, il y a un besoin de prouver qu’il y a une réelle demande pour un service avant de songer à le rendre scalable. Mais les utilisateurs ont le droit aussi de savoir que leurs messages personnels peuvent être lus par un employé humain, par exemple, même si cette consultation est anonyme.
Source : The Guardian
Et vous ?
Que pensez-vous de cette pratique ?
Pensez-vous qu'il y a eu une exagération des capacités actuelles de l'IA ?
Voir aussi :
57 % des travailleurs dans l'industrie technologique dans la Silicon Valley ont déclaré être en burn out, d'après une enquête
Les chercheurs en intelligence artificielle peuvent-ils gagner jusqu'à 1 million $ par an dans la Silicon Valley ? un aperçu des salaires
La bulle technologique de la Silicon Valley est plus grande qu'elle ne l'était en 2000, mais sa fin approche selon des analystes
Partager