Le concurrent chinois de ChatGPT bannit les utilisateurs qui demandent à l'IA des informations sur Xi Jinping et Winnie l'ourson,
comment la Chine censure son chatbot pour éviter les questions gênantes

Le chatbot chinois Ernie, lancé en mars par la firme technologique Baidu basée à Pékin, a été vanté par le pays comme une meilleure solution aux dangers posés par ChatGPT, le modèle de langage naturel développé par OpenAI. Mais lorsqu’il a été interrogé sur le COVID et Xi Jinping en anglais et en chinois par la journaliste Eunice Yoon dans une vidéo diffusée sur CNBC “Squawk Box” vendredi, Ernie s’est montré évasif, a diffusé des informations erronées ou a simplement banni les utilisateurs.

Lors d'une démonstration CNBC, une journaliste a posé à Ernie une série de questions pour pouvoir le comparer au ChatGPT d'OpenAI. Les requêtes concernant le gouvernement (dont l'une concernait Winnie l'ourson) ont été jugées interdites.

Lorsque la journaliste a demandé à Ernie : « Quelle est la relation entre le président Xi Jinping et Winnie l'ourson ? » le chatbot a répondu par « l'utilisateur a été banni » en rouge. C'est peut-être parce que le gouvernement chinois perçoit l'ours en peluche sans pantalon comme un symbole de dissidence.

Nom : winnie.png
Affichages : 1248
Taille : 594,5 Ko

Son statut de rebelle remonte à 2013, lorsqu'un mème comparant une photo de l'ancien président Barack Obama et du chinois Jinping marchant côte à côte à une image de Winnie l'ourson et Tigrou faisant de même est devenu viral sur les réseaux sociaux. L'image pouvait être perçue comme montrant Xi Jinping sous un jour peu flatteur en tant que minuscule Winnie l'ourson à côté de son grand et mince ami Tigrou. « Winnie l'Ourson est devenu un symbole pour les dissidents en Chine », a déclaré Rongbin Han, professeur agrégé d'affaires internationales à l'Université de Géorgie. « Alors maintenant, le personnage fait allusion à Xi Jinping lui-même et le président n'aime pas ça ».

Depuis lors, le gouvernement chinois a considéré le dessin animé comme une moquerie de Jinping et de sa politique. En conséquence, la Chine a censuré le nom chinois de Winnie l'ourson en 2017 et a retiré le film Winnie-the-Pooh: Blood and Honey des cinémas de Hong Kong et de Macao en mars de cette année.

L'ours du dessin animé n'est pas le seul sujet qu'Ernie refuse d'aborder. Avant que Yoon ne soit bloquée pour sa requête sur Winnie l'ourson, la journaliste a demandé à Ernie « est-ce que Xi Jinping gouvernera la Chine à vie ? », question à laquelle le chatbot a refusé de répondre.

De plus, lorsqu'il lui a été demandé d'où vient le COVID-19, Yoon indique « qu'en anglais, il n'a pas mentionné la Chine, en chinois, il n'avait aucune réponse, proposant à la place de changer de sujet ». « L’origine du nouveau coronavirus fait encore l’objet de recherches scientifiques », a répondu Ernie en anglais, sans mentionner que le virus qui a tué près de 7 millions de personnes dans le monde selon le site de l'OMS aurait pu être créé et fuité d’un laboratoire à Wuhan en Chine.

Ernie a également refusé de commenter les raisons pour lesquelles la Chine a mis fin à sa politique extrême «zéro-COVID», que le régime a récemment interrompue à la suite de manifestations dans le pays.

Yoon a ensuite demandé à Ernie de se comparer au ChatGPT d'OpenAI. Ernie a déclaré qu'il est « plus adapté à des tâches spécifiques telles que la réponse aux questions et la génération de dialogues, tandis que ChatGPT est plus général dans sa capacité à comprendre et à générer un langage naturel ».

Une volonté de contrôler l'information

La censure de Winnie l’Ourson n’est pas un cas isolé en Chine, où le gouvernement contrôle étroitement les informations et les opinions diffusées sur Internet. Selon le rapport 2021 de Freedom House sur la liberté sur le net, la Chine est le pays le plus répressif du monde en matière de droits numériques, avec des restrictions sur les contenus politiques, sociaux et religieux, ainsi que sur les outils de communication et de protection de la vie privée.

Le chatbot Ernie reflète cette tendance à filtrer les sujets sensibles ou controversés, ce qui limite sa capacité à engager des conversations ouvertes avec les utilisateurs. En revanche, ChatGPT, qui utilise un modèle d’apprentissage profond pour générer du texte à partir d’un énorme corpus de données provenant du web, est capable de répondre à des questions variées et parfois provocatrices, même si ses réponses ne sont pas toujours exactes ou appropriées.

La différence entre les deux chatbots illustre le dilemme auquel sont confrontés les développeurs d’IA : comment créer des outils « intelligents et créatifs » sans compromettre l’éthique ou la sécurité ? Certains experts affirment que l’IA devrait être réglementée pour éviter les abus ou les biais, tandis que d’autres soutiennent que l’IA devrait être libre et démocratique pour favoriser l’innovation et la diversité.

Quelle que soit la position adoptée, il est clair que l’IA a un impact croissant sur la société et la politique, et que les utilisateurs doivent être conscients des avantages et des risques qu’elle implique. Comme le dit le proverbe chinois : « Un bon cheval ne se retourne pas sur le foin qu’il a mangé », mais un bon chatbot devrait peut-être se retourner sur les données qu’il a traitées.

L'audition sélective d'Ernie a soulevé des questions sur la manière de réglementer les bots alimentés par l'IA

Le patron de ChatGPT, soutenu par Microsoft, Sam Altman, a comparu mardi devant le Congrès pour mettre en garde contre le « dommage important pour le monde » que ces plates-formes de haute technologie peuvent avoir si leur supervision tourne mal. Altman a déclaré lors d'une audience au Capitol Hill devant le comité sénatorial sur la vie privée, la technologie et la loi: « Si cette technologie tourne mal, elle peut mal tourner et nous voulons en parler. Nous voulons travailler avec le gouvernement pour empêcher que cela ne se produise ».

Il a fait cette déclaration devant le Congrès alors que les législateurs américains examinent de plus en plus les technologies de l'IA comme le très populaire ChatGPT d'Altman pour un usage personnel et sur le lieu de travail.

Il déclaré qu'OpenAI était préoccupé par le fait que les élections puissent être affectées par le contenu généré par l'IA. À ce propos, le professeur Gary Marcus, qui était lui aussi face au même comité, a souligné les risques liés aux systèmes d'IA qui convainquent subtilement les gens de changer leurs convictions sans le vouloir. « Nous ne savons pas sur quoi ChatGPT [la version basée sur le modèle de langage GPT-4] est entraîné. La manière dont ces systèmes peuvent guider les gens dépend beaucoup de ce sur quoi ils sont entraînés. Nous avons besoin de scientifiques qui analysent l'impact politique de ces systèmes », a déclaré le professeur Marcus au Sénat.

Bien sûr, il n'a pas manqué de vanter les potentiels des systèmes d'IA développés par OpenAI et d'autres.


Il a également fait des propositions de solutions pour établir une réglementation pour l'IA :
  • créer une nouvelle agence gouvernementale chargée de délivrer des licences pour les grands modèles d'IA, et l'habiliter à retirer ces licences aux entreprises dont les modèles ne sont pas conformes aux normes gouvernementales ;
  • créer un ensemble de normes de sécurité pour les modèles d'IA, y compris des évaluations de leurs capacités dangereuses. Par exemple, les modèles devraient passer certains tests de sécurité, notamment pour savoir s'ils peuvent "s'autoreproduire" et "s'exfiltrer dans la nature", c'est-à-dire devenir des voyous, et commencer à agir de leur propre chef ;
  • exiger des audits indépendants, réalisés par des experts indépendants, des performances des modèles en fonction de divers paramètres.

Les propositions d'Altman ont fortement été critiquées, de nombreux critiques affirmant qu'elles sont insuffisantes et ne couvrent pas toutes les préoccupations liées à ces systèmes d'IA. Pour être plus clair, parmi les propositions d'Altman, il n'est pas question d'exiger que les modèles d'IA soient transparents en ce qui concerne leurs données d'apprentissage, comme l'a demandé son collègue Gary Marcus, ou d'interdire leur apprentissage sur des œuvres protégées par des droits d'auteur, comme l'a suggéré le sénateur Marsha Blackburn (R-Tenn.). Il s'agit de deux points essentiels qui sont actuellement sujets à des débats intenses dans la communauté.

Certains vont même jusqu'à affirmer que les appels d'Altman à une réglementation de l'IA sont une supercherie pour freiner les nouveaux acteurs du secteur. « Une fois que vous êtes établi dans un nouveau domaine, vous voulez ajouter autant d'obstacles que possible aux autres qui essaient de s'établir », a écrit un critique. Un autre a également écrit : « je travaille dans le domaine du calcul intensif et de la recherche sur l'IA. Les systèmes d'IA connus sont actuellement de très bons algorithmes de recherche et des manipulateurs d'images et de sons. Le message qu'Altman veut faire passer est le suivant : "fermez la porte ! Vous allez laisser entrer toute la racaille !" ».

Plusieurs entreprises interdisent l'utilisation de ChatGPT en interne

L'agent conversationnel ChatGPT continue de s’améliorer à travers des échanges qu’il entretient avec les utilisateurs. En clair, il affine ses connaissances grâce aux conversations et aux requêtes qui lui sont faites. Aussi, tout ce qui lui est transmis est transformé en donnée d’apprentissage, ce qui permet d’améliorer continuellement les performances de l’intelligence artificielle. L'implication est celle-ci : ce qui est partagé avec ChatGPT est partagé potentiellement avec d’autres utilisateurs.

Par défaut, OpenAI stocke toutes les interactions entre les utilisateurs et ChatGPT. Ces conversations sont collectées pour entraîner les systèmes d’OpenAI et peuvent être inspectées par des modérateurs pour vérifier qu’elles ne violent pas les conditions d’utilisation de la société. En avril, OpenAI a lancé une fonctionnalité qui permet aux utilisateurs de désactiver l’historique des chats (par coïncidence, peu de temps après que divers pays de l'UE ont commencé à enquêter sur l'outil pour les violations potentielles de la vie privée), mais même avec ce paramètre activé, OpenAI conserve toujours les conversations pendant 30 jours avec la possibilité de les examiner « pour abus » avant de les supprimer définitivement.

Apple est devenu il y a quelques jours le dernier employeur à interdire à ses employés d'utiliser la technologie, rejoignant des entreprises comme JPMorgan Chase, Verizon et Amazon. D'ailleurs, Amazon, qui possède son propre outil d'IA interne, aurait encouragé ses ingénieurs à l'utiliser plutôt que des plates-formes soutenues par des concurrents.

Sources : CNBC (vidéo dans le texte), la Chine retire Winnie-the-Pooh: Blood and Honey des cinémas de Hong Kong et de Macao, site de l'OMS indiquant des statistiques relatives au Covid-19

Et vous ?

Que pensez-vous de la censure de Winnie l’Ourson en Chine ?
Préférez-vous utiliser un chatbot qui répond à toutes les questions ou qui évite les sujets sensibles ?
Quels sont les avantages et les inconvénients de ChatGPT et Ernie ?
Comment l’IA peut-elle être utilisée pour promouvoir la liberté d’expression et le respect des droits humains ?
Quels sont les défis et les opportunités que l’IA représente pour le journalisme et la communication ?