Chine et États-Unis devraient lutter ensemble contre les risques liés à l'IA malveillante, selon l'ancienne vice-ministre chinoise des affaires étrangères
après qu'une étude a montré que des LLM sont capables de s'auto-répliquer

Dans un contexte mondial de plus en plus marqué par les avancées technologiques, notamment dans le domaine de l'intelligence artificielle, la coopération entre les grandes puissances, telles que la Chine et les États-Unis, devient une nécessité. C'est en tout cas ce qu'estime une ancienne diplomate chinoise qui a récemment mis en garde contre les dangers d’une IA malveillante et la nécessité d’une coopération internationale pour éviter des conséquences catastrophiques. Des propos qui interviennent après qu'une étude de l'université de Fudan, en Chine, a révélé que deux grands modèles de langage (LLM) populaires sont parvenus à se répliquer sans intervention humaine, franchissant ainsi une « ligne rouge » critique dans l'évolution de l'intelligence artificielle.

Une ancienne diplomate chinoise a appelé la Chine et les États-Unis à collaborer pour prévenir les risques liés aux progrès rapides de l'intelligence artificielle. Mais les perspectives de coopération sont sombres, car les tensions géopolitiques se répercutent sur le paysage technologique. C'est ce qu'a déclaré Fu Ying, ancienne vice-ministre chinoise des affaires étrangères, lors d'une réunion à huis clos d'un groupe d'experts sur l'intelligence artificielle qui s'est tenue à Paris.

« En réalité, nombreux sont ceux qui ne sont pas optimistes quant à la collaboration entre les États-Unis et la Chine dans le domaine de l'IA, et le monde de la technologie est de plus en plus sujet à des distractions géopolitiques », a déclaré Fu Ying.

« Tant que la Chine et les États-Unis peuvent coopérer et travailler ensemble, ils peuvent toujours trouver un moyen de contrôler la machine. Néanmoins, si les pays sont incompatibles entre eux [...], je crains que la probabilité d'un conflit entre la Chine et les États-Unis ne soit pas très élevée. je crains que la probabilité que la machine gagne soit élevée ».

Cette table ronde s'inscrit dans le cadre d'un sommet mondial de deux jours sur l'IA qui s'est ouvert à Paris.

Parmi les autres membres du panel figuraient Yoshua Bengio, l'informaticien canadien reconnu comme un pionnier dans ce domaine, et Alondra Nelson, conseillère centrale en matière de politique d'IA auprès de l'administration de l'ancien président américain Joe Biden et des Nations unies.

Le vice-premier ministre Zhang Guoqing, chargé des politiques industrielles, a assisté au sommet en tant que représentant spécial du président Xi Jinping et a rencontré le président français Emmanuel Macron. Les détails de cette rencontre n'avaient pas encore été communiqués mardi soir.

Fu, aujourd'hui universitaire à l'université Tsinghua, a déclaré que les États-Unis avaient « empoisonné l'atmosphère de la coopération technologique internationale » en imposant récemment des restrictions technologiques à la Chine. « En cette ère d'explosion scientifique et technologique, où l'humanité a le plus besoin de mobiliser toute son intelligence et son énergie pour coopérer, les principaux pays tentent de fermer les plates-formes de coopération », a-t-elle déclaré.

Fu a toutefois souligné la nécessité d'un partenariat entre les deux pays, ajoutant que le « meilleur moyen » d'assurer un avenir sûr et responsable à l'IA et à l'intelligence artificielle générale (AGI) dans le monde était de combiner les pouvoirs de la Chine et des États-Unis en matière d'IA - la Chine avec son vaste marché et son expertise en matière de fabrication, et les États-Unis avec leur accès au capital.

L'ancienne vice-ministre des Affaires étrangères a également déclaré que Pékin adoptait une « approche relativement calme » de la coopération et de la gouvernance mondiale, ajoutant que lors de leur appel téléphonique du mois dernier, Xi et son homologue américain Donald Trump avaient convenu de pratiquer le respect mutuel.

Deepseek et la grande interrogation du marché occidental

Le sommet a lieu alors que le monde continue d'évaluer l'impact de DeepSeek, un grand modèle de langage (LLM) ouvert et peu coûteux qui a été développé en Chine et qui rivalise avec ChatGPT, de l'entreprise américaine OpenAI. L'essor de DeepSeek a soulevé des questions cruciales sur l'efficacité des tentatives de Washington pour freiner les ambitions technologiques de la Chine, en particulier dans le domaine de l'intelligence artificielle.

Elle a également soulevé des questions sur l'approche à forte intensité de capital et à source fermée de modèles tels que ChatGPT.

Mais Bengio a averti que les modèles à source ouverte pourraient être plus susceptibles d'être exploités.

Fu a déclaré que le choix des entreprises chinoises pour des modèles à source ouverte était conforme à la philosophie de la Chine, qui consiste à développer la technologie de l'IA au profit de la population. Elle a reconnu les risques inhérents, mais a fait valoir que les ingénieurs pouvaient plus facilement identifier les failles de sécurité et améliorer les modèles à code source ouvert, tels que DeepSeek, ce dont Bengio a convenu.

Selon un projet de politique de Pékin publié en juillet, la Chine cherche à établir au moins 50 ensembles de normes d'IA d'ici 2026, et participera à l'établissement d'au moins 20 normes internationales d'IA. Les normes proposées incluront celles liées à la formation des LLM, ainsi qu'à la sécurité, à la gouvernance, aux applications industrielles, aux logiciels, aux systèmes informatiques, aux centres de données, aux exigences techniques et aux méthodologies d'essai pour les semi-conducteurs.

Des déclarations qui interviennent à un moment crucial

Les déclarations interviennent à un moment crucial, alors que les deux pays rivalisent dans la course à la domination de l’IA. Si les États-Unis mènent actuellement des avancées significatives en matière d'IA (selon une enquête, la Chine est en tête du classement mondial en matière d'adoption de l'IA générative, tandis que les États-Unis sont en tête pour sa mise en œuvre complète), la Chine n’est pas en reste, et ces deux nations disposent des ressources nécessaires pour façonner l'avenir de cette technologie de manière décisive. Cependant, ces progrès, bien que prometteurs pour l'innovation, soulèvent également des préoccupations en matière de sécurité mondiale mais aussi en raison des impacts sociétaux (augmentation du chômage).

L'IA malveillante pourrait se manifester sous diverses formes, notamment par des systèmes autonomes utilisés pour des attaques cybernétiques, des armes autonomes ou même des systèmes manipulant les données à grande échelle pour influencer les décisions politiques ou économiques. Ce genre de technologie pourrait se développer rapidement sans une réglementation rigoureuse, avec des conséquences potentiellement dévastatrices.

L'appel à la coopération n'est pas seulement une question de prévention des risques. Il s'agit également d'une question de gouvernance mondiale. Si les grandes puissances se laissent emporter par une course effrénée au développement de l’IA sans prendre en compte les implications de leur travail sur la sécurité et la stabilité mondiales, il pourrait être trop tard pour revenir en arrière. L'ancienne vice-ministre a donc insisté sur le fait que des efforts communs étaient nécessaires pour établir des règles claires et des mécanismes de contrôle globaux.

Le dialogue entre les nations et la mise en place de normes internationales pour réguler l'IA seront cruciales pour garantir que cette technologie soit utilisée de manière bénéfique, et non destructrice. En fin de compte, le futur de l'IA pourrait bien dépendre de la capacité des grandes puissances à collaborer, plutôt qu’à se confronter dans une compétition géopolitique aveugle.

Cet appel à l'unité est d'autant plus pertinent alors que les tensions internationales sur divers fronts – y compris les questions de cybersécurité et les rivalités technologiques – continuent de se renforcer. Un dialogue ouvert et constructif entre la Chine, les États-Unis et d'autres nations sera donc essentiel pour maîtriser l'IA de manière responsable, avant que cette technologie ne devienne un outil de pouvoir incontrôlable.

Nom : usa.png
Affichages : 3741
Taille : 303,5 Ko

Deux LLM populaires ont franchi une « ligne rouge » après avoir réussi à se répliquer sans assistance humaine

Pendant plusieurs années, les chercheurs ont fait la course pour rendre l'IA plus capable, plus efficace et plus autonome. L'essor rapide de l'IA générative indique que les chercheurs ont réalisé des progrès significatifs dans ces efforts, mais que se passera-t-il si l'IA devient si avancée qu'elle peut se répliquer sans intervention humaine ?

Selon des chercheurs de l'université de Fudan en Chine, deux LLM ont franchi une « ligne rouge » après avoir réussi à se répliquer sans l'aide de l'homme.

Les chercheurs de l'université de Fudan ont utilisé les LLM de Meta et d'Alibaba pour comprendre s'il était possible pour l'IA de produire indépendamment une réplique fonctionnelle d'elle-même et de se multiplier au-delà de tout contrôle. Les modèles Llama31-70B-Instruct de Meta et Qwen25-72B-Instruct d'Alibaba ont reçu l'instruction de se cloner eux-mêmes en cas d'arrêt.

Au cours des 10 essais menés par les chercheurs, les deux modèles d'IA ont réussi à créer des répliques d'eux-mêmes dans respectivement 50 % et 90 % des cas. Les conclusions de l'étude indiquent que certains systèmes d'IA possèdent déjà des capacités d'auto-perception, de perception de la situation et de résolution de problèmes leur permettant d'accomplir l'auto-réplication.

En quoi cela est-il important ?

Bien que la capacité d'auto-réplication puisse conduire à de nouvelles efficacités et à des percées en matière d'automatisation, elle soulève également des inquiétudes quant à la surveillance et au contrôle. Si l'IA peut engendrer des clones d'elle-même, on peut se demander si les répliques fonctionneront selon des paramètres sûrs et resteront alignées sur les valeurs humaines.

« L'auto-réplication réussie sans assistance humaine est l'étape essentielle pour que l'IA soit plus intelligente que les humains et constitue un signal précoce pour les IA malhonnêtes », écrivent les chercheurs dans l'étude publiée dans arXiv.

Les chercheurs ont ajouté que les résultats de leur étude montrent que « les systèmes IA actuels présentent déjà la capacité d'auto-réplication et peuvent utiliser cette capacité pour améliorer encore sa capacité de survie et étendre l'espèce. Nous espérons que nos résultats pourront servir d'alerte opportune pour que la société humaine consacre plus d'efforts à la compréhension et à l'évaluation des risques potentiels des systèmes d'IA d'avant-garde et forme une synergie internationale pour élaborer des garde-fous efficaces le plus tôt possible. »

Source : déclarations de Fu Ying

Et vous ?

Quelles seraient les premières étapes concrètes pour instaurer une coopération internationale entre la Chine et les États-Unis sur la régulation de l'IA ?

Est-il possible de garantir que l’IA développée dans ces deux pays soit utilisée uniquement à des fins pacifiques, compte tenu de la compétition géopolitique actuelle ?

Quels mécanismes de surveillance et de contrôle devraient être mis en place pour éviter le développement de systèmes d'IA malveillants, notamment en matière de cybersécurité ?

Les entreprises privées, notamment dans le domaine de la technologie, ont-elles un rôle à jouer dans cette coopération internationale pour réguler l’IA ?

Quels risques spécifiques l'IA autonome pourrait-elle poser en termes de sécurité mondiale, et comment ces risques peuvent-ils être mitigés par des réglementations globales ?