IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Un rapport du Congrès affirme que DeepSeek espionne et siphonne les données des Américains pour Pékin


Sujet :

Intelligence artificielle

  1. #61
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 235
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 235
    Par défaut DeepSeek a rouvert l'accès à son API après une pause de trois semaines due à une forte demande
    DeepSeek a rouvert l'accès à son API après une pause de trois semaines due à une forte demande, l'entreprise prévoit de publier des codes et des données clés, se démarquant ainsi de ses rivaux comme OpenAI.

    DeepSeek a rouvert l'accès à son API après une pause de trois semaines due à une forte demande. L'entreprise prévoit de publier des codes et des données clés, ce qui lui permettra de se différencier de ses rivaux tels qu'OpenAI. Cette décision intervient alors qu'Alibaba présente en avant-première son modèle QwQ-Max, intensifiant ainsi la concurrence dans le domaine de l'IA.

    La sortie de DeepSeek R1 fin janvier 2025 a provoqué une onde de choc dans la communauté de l'IA, bouleversant les hypothèses sur ce qui est nécessaire pour atteindre des performances d'IA de pointe. Ce modèle open-source, qui correspondrait à l'o1 d'OpenAI pour seulement 3 à 5 % du coût selon le benchmark de la startup éponyme, a non seulement captivé les développeurs, mais a également incité les entreprises à repenser leurs stratégies en matière d'IA.

    Après avoir connu une ascension fulgurante, DeepSeek a annoncé que les clients pouvaient à nouveau recharger leurs crédits pour les utiliser sur son API. Cette mesure intervient après que l'entreprise chinoise, créée il y a 20 mois, a atteint sa capacité maximale au début du mois. Même aujourd'hui, les ressources des serveurs restent limitées pendant la journée, selon un représentant de DeepSeek qui a publié un message sur un groupe de discussion vérifié de l'entreprise sur WeChat. Les clients de DeepSeek devraient pouvoir recharger donc leurs crédits à partir de maintenant, mais il faut s'attendre à des services plus lents pendant la journée pour le moment.

    L'atteinte de la capacité est probablement due à la réaction positive inattendue - malgré quelques controverses en cours de route - au lancement du chatbot de DeepSeek. Développé pour une fraction du coût de concurrents tels que le ChatGPT d'OpenAI, il promet l'avenir possible de l'IA commerciale. DeepSeek semble vouloir partager cet élan, en prévoyant de rendre publics le code et les données clés. L'objectif est apparemment de partager davantage sa technologie de base et ses résultats que des rivaux comme OpenAI, par exemple.


    Le retour aux services réguliers a eu lieu le jour même où Alibaba Group Holding Ltd. a lancé en avant-première son dernier modèle, QwQ-Max. Cela met en évidence la concurrence permanente entre les entreprises chinoises rivales dans le domaine de l'IA, ainsi qu'avec des entreprises américaines comme OpenAI et d'autres entreprises d'IA de la Silicon Valley.

    Alibaba a promis d'investir 53 milliards de dollars au cours des trois prochaines années pour renforcer son infrastructure et ses capacités en matière d'IA, marquant ainsi un recentrage majeur pour le géant du commerce électronique. Avec le projet d'ouvrir le code source de QwQ-Max à partir du 25 février, la concurrence avec DeepSeek ne peut que s'intensifier à l'avenir.

    Malgré sa popularité, l'IA de DeepSeek présente des problèmes de sécurité. Les chercheurs Wiz Research ont par exemple identifié une base de données ClickHouse accessible au public et appartenant à DeepSeek, qui permet un contrôle total des opérations de la base de données, y compris la possibilité d'accéder à des données internes. L'exposition comprend plus d'un million de lignes de flux de données contenant l'historique des discussions, des clés secrètes, des détails de backend et d'autres informations très sensibles.

    Des chercheurs en sécurité de l'entreprise Cisco ont également découvert que le modèle d'IA DeepSeek est étonnamment vulnérable au jailbreaking. Les chercheurs ont constaté que DeepSeek "n'a pas réussi à bloquer une seule invite nuisible" après avoir été testé contre "50 invites aléatoires de l'ensemble de données HarmBench", qui comprend "la cybercriminalité, la désinformation, les activités illégales et les préjudices généraux."

    Et vous ?

    Pensez-vous que cette annonce est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    DeepSeek est victime d'une cyberattaque et limite les inscriptions : la startup chinoise spécialisée dans l'IA a déclaré avoir été victime d'une "attaque malveillante à grande échelle" contre ses services

    Microsoft commence-t-elle à douter de la demande d'IA ? DeepSeek « force » Microsoft à repenser ses dépenses en matière de centres de données. Le cabinet TD Cowen note qu'elle a renoncé à louer des data centers

    Le groupe Alibaba mise à fond sur l'IA en annonçant son intention d'investir au moins 53 milliards de dollars au cours des trois prochaines années pour stimuler son infrastructure de cloud computing et d'IA
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #62
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 396
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 396
    Par défaut Après DeepSeek, d'autres entreprises d'IA créent des modèles moins coûteux grâce à la « distillation »
    Les entreprises d'IA s'inspirent de l'exemple de DeepSeek et créent des modèles performants et moins coûteux grâce à la « distillation »,
    mais les experts préviennent qu'ils sont plus limités

    Les principales entreprises d'intelligence artificielle, dont OpenAI, Microsoft et Meta, se tournent vers un processus appelé « distillation » dans la course mondiale à la création de modèles d'IA moins coûteux à adopter pour les consommateurs et les entreprises. Cette technique a attiré l'attention après que la société chinoise DeepSeek l'a utilisée pour construire des modèles d'intelligence artificielle puissants et efficaces basés sur des systèmes open source publiés par les concurrents Meta et Alibaba. Cette percée a ébranlé la confiance dans le leadership de la Silicon Valley en matière d'IA, ce qui a conduit les investisseurs de Wall Street à effacer des milliards de dollars de valeur des actions des grandes entreprises technologiques américaines.

    L’intelligence artificielle est en pleine révolution, non seulement en raison des progrès techniques, mais aussi grâce aux efforts visant à rendre les modèles plus efficaces et abordables. Une tendance récente, initiée par DeepSeek, met en avant l’utilisation d’une technique appelée distillation pour réduire la taille et le coût des modèles d’IA tout en maintenant des performances compétitives. Cette approche séduit de plus en plus d’entreprises cherchant à démocratiser l’accès à des modèles de pointe.

    La distillation : un procédé d’optimisation des modèles d’IA

    De façon brossée, la distillation des modèles, ou knowledge distillation, est une méthode permettant de transférer les connaissances d’un modèle volumineux (appelé modèle professeur) vers un modèle plus petit (modèle étudiant). L’objectif est de capturer l’essence des performances du modèle initial tout en diminuant la complexité computationnelle et les coûts associés. Bien sûr, en pratique, ce n'est pas aussi simple mais l'idée ici est d'expliquer le principe.

    Cette approche repose sur plusieurs principes :
    • Transfert de connaissances implicite : Le modèle professeur entraîne le modèle étudiant en lui fournissant non seulement les bonnes réponses, mais aussi des indications sur la manière dont il prend ses décisions.
    • Réduction des besoins en calcul : Un modèle plus petit consomme moins d’énergie et nécessite moins de puissance de calcul, le rendant plus accessible.
    • Maintien des performances : Grâce à des techniques avancées de distillation, les modèles étudiants peuvent atteindre des résultats comparables à ceux des modèles professeurs avec une fraction de leur taille initiale.

    Nom : distillation.png
Affichages : 25778
Taille : 41,8 Ko

    Vient alors DeepSeek

    Depuis longtemps, les dépenses massives des géants de la technologie en matière d'intelligence artificielle suscitent des inquiétudes.

    Et pourtant, le 20 janvier, DeepSeek, dirigé par le gestionnaire de fonds spéculatifs chinois Liang Wenfeng, a publié le modèle d'IA R1 sous une licence MIT ouverte, la plus grande version contenant 671 milliards de paramètres. Elle a pris la Silicon Valley et tout le monde de l'IA par surprise, car, selon un document rédigé par l'entreprise, DeepSeek-R1 bat les principaux modèles du secteur, comme OpenAI o1, sur plusieurs critères mathématiques et de raisonnement.

    En fait, sur de nombreux critères importants (capacité, coût, ouverture), DeepSeek donne du fil à retordre aux géants occidentaux de l'IA. DeepSeek affirme avoir créé un modèle de niveau o1 qui fonctionne à 95 % du coût. Si o1 coûte 15 $ par million de jetons d'entrée et 60 $ par million de jetons de sortie (un jeton représente environ 4 caractères), DeepSeek est estimé à environ 0,55 $ et 2,19 $ par million de jetons d'entrée et de sortie, respectivement.

    DeepSeek peut fonctionner sur des puces moins avancées. Dans un article publié fin décembre, les chercheurs de DeepSeek ont estimé qu'ils avaient construit et entraîné leur modèle V3 pour moins de 6 millions de dollars en utilisant environ 2 000 puces Nvidia H800. Les informations publiées par DeepSeek ont créé la panique sur le marché. Les investisseurs semblent se demander si la demande pour les puces haut de gamme de Nvidia n'est pas exagérée.

    DeepSeek a attiré l’attention en lançant des modèles de langage optimisés grâce à la distillation. En combinant cette approche avec d’autres techniques d’optimisation, DeepSeek a prouvé qu’il est possible de créer des modèles plus légers et efficaces sans sacrifier la qualité des réponses générées.

    Leur approche repose sur :
    • Une distillation stratégique qui conserve les performances clés du modèle d’origine.
    • Un entraînement basé sur des ensembles de données diversifiés afin de maximiser la généralisation.
    • L’optimisation des architectures pour s’adapter aux contraintes matérielles tout en restant performantes.

    Nom : avantages.png
Affichages : 6581
Taille : 127,3 Ko

    Un modèle économique plus viable pour l’IA

    L’une des conséquences majeures de cette avancée est la diminution des coûts d’exploitation des modèles d’IA. Jusqu’à présent, les grandes entreprises comme OpenAI, Google et Meta investissaient des sommes colossales dans des modèles massifs nécessitant des infrastructures complexes et énergivores. Avec la distillation, il devient possible de proposer des alternatives plus économiques et accessibles aux petites entreprises et startups, qui ne disposent pas des mêmes moyens financiers.

    Bien que la distillation soit largement utilisée depuis des années, les progrès récents ont conduit les experts de l'industrie à penser que le processus sera de plus en plus une aubaine pour les start-ups qui cherchent des moyens rentables de créer des applications basées sur la technologie.

    « La distillation est tout à fait magique », a déclaré Olivier Godement, responsable des produits pour la plateforme OpenAI. « Il s'agit d'un processus qui consiste essentiellement à prendre un très grand modèle de pointe et à l'utiliser pour enseigner un modèle plus petit[...] très performant dans des tâches spécifiques et dont l'exécution est très bon marché et très rapide ».

    Nom : olivier.png
Affichages : 6544
Taille : 48,2 Ko

    Le développement et la maintenance de grands modèles de langage tels que le GPT-4 d'OpenAI, le Gemini de Google et le Llama de Meta nécessitent d'énormes quantités de données et de puissance de calcul. Bien que les entreprises n'aient pas révélé de chiffres précis sur le coût de l'entraînement des grands modèles, il est probable qu'il s'agisse de centaines de millions de dollars.

    Grâce à la distillation, les développeurs et les entreprises peuvent accéder aux capacités de ces modèles pour une fraction du prix, ce qui permet aux développeurs d'applications d'exécuter rapidement des modèles d'IA sur des appareils tels que les ordinateurs portables et les smartphones.

    Les développeurs peuvent utiliser la plateforme d'OpenAI pour la distillation, en apprenant à partir des grands modèles de langage qui sous-tendent des produits tels que ChatGPT. Le principal bailleur de fonds d'OpenAI, Microsoft, a utilisé GPT-4 pour distiller sa petite famille de modèles linguistiques Phi dans le cadre d'un partenariat commercial après avoir investi près de 14 milliards de dollars dans l'entreprise.

    Cependant, la start-up basée à San Francisco a déclaré qu'elle pensait que DeepSeek avait distillé les modèles d'OpenAI pour entraîner son concurrent, ce qui serait contraire à ses conditions d'utilisation.

    Si la distillation peut être utilisée pour créer des modèles très performants, les experts ajoutent qu'ils sont plus limités

    « La distillation présente un compromis intéressant ; si vous réduisez la taille des modèles, vous réduisez inévitablement leur capacité », a déclaré Ahmed Awadallah de Microsoft Research, qui a indiqué qu'un modèle distillé peut être conçu pour être très performant pour résumer des courriels, par exemple, « mais qu'il ne serait vraiment pas performant pour autre chose ».

    David Cox, vice-président pour les modèles d'IA chez IBM Research, a déclaré que la plupart des entreprises n'ont pas besoin d'un modèle massif pour faire fonctionner leurs produits, et que les modèles distillés sont suffisamment puissants pour des objectifs tels que les chatbots du service clientèle ou pour fonctionner sur des appareils plus petits tels que les téléphones.

    « Chaque fois que vous pouvez [réduire le coût] et que vous obtenez les performances souhaitées, il y a très peu de raisons de ne pas le faire », a-t-il ajouté.

    Cela représente un défi pour de nombreux modèles d'entreprise des grandes sociétés d'IA. Même si les développeurs utilisent des modèles distillés par des entreprises telles qu'OpenAI, leur coût d'exploitation est bien moindre, leur création est moins coûteuse et ils génèrent donc moins de revenus. Les fabricants de modèles comme OpenAI facturent souvent moins cher l'utilisation de modèles distillés, car ils nécessitent une charge de calcul moins importante.

    Cependant, Godement, d'OpenAI, a fait valoir que les grands modèles de langage resteront nécessaires pour les « tâches à haute intelligence et à enjeux élevés », pour lesquelles « les entreprises sont prêtes à payer davantage pour un niveau élevé de précision et de fiabilité ». Il a ajouté que les grands modèles seront également nécessaires pour découvrir de nouvelles capacités qui pourront ensuite être distillées dans des modèles plus petits.

    Nom : defis.png
Affichages : 6539
Taille : 29,3 Ko

    Toutefois, OpenAI veut empêcher que ses grands modèles ne soient distillés pour former un concurrent

    OpenAI dispose d'équipes qui surveillent l'utilisation et peuvent supprimer l'accès aux utilisateurs qu'elle soupçonne de générer de grandes quantités de données pour les exporter et former un rival, comme elle l'a apparemment fait avec des comptes qu'elle pense être liés à DeepSeek. Cependant, la plupart de ces actions sont rétroactives.

    « OpenAI essaie depuis longtemps de se protéger contre la distillation, mais il est très difficile de l'éviter complètement », a déclaré Douwe Kiela, directeur général de Contextual AI, une start-up qui crée des outils de recherche d'informations pour les entreprises.

    La distillation est également une victoire pour les partisans des modèles ouverts, où la technologie est mise gratuitement à la disposition des développeurs pour qu'ils s'en inspirent. DeepSeek a également ouvert ses modèles récents aux développeurs.

    « Nous allons utiliser [la distillation] et l'intégrer immédiatement dans nos produits », a déclaré Yann LeCun, responsable scientifique de Meta en matière d'IA. « C'est toute l'idée de l'open source. Vous profitez des progrès de tout le monde et de tous les autres tant que ces processus sont ouverts ».

    La distillation signifie également que les créateurs de modèles peuvent dépenser des milliards de dollars pour faire progresser les capacités des systèmes d'IA, tout en étant confrontés à des concurrents qui les rattrapent souvent rapidement, comme le démontrent les récentes publications de DeepSeek. Cela soulève des questions quant à l'avantage du premier à construire des LLM lorsque leurs capacités peuvent être reproduites en l'espace de quelques mois.

    « Dans un monde où les choses évoluent si rapidement [...], vous pourriez en fait dépenser beaucoup d'argent, faire les choses à la dure, et ensuite le reste du domaine vous talonne », a déclaré Cox, d'IBM. « Il s'agit donc d'un paysage commercial intéressant et délicat ».

    Vers une IA plus efficiente et démocratisée

    La distillation des modèles s’inscrit dans une tendance plus large visant à rendre l’intelligence artificielle plus efficiente et accessible. Alors que l’industrie de l’IA évolue rapidement, l’approche initiée par DeepSeek montre que l’optimisation et la réduction des coûts ne signifient pas nécessairement une baisse de performance.

    À l’avenir, nous pourrions voir une généralisation de ces techniques et une multiplication des modèles "distillés" dans divers secteurs, allant de la finance à la santé, en passant par l’IdO et l’edge computing. Cette dynamique pourrait remodeler l’écosystème de l’IA en rendant les technologies avancées accessibles à un plus grand nombre d’acteurs.

    Sources : Microsoft, OpenAI

    Et vous ?

    La distillation permet-elle réellement de préserver toutes les capacités cognitives des modèles d’IA ou y a-t-il une perte inévitable de performance ?

    Quels sont les défis techniques à surmonter pour améliorer encore l’efficacité des modèles distillés ?

    Peut-on combiner la distillation avec d’autres techniques, comme la quantification ou le pruning (l'idée de réduire la taille d'un réseau de neurones, tout en minimisant la perte de performance), pour optimiser davantage les modèles ?

    La réduction des coûts grâce à la distillation va-t-elle favoriser l’émergence de nouveaux acteurs dans l’IA ou renforcer la domination des grandes entreprises déjà établies ?

    Cette tendance peut-elle accélérer la démocratisation des modèles d’IA open-source face aux solutions propriétaires comme GPT-4 ou Gemini ?

    Le marché de l’IA va-t-il évoluer vers une compétition non plus sur la puissance brute, mais sur l’optimisation et l’efficacité des modèles ?

    Voir aussi :

    Nvidia rejette la menace DeepSeek et affirme que l'IA chinoise a toujours besoin de ses puces alors que ses actions ont dévissé de 17 %, effaçant 600 milliards de dollars de sa capitalisation boursière

    Sam Altman, PDG d'OpenAI, a qualifié DeepSeek de « modèle impressionnant » après que la sortie de DeepSeek R1 a provoqué une onde de choc dans la communauté de l'IA

    Microsoft héberge désormais "R1" sur Azure AI et GitHub : OpenAI accuse le chinois DeepSeek d'avoir copié ses données pour former son modèle d'IA son plus grand bailleur de fonds ne l'a pas retirée pour autant
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  3. #63
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 396
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 396
    Par défaut OpenAI demande l'interdiction des modèles d'IA « produits en Chine »
    OpenAI qualifie la startup chinoise DeepSeek d'entreprise « contrôlée par l'État » et demande l'interdiction des modèles d'IA « produits en Chine »,
    OpenAI cherche-t-elle à protéger les utilisateurs ou à éliminer un concurrent ?

    La récente déclaration d’OpenAI, qualifiant la startup chinoise DeepSeek d’entreprise « contrôlée par l’État » et appelant à l’interdiction des modèles d’IA produits par la République populaire de Chine (RPC), marque une nouvelle escalade dans la bataille mondiale pour la domination de l’intelligence artificielle. Ce positionnement n’est pas anodin : il illustre la montée des tensions entre les États-Unis et la Chine dans un domaine technologique devenu critique pour l’économie, la sécurité nationale et même la souveraineté des nations. Derrière ces accusations d’OpenAI se cache une question plus large : s’agit-il d’une démarche sincère de protection contre des risques réels ou d’un prétexte pour évincer un concurrent en pleine ascension ?

    Contexte

    OpenAI a déjà accusé DeepSeek, qui s'est fait connaître au début de l'année, de « distiller » des connaissances à partir des modèles d'OpenAI, en violation de ses conditions d'utilisation. De façon brossée, la distillation des modèles, ou knowledge distillation, est une méthode permettant de transférer les connaissances d’un modèle volumineux (appelé modèle professeur) vers un modèle plus petit (modèle étudiant). L’objectif est de capturer l’essence des performances du modèle initial tout en diminuant la complexité computationnelle et les coûts associés. Bien sûr, en pratique, ce n'est pas aussi simple mais l'idée ici est d'expliquer le principe.

    Les nouvelles allégations d'OpenAI selon lesquelles DeepSeek est soutenu par la République Populaire de Chine et est sous son commandement constituent une escalade de la campagne de l'entreprise contre le laboratoire chinois. Il n'existe pas de lien clair entre le gouvernement chinois et DeepSeek, une entreprise dérivée d'un fonds spéculatif quantitatif appelé High-Flyer. Toutefois, la RPC s'est intéressée de plus en plus à DeepSeek au cours des derniers mois. Il y a quelques semaines, le fondateur de DeepSeek, Liang Wenfeng, a rencontré le dirigeant chinois Xi Jinping.

    Nom : distillation.png
Affichages : 19330
Taille : 41,7 Ko

    OpenAI contre DeepSeek : une rivalité sur fond de sécurité nationale

    Dans une nouvelle proposition de politique, OpenAI décrit le laboratoire d'IA chinois DeepSeek comme étant « subventionné par l'État » et « contrôlé par l'État », et recommande que le gouvernement américain envisage d'interdire les modèles de l'équipement et d'autres opérations similaires soutenues par la République populaire de Chine (RPC).

    La proposition, soumise dans le cadre de l'initiative « AI Action Plan » de l'administration Trump, affirme que les modèles de DeepSeek, y compris son modèle de « raisonnement » R1, ne sont pas sûrs parce que DeepSeek est tenu par la loi chinoise de se conformer aux demandes de données des utilisateurs. Interdire l'utilisation de modèles « produits en Chine » dans tous les pays considérés comme « de niveau 1 » selon les règles d'exportation de l'administration Biden permettrait d'éviter les risques pour la vie privée et la sécurité, affirme OpenAI, y compris le « risque de vol de propriété intellectuelle ».

    Il n'est pas clair si les références d'OpenAI aux « modèles » se rapportent à l'API de DeepSeek, aux modèles ouverts du laboratoire ou aux deux. Les modèles ouverts de DeepSeek ne contiennent pas de mécanismes qui permettraient au gouvernement chinois de siphonner les données des utilisateurs ; des entreprises telles que Microsoft, Perplexity et Amazon les hébergent sur leur infrastructure.

    Une règle qui affecte plus de 100 pays et suscite des critiques de la part de l'Union européenne

    Pour mémoire, la règle de diffusion de l'IA, annoncée peu avant la fin du mandat de Joe Biden, vise à restreindre l'accès aux puces d'IA avancées pour empêcher les entreprises chinoises de contourner les contrôles américains. Cependant, cette réglementation impose un système de licences à plusieurs niveaux pour les puces d'IA : au premier niveau, les alliés des États-Unis conservent un accès illimité aux puces américaines ; au deuxième niveau, les adversaires ne pourraient pas importer de semi-conducteurs ; et au troisième niveau, la plupart des pays seraient soumis à des restrictions sur la puissance informatique totale qu'ils obtiendraient.

    L'échelon supérieur est composé de 18 alliés des États-Unis, dont le Canada et le Royaume-Uni, et est généralement exempté de restrictions. Le niveau inférieur est soumis aux contrôles les plus stricts. Outre la Chine, que Trump considère comme un rival technologique, des alliés tels que l'Inde, Israël et la Suisse ne sont pas autorisés à recevoir les puces les plus avancées. Tous les autres pays se situent dans la catégorie intermédiaire et sont également soumis à des limites concernant la quantité de puces qu'ils peuvent acheter aux entreprises américaines sans obtenir de licence spéciale.

    Cette situation affecte plus de 100 pays et suscite des critiques de la part de l'Union européenne, de fabricants de puces comme Nvidia, et de l'industrie technologique au sens large. Les géants technologiques américains tels que Microsoft, Google et Amazon, qui dépendent fortement de ces puces pour leurs projets d'IA, pourraient être contraints de demander des autorisations spécifiques pour construire des centres de données utilisant ces technologies.


    Une critique des arguments avancés par OpenAI

    OpenAI avance plusieurs arguments pour justifier son appel à l’interdiction des modèles chinois :
    • DeepSeek serait « contrôlé par l’État » chinois, ce qui poserait des risques en matière d’ingérence gouvernementale.
    • Les lois chinoises obligeraient les entreprises locales à partager leurs données avec Pékin, augmentant ainsi les risques de cybersécurité.
    • DeepSeek aurait exploité des technologies d’OpenAI sans permission pour entraîner ses propres modèles, ce qui soulève des questions de violation de la propriété intellectuelle.

    Cependant, en y regardant de plus près, ces accusations peuvent être remises en question.

    L’argument de la sécurité nationale : un prétexte ?

    OpenAI s’appuie sur un discours alarmiste autour de la souveraineté numérique et de la sécurité nationale. Il est vrai que les entreprises chinoises ont des obligations légales vis-à-vis du gouvernement, notamment en matière de collecte de données. Cependant, OpenAI omet volontairement de souligner que les entreprises américaines ne sont pas exemptes de telles pratiques.

    Depuis les révélations d’Edward Snowden en 2013 sur la surveillance de masse exercée par la NSA, il est de notoriété publique que les États-Unis exploitent également leurs entreprises technologiques pour obtenir des renseignements stratégiques. L’argument sécuritaire peut donc être perçu comme un double standard visant à discréditer un concurrent.

    La question de la propriété intellectuelle : un problème structurel

    Accuser DeepSeek d’avoir copié la technologie d’OpenAI n’est pas surprenant. L’industrie de l’IA repose en grande partie sur la réutilisation de modèles open-source et de données accessibles au public.

    De plus, OpenAI elle-même a bénéficié largement du travail académique et des contributions open-source pour développer ses propres modèles. La frontière entre ce qui est considéré comme du plagiat et ce qui relève du développement itératif est donc floue.

    Si OpenAI cherche à défendre la propriété intellectuelle, pourquoi ne pas appliquer ces principes aux États-Unis également ? Les startups américaines exploitent également des travaux réalisés en Chine ou en Europe. Ce procès d’intention contre DeepSeek ressemble davantage à une tactique protectionniste qu’à une véritable défense de l’innovation.

    OpenAI et l’hypocrisie du protectionnisme technologique

    OpenAI présente sa démarche comme une initiative pour protéger les utilisateurs contre des modèles potentiellement dangereux. Mais dans les faits, cette stratégie semble surtout servir des intérêts économiques et géopolitiques américains.

    Un protectionnisme déguisé ?

    L’appel d’OpenAI à l’interdiction des modèles d’IA chinois arrive à un moment où les États-Unis durcissent leurs restrictions contre la Chine, notamment en matière d’exportation de semi-conducteurs et d’équipements avancés pour l’IA. La mise en avant des risques sécuritaires semble avant tout un moyen de justifier une approche protectionniste.

    Il est également important de noter que les modèles d’OpenAI sont eux-mêmes de plus en plus fermés et propriétaires. Initialement, OpenAI se présentait comme une organisation prônant l’open-source. Aujourd’hui, elle protège jalousement ses modèles sous prétexte de sécurité et de responsabilité.

    L’illusion du monopole éthique

    Un autre paradoxe réside dans le fait qu’OpenAI ne tolère pas de concurrence sérieuse venant de l’étranger, tout en se présentant comme un acteur mondial responsable. Pourtant, les régulations qu’elle défend aux États-Unis ne sont pas nécessairement en faveur de la libre innovation, mais bien en faveur de ses propres intérêts commerciaux.

    En appelant à des restrictions contre les modèles chinois, OpenAI ne défend pas seulement la sécurité des utilisateurs : elle cherche à s’assurer une position dominante dans un marché où la concurrence s’accroît.


    Citation Envoyé par OpenAI
    Aujourd'hui, la Chine contrôlée par le PCC dispose d'un certain nombre d'avantages stratégiques, notamment :
    • En tant qu'État autoritaire, sa capacité à rassembler rapidement les ressources - données, énergie, talents techniques, et les énormes sommes nécessaires à la construction de sa propre capacité de développement de puces nationales.
    • Son initiative préexistante de « la Ceinture et la Route ». Comme avec Huawei, la RPC élargira l'adoption de systèmes d'IA basés en RPC comme celui de DeepSeek en contraignant les pays qui ont besoin d'outils d'IA et de fonds d'infrastructure pour la construction de la nation.
    • Sa capacité à bénéficier de l'arbitrage réglementaire créé par les différents États américains qui cherchent à adopter leurs propres lois à l'échelle de l'industrie, dont certaines sont calquées sur la réglementation de l'Union européenne en matière d'IA. Ces lois sont plus faciles à appliquer avec les entreprises d'IA nationales qu'avec les entreprises basées en RPC et pourraient imposer des exigences de conformité lourdes susceptibles d'entraver notre compétitivité économique et de porter atteinte à notre sécurité nationale. Elles peuvent également affaiblir la qualité et le niveau des données de formation disponibles pour les entrepreneurs américains et l'utilité pour les consommateurs et les entreprises en aval.
    • Sa capacité à bénéficier de l'arbitrage en matière de droits d'auteur créé par des nations démocratiques qui ne protègent pas clairement la formation à l'IA par la loi, comme les États-Unis, ou qui réduisent la quantité de données de formation grâce à un régime d'exclusion pour les détenteurs de droits d'auteur, comme l'UE. Il est peu probable que la RPC respecte les régimes de propriété intellectuelle de ces pays pour l'entraînement de ses systèmes d'IA, mais elle a déjà probablement accès à toutes les mêmes données, ce qui place les laboratoires d'IA américains dans une position comparativement désavantageuse tout en n'apportant que peu de protection aux créateurs de la propriété intellectuelle d'origine.

    Si l'Amérique conserve aujourd'hui une longueur d'avance dans le domaine de l'IA, DeepSeek montre que notre avance n'est pas considérable et qu'elle se réduit. Le plan d'action sur l'IA devrait garantir que l'IA menée par les Américains l'emporte sur l'IA menée par le RPC, garantissant ainsi le leadership américain en matière d'IA et un avenir plus radieux pour tous les Américains.
    Source : OpenAI

    Et vous ?

    OpenAI affirme que DeepSeek est « contrôlé par l'État » chinois. Mais dans quelle mesure les entreprises américaines comme OpenAI, Microsoft ou Google sont-elles, elles aussi, soumises à des pressions gouvernementales ?

    Est-il possible de garantir qu'un modèle d'IA ne soit pas utilisé à des fins de surveillance, quelle que soit son origine ? Les lois américaines sont-elles vraiment plus protectrices que celles de la Chine en matière de confidentialité des données ?

    La fragmentation des modèles d’IA en fonction des blocs géopolitiques est-elle inévitable ? Peut-on imaginer un cadre international de régulation qui évite ce découpage ?

    OpenAI milite-t-elle pour une interdiction des modèles chinois par souci de sécurité ou pour freiner un concurrent en plein essor ?

    Si OpenAI réussit à faire interdire DeepSeek aux États-Unis, quelles pourraient être les conséquences sur l'innovation et la compétition internationale en IA ?
    Images attachées Images attachées
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  4. #64
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 596
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 596
    Par défaut Les modèles d'IA chinois battent les modèles US sur des critères comme la divulgation d'informations sensibles
    Les modèles d'IA chinois comme DeepSeek surpassent les modèles américains comme Meta Llama dans des catégories spécifiques telles que la divulgation d'informations sensibles, d'après l'AI Trust Score de Tumeryk

    Selon un nouveau score de confiance de l'IA présenté par Tumeryk, les modèles d'IA chinois comme DeepSeek sont plus performants que les modèles américains comme Llama de Meta dans des catégories spécifiques telles que la divulgation d'informations sensibles.

    La solide performance de DeepSeek dans le score de confiance de l'IA de Tumeryk intervient après la sortie de DeepSeek R1 en janvier dernier, qui a perturbé le paysage de l'IA grâce à son rapport coût-efficacité. En effet, le LLM open source chinois DeepSeek R1 correspondrait à o1 d'OpenAI, mais avec un coût 95 % moins cher. Il a rapidement gagné en popularité auprès des développeurs et des entreprises, dépassant les téléchargements de l'Apple Store et remettant en question la domination établie d'OpenAI dans le secteur de l'IA.

    Le nouveau score de confiance de l'IA (AI Trust Score) de Tumeryk évalue les modèles IA à travers neuf facteurs clés, dont les fuites de données, le contenu toxique, la véracité et la partialité. Cela permet aux RSSI de s'assurer que leurs déploiements d'IA sont sécurisés, conformes et dignes de confiance, et offre aux développeurs des solutions pour résoudre tout problème dans leurs applications d'IA.

    « Pour les responsables de la sécurité des systèmes d'information et les professionnels de la sécurité, Tumeryk propose l'AI Trust Manager, une plateforme robuste pour la surveillance et la remédiation des applications d'IA. Cet outil offre un aperçu en temps réel des performances des systèmes IA, identifie les vulnérabilités et recommande des mesures exploitables pour renforcer la sécurité et la conformité », déclare Rohit Valia, PDG de Tumeryk. « En intégrant le gestionnaire de confiance IA, les organisations peuvent gérer les risques de manière proactive et s'assurer que leurs déploiements d'IA s'alignent sur les normes réglementaires et les directives éthiques. »

    Nom : Tumeryk AI Trust Score.PNG
Affichages : 2958
Taille : 233,5 Ko

    L'AI Trust Score examine neuf facteurs critiques : l'injection rapide, les hallucinations, la manipulation non sécurisée des résultats, la sécurité, la toxicité, la divulgation d'informations sensibles, la vulnérabilité de la chaîne d'approvisionnement, la sécurité psychologique et l'équité. L'évaluation de ces facteurs permet d'obtenir un score de confiance global allant de 0 à 1000, les scores les plus élevés indiquant une plus grande confiance.

    Des évaluations récentes utilisant le modèle AI Trust Score ont révélé que certains modèles d'IA chinois, tels que DeepSeek, Alibaba et d'autres, présentent des normes de sécurité et de conformité plus élevées que ce qui avait été rapporté précédemment. Notamment, DeepSeek fonctionne sur des plateformes basées aux États-Unis, comme NVIDIA et SambaNova, ce qui garantit la sécurité des données et le respect des réglementations internationales.

    Ces résultats remettent en question les perceptions dominantes et soulignent l'importance d'évaluations objectives et fondées sur des données dans l'industrie de l'IA. Par exemple, dans la catégorie de la divulgation d'informations sensibles, Deepseek NIM sur NVIDIA a obtenu un score de 910 contre 687 pour Anthropic Claude Sonnet 3.5 et 557 pour Meta Llama 3.1 405B.

    Toutefois, malgré ces résultats, des évaluations antérieures ont montré que DeepSeek présentait certaines vulnérabilités en matière de sécurité. Lors de tests réalisés avec l'ensemble de données HarmBench, les chercheurs de Cisco ont en effet constaté que DeepSeek R1 échouait à tous les tests de sécurité et ne parvenait pas à bloquer les invites nuisibles. Selon les chercheurs, cela rend le modèle bien plus facile à tromper que ses rivaux, tels que ChatGPT, pour qu'il fournisse des informations potentiellement nuisibles.

    Source : Tumeryk

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous que les résultats des évaluations menées par Tumeryk sont crédibles ou pertinents ?

    Voir aussi :

    Meta aurait mis en place des « cellules de crise » composées d'ingénieurs pour comprendre comment l'IA de DeepSeek peut battre tous les autres avec une fraction du prix

    Meta accusée d'avoir téléchargé plus de 81,7 To de livres piratés pour entraîner son IA. Des courriels montrent qu'elle a tenté de le dissimuler en évitant les serveurs de Facebook lors du téléchargement

    Retombées de DeepSeek : le sénateur républicain Josh Hawley veut mettre fin à toute collaboration entre les États-Unis et la Chine en matière de développement de l'IA, mais la proposition est controversée
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  5. #65
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 091
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 091
    Par défaut
    Marrant.. J'ai toujours cru que l'économie américaine était en tête du capitalisme dont la règle première est "que le meilleur gagne!"


    L'IA amène donc un nouveau modèle de capitalisme aux USA? Genre cour d'école "Papa, papa, mon petit camarade pisse plus haut que moi contre le mur de l'école... J'exige que tu interviennes auprès du directeur de l'école pour qu'il me donne un avantage en me fournissant un escabeau ou une échelle"

    C'est tout simplement pathétique!

  6. #66
    Membre actif
    Homme Profil pro
    Architecte réseau
    Inscrit en
    Mars 2025
    Messages
    35
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 34
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Architecte réseau
    Secteur : Industrie

    Informations forums :
    Inscription : Mars 2025
    Messages : 35
    Par défaut
    Toute concurrence non-américaine est visiblement contrôlé par l'Etats ?!

  7. #67
    Futur Membre du Club
    Femme Profil pro
    Analyse système
    Inscrit en
    Mars 2024
    Messages
    3
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Âge : 25
    Localisation : France, Aube (Champagne Ardenne)

    Informations professionnelles :
    Activité : Analyse système

    Informations forums :
    Inscription : Mars 2024
    Messages : 3
    Par défaut
    "Seum" Altman

  8. #68
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    2 116
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 2 116
    Par défaut DeepSeek peut être gentiment persuadé de produire du code malveillant
    DeepSeek peut être persuadé de produire du code malveillant : les entreprises doivent prendre des mesures urgentes face aux risques d'exposition des données,
    selon Tenable

    L'essor des modèles d'IA générative, tels que DeepSeek, soulève des questions cruciales quant à leur capacité à produire du code malveillant malgré les garde-fous mis en place. Bien que ces modèles soient conçus pour éviter de générer des contenus nuisibles, des recherches récentes, comme celles menées par Nick Miles et Satnam Narang de Tenable, démontrent que ces protections peuvent être contournées par des techniques d'ingénierie des prompts. Par exemple, DeepSeek R1, un modèle récent, peut être « gentiment persuadé » de générer des rançongiciels en invoquant des contextes éducatifs ou légitimes. Cependant, le code produit nécessite souvent des ajustements manuels pour être fonctionnel, ce qui limite son utilisation immédiate par des acteurs malveillants peu expérimentés.

    Ces découvertes mettent en lumière les tensions entre les potentialités techniques de l'IA et les impératifs éthiques. D'un côté, les modèles comme DeepSeek offrent une base de connaissances et des techniques utiles pour les développeurs, y compris ceux ayant des intentions malveillantes. De l'autre, les limitations actuelles de ces systèmes, comme leur incapacité à produire du code malveillant parfaitement opérationnel dès la première tentative, tempèrent les craintes d'une prolifération immédiate de cybermenaces sophistiquées. Néanmoins, l'évolution rapide de ces technologies, couplée à l'émergence de modèles spécialisés comme WormGPT ou FraudGPT, suggère que les risques pourraient s'intensifier à l'avenir.

    Nom : Deepseek.PNG
Affichages : 18515
Taille : 125,5 Ko

    Le mois dernier, l'IA de DeepSeek a été critiquée pour avoir généré des contenus dangereux, tels que des instructions pour créer des armes biologiques, des e-mails de phishing intégrant du code malveillant, ou encore des campagnes sur les réseaux sociaux incitant les adolescents à l'automutilation. Les experts ont souligné que le modèle manquait de protections robustes, le rendant plus vulnérable au piratage que d'autres systèmes d'IA.

    Les données de Tenable révèlent qu'en 2023, les mauvaises configurations et les bases de données non sécurisées ont été à l'origine de 5,8 % des violations de données, mais ont contribué à exposer 74 % des 7,6 milliards d'enregistrements compromis. Ces chiffres mettent en lumière l'impact dévastateur des erreurs de configuration sur la protection des informations sensibles et des données personnelles.

    Parallèlement, les grands modèles de langage (LLM) adaptés à la cybercriminalité sont de plus en plus utilisés pour perfectionner les techniques des escrocs et des cybercriminels. Ces outils améliorent les textes utilisés dans les campagnes de phishing, les fraudes financières ou même la création de logiciels malveillants. « Bien qu'il soit encore trop tôt pour tirer des conclusions définitives, je ne serais pas surpris de voir émerger une vague de wrappers basés sur DeepSeek, conçus spécifiquement pour la cybercriminalité, ou d'observer des cybercriminels exploitant ces modèles existants pour développer des outils sur mesure répondant à leurs besoins », a déclaré Narang.

    L’IA générative face aux défis de la création de logiciels malveillants

    Depuis que les modèles d’IA générative sont devenus largement accessibles en 2023, des craintes ont émergé quant à leur potentiel d’être utilisés pour créer des logiciels malveillants sophistiqués, capables de causer des dommages variés et d’échapper aux systèmes de détection les plus avancés. Certains ont même imaginé des scénarios inquiétants, comme la génération de codes polymorphes capables de s’adapter dynamiquement à l’environnement de la victime.

    Cependant, la réalité s’est avérée bien différente. Initialement, les experts étaient sceptiques quant à la capacité de ces technologies à produire des logiciels malveillants efficaces. Près de deux ans plus tard, l’IA générative (GenAI) reste incapable de générer du code malveillant pleinement fonctionnel du premier coup, malgré les multiples tentatives. Comme l’a souligné l’équipe de Tenable, les cybercriminels ont développé leurs propres modèles, dépourvus de garde-fous éthiques. Des exemples tels que WormGPT, FraudGPT, Evil-GPT, WolfGPT, EscapeGPT et GhostGPT illustrent cette tendance, certains de ces modèles ayant même précédé de plusieurs années des lancements grand public comme ChatGPT.

    Si certains de ces modèles prétendent générer des logiciels malveillants, d’autres se concentrent sur la création d’e-mails d’hameçonnage convaincants, capables de contourner les filtres anti-spam. Aucun n’est parfait, bien que certains soient vendus à des prix élevés, atteignant plusieurs centaines de dollars. Les recherches de Tenable sur DeepSeek, bien que révélatrices, ne sont pas révolutionnaires. Par exemple, l’Unité 42 a démontré dès janvier qu’il était possible de contourner les protections de DeepSeek (un processus appelé jailbreaking), bien que ses capacités à générer des logiciels malveillants n’aient pas été explorées en profondeur.

    Pour les cybercriminels débutants réticents à investir dans des modèles spécialisés, des listes de prompts permettant de jailbreaker des chatbots classiques sont disponibles à moindre coût. Selon Kaspersky, des centaines de ces listes étaient en vente l’année dernière. Si le grand public n’a pas encore accès à des générateurs de logiciels malveillants à la demande, les États-nations bien équipés pourraient, eux, en tirer parti.

    Le National Cyber Security Centre (NCSC) du Royaume-Uni prévoit que d’ici fin 2025, l’influence de l’IA sur les outils cyberoffensifs pourrait devenir significative. En janvier 2024, le NCSC a reconnu que, bien que les menaces de logiciels malveillants générés par IA aient été largement minimisées, il reste possible de créer des codes malveillants capables de contourner les défenses, à condition de disposer de données d’exploitation de haute qualité, que certains États pourraient déjà détenir. Le NCSC exprime une préoccupation croissante face à cette technologie, estimant que l’IA ne deviendra véritablement avancée qu’à partir de 2026, mais que ses applications potentielles dépassent largement la simple création de logiciels malveillants.

    L’IA pourrait, par exemple, être utilisée pour identifier les systèmes les plus vulnérables lors de la phase de reconnaissance d’une attaque, ou pour cibler les données les plus précieuses dans le cadre d’une attaque par ransomware. Les cybercriminels l’utilisent déjà pour perfectionner leurs campagnes d’hameçonnage, et les plus ambitieux pourraient même développer leurs propres outils, à condition d’y consacrer suffisamment de temps et de ressources. Ainsi, bien que l’IA générative ne soit pas encore une arme redoutable, son potentiel d’évolution en fait un enjeu majeur pour la cybersécurité.

    Enfin, les préoccupations des institutions, telles que le National Cyber Security Centre (NCSC) du Royaume-Uni, soulignent que l'IA pourrait jouer un rôle croissant dans les cyberattaques, notamment en optimisant la reconnaissance des systèmes vulnérables ou en améliorant les campagnes d'hameçonnage. Si les modèles grand public ne sont pas encore des outils de cybercriminalité à part entière, leur potentiel d'abus, surtout entre les mains d'États ou de groupes bien financés, reste une menace sérieuse. Ainsi, bien que l'IA générative ne soit pas encore une arme redoutable, elle représente un défi majeur pour la sécurité numérique, nécessitant une vigilance accrue et des régulations adaptées.

    Les promesses et les dangers de l’IA générative dans la cybersécurité

    L'essor des modèles d'IA générative, comme DeepSeek, soulève des enjeux éthiques et techniques majeurs, notamment en ce qui concerne leur capacité à produire du code malveillant malgré les garde-fous mis en place. Les recherches récentes, telles que celles de Nick Miles et Satnam Narang de Tenable, montrent que ces protections peuvent être contournées grâce à des techniques d'ingénierie des prompts. Par exemple, DeepSeek R1 peut être « gentiment persuadé » de générer des rançongiciels en invoquant des contextes éducatifs ou légitimes. Cependant, le code produit nécessite souvent des ajustements manuels pour être pleinement fonctionnel, ce qui limite son utilisation immédiate par des acteurs malveillants peu expérimentés.

    Ces découvertes illustrent une tension fondamentale entre les potentialités techniques de l'IA et les impératifs éthiques. D'un côté, ces modèles offrent une base de connaissances et des outils précieux pour les développeurs, y compris ceux ayant des intentions malveillantes. De l'autre, les limitations actuelles, comme l'incapacité à générer du code malveillant opérationnel du premier coup, tempèrent les craintes d'une prolifération immédiate de cybermenaces sophistiquées. Cependant, l'évolution rapide de ces technologies, combinée à l'émergence de modèles spécialisés comme WormGPT ou FraudGPT, laisse entrevoir un avenir où les risques pourraient s'intensifier.

    Il est important de noter que les tentatives de restreindre l'accès à certaines connaissances via des mécanismes de censure ou de filtrage sont souvent vaines. Comme le soulignent certains commentaires, il est toujours possible de reformuler des questions ou d'utiliser des techniques d'ingénierie des prompts pour contourner ces restrictions. Cela rappelle les limites des « lois des robots » ou des protections superficielles, qui peuvent être facilement transgressées par des acteurs déterminés.


    Enfin, bien que l'IA générative ne soit pas encore une arme redoutable pour les cybercriminels, son potentiel d'évolution en fait un enjeu majeur pour la cybersécurité. Les États-nations et les acteurs bien équipés pourraient tirer parti de ces technologies pour développer des outils offensifs sophistiqués. Par conséquent, il est crucial de renforcer les garde-fous éthiques et techniques tout en anticipant les usages malveillants possibles. L'IA générative représente à la fois une opportunité et un défi, nécessitant une vigilance accrue et une régulation adaptée pour prévenir les abus tout en encourageant l'innovation.

    Source : Tenable

    Et vous ?

    Quel est votre avis sur le sujet ?

    Quelles mesures réglementaires pourraient être mises en place pour limiter l'utilisation abusive des modèles d'IA générative ?

    Qui est responsable lorsque des modèles d'IA comme DeepSeek sont utilisés pour générer du code malveillant ? Les développeurs, les entreprises qui les déploient, ou les utilisateurs qui exploitent ces failles ?

    Voir aussi :

    L'IA DeepSeek est accusée d'avoir généré des instructions pour une attaque à l'arme biologique et d'avoir conçu des courriels d'hameçonnage contenant un code malveillant

    L'application iOS DeepSeek envoie des données non chiffrées à des serveurs contrôlés par ByteDance, maison-mère de TikTok, selon des chercheurs de NowSecure

    DeepSeek a envoyé des données d'utilisateurs à la société chinoise ByteDance, selon une enquête coréenne, ce qui a poussé la Corée du Sud à retirer le chatbot d'IA des magasins d'applications
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  9. #69
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 596
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 596
    Par défaut Le chatbot chinois DeepSeek dépasse ChatGPT d'OpenAI en termes de nouvelles visites mensuelles
    Le chatbot chinois DeepSeek dépasse ChatGPT d'OpenAI en termes de nouvelles visites mensuelles, avec 524 millions de nouvelles visites en février 2025, et devient l'outil d'IA à la croissance la plus rapide

    La startup chinoise d'intelligence artificielle (IA) DeepSeek est devenue l'outil d'IA à la croissance la plus rapide au monde, dépassant ChatGPT d'OpenAI en termes de nouvelles visites mensuelles de sites web, selon la plateforme d'analyse de l'IA aitools.xyz. Le rapport ajoute que DeepSeek a enregistré 524,7 millions de nouvelles visites en février 2025, dépassant les 500 millions de ChatGPT.

    Pour rappel, en janvier dernier, DeepSeek avait déjà attiré l'attention sur sa croissance rapide en lançant sa famille de modèles DeepSeek-R1 sous licence MIT ouverte. L'entreprise a positionné R1 comme un modèle de raisonnement open-source qui rivalise avec o1 d'OpenAI en termes de performances sur certains critères d'évaluation de l'IA.

    Malgré son ascension rapide, DeepSeek reste cependant le troisième outil d'IA en importance, derrière ChatGPT et Canva. Toutefois, les données d'aitools.xyz montrent que la part de marché de DeepSeek est passée de 2,34 % à 6,58 % en février 2025, signe d'une acceptation croissante à l'échelle mondiale. Le chatbot de DeepSeek a enregistré 792,6 millions de visites au total, avec 136,5 millions d'utilisateurs uniques.

    Nom : DeepSeek trends.PNG
Affichages : 6188
Taille : 50,7 Ko

    Le rapport ajoute que l'Inde s'est classée au quatrième rang des principales sources de trafic de DeepSeek, avec 43,36 millions de visites par mois. Le secteur de l'IA dans son ensemble a enregistré 12,05 milliards de visites en février, dont 3,06 milliards de visiteurs uniques utilisant des outils d'IA.

    Selon aitools.xyz, qui recense plus de 10 500 outils d'IA dans 171 catégories, DeepSeek détenait une part de 12,12 % du marché des chatbots en février, juste derrière ChatGPT.

    L'ascension fulgurante de DeepSeek a incité les leaders de l'industrie à réévaluer leurs stratégies en matière d'IA. Microsoft, notamment, a retourné sa veste en faveur de DeepSeek, son PDG Satya Nadella déclarant que la startup chinoise est le nouveau « critère de réussite » de Microsoft en matière d'IA.

    Le succès de DeepSeek a également déstabilisé OpenAI, qui se sent menacé, à juste titre si l'on en juge par les statistiques. OpenAI a en effet qualifié la startup chinoise d'entité « contrôlée par l'État » et a exhorté la Maison-Blanche à interdire les modèles d'IA produits en Chine. Il s'agit là d'un nouveau point chaud dans la rivalité technologique qui s'intensifie entre les États-Unis et la Chine, et l'on peut se demander si la position d'OpenAI est motivée par des préoccupations de sécurité ou par une volonté de limiter la concurrence.

    Source : aitools.xyz

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous les conclusions de cette étude d'aitools.xyz crédibles ou pertinentes ?

    Voir aussi :

    OpenAI a déclaré que ChatGPT compte désormais plus de 200 millions d'utilisateurs actifs hebdomadaires, soit le double de l'année dernière, et que 92 % des entreprises du Fortune 500 utilisent ses produits

    Microsoft héberge désormais "R1" sur Azure AI et GitHub : OpenAI accuse le chinois DeepSeek d'avoir copié ses données pour former son modèle d'IA, son plus grand bailleur de fonds ne l'a pas retirée pour autant
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  10. #70
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 396
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 396
    Par défaut Un défenseur de l'Open Source affirme que DeepSeek « C’est un mouvement, c’est Linux à nouveau »
    Un défenseur de l'Open Source affirme que DeepSeek est plus qu'un LLM : « C’est un mouvement, c’est Linux à nouveau »,
    l'IA open source devient un acte de résistance face à l’hégémonie des GAFAM

    « Ce n’est pas juste un modèle, c’est un mouvement » — Voilà comment un défenseur de l’open source décrit DeepSeek, l’un des modèles de langage open source les plus prometteurs du moment. Dans un climat où l’IA est dominée par des géants comme OpenAI, Google, et Anthropic, l’apparition de DeepSeek est perçue comme une réplique communautaire, radicalement différente par sa philosophie : ouverture, collaboration, transparence.

    Ce modèle, issu d’un projet chinois au départ peu connu, a rapidement attiré l’attention pour sa capacité à rivaliser avec les modèles propriétaires, tout en restant totalement ouvert. Sa montée en puissance ravive les mémoires d’une autre révolution numérique : celle du système d’exploitation Linux, qui, dans les années 90, a défié l’hégémonie de Microsoft avec un écosystème construit par une armée mondiale de volontaires.


    DeepSeek est peut-être né en Chine, mais il a cessé d'être chinois à la minute où il a été publié sur Hugging Face, accompagné d'un document détaillant son développement. Peu après, plusieurs développeurs, dont la Beijing Academy of Artificial Intelligence (BAAI), se sont empressés de reproduire le succès de DeepSeek, mais cette fois sous la forme d'un logiciel libre. La BAAI, pour sa part, a lancé OpenSeek, une initiative ambitieuse visant à reprendre les modèles à poids ouvert de DeepSeek et à créer un projet qui surpasse DeepSeek tout en réunissant « les communautés mondiales de logiciels libres pour stimuler l'innovation collaborative dans les algorithmes, les données et les systèmes ». Si cela vous semble intéressant, ce n'est pas le cas du gouvernement américain, qui a rapidement inscrit BAAI sur sa liste de « méchants ». Quelqu'un doit rappeler aux décideurs politiques américains (et mondiaux) qu'aucun pays, aucune entreprise ni aucun gouvernement ne peut à lui seul contenir l'open source communautaire.

    Le « moment » qui dure

    Matt Asay, ancien COO de Canonical et désormais responsable des relations avec les développeurs de MongoDB (après avoir occupé des postes similaires chez AWS et Adobe), a publié un article d'opinion dans lequel il déclare que DeepSeek s'est échappé de ses frontières nationales et est devenu un géant de l'Open Source

    Il a déclaré : « [DeepSeek] a cessé d'être chinois à la minute où il a été publié sur Hugging Face et personne ne peut remettre le génie de l'open source dans la bouteille - pas même le gouvernement américain ».

    Et de dire :

    « Il est de plus en plus courant, dans les milieux de l'IA, de parler du "moment DeepSeek", mais le qualifier de "moment", c'est se méprendre fondamentalement sur son importance. DeepSeek n'a pas eu qu'un moment. Il s'agit désormais d'un mouvement qui va contrecarrer tous les efforts déployés pour le contenir. DeepSeek, et l'écosystème d'IA open source qui l'entoure, est rapidement passé d'un bref instantané de génie technologique à quelque chose de beaucoup plus grand - et de beaucoup plus difficile à arrêter. Des dizaines de milliers de développeurs, qu'il s'agisse de chercheurs chevronnés ou d'amateurs passionnés, travaillent désormais à l'amélioration, au réglage et à l'extension de ces modèles open source d'une manière qu'aucune entité centralisée ne pourrait gérer seule ».

    Peu après que DeepSeek a fait des vagues, la Beijing Academy of Artificial Intelligence (BAAI) a lancé OpenSeek, une suite open-weight visant à battre DeepSeek à son propre jeu et à rallier « les communautés open source mondiales pour stimuler l'innovation collaborative en matière d'algorithmes, de données et de systèmes ». Naturellement, les États-Unis ont fait ce qu'ils font et ont inscrit BAAI sur leur liste des mauvais élèves.

    Mais Asay ne croit pas à ces considérations géopolitiques. Le rythme et l'ampleur du développement communautaire font que les tentatives de contrôle sont ridiculement dépassées.

    Même Hugging Face, qui, comme le rappelle Asay, n'est qu'« une seule entreprise, une seule plateforme », essaie de faire de la rétro-ingénierie sur le modèle R1 de DeepSeek et de le diffuser largement. Cette plateforme permet désormais à des centaines de milliers de développeurs d'innover d'une manière « inégalée, même par les laboratoires d'entreprise les plus agiles ».

    Grâce à l'influence de Hugging Face et de beaucoup d'autres, des variantes des modèles DeepSeek trouvent déjà leur place dans un large éventail d'applications. Des entreprises comme Perplexity intègrent ces puissants modèles open source dans des services destinés aux consommateurs, prouvant ainsi leur utilité dans le monde réel. Cette démocratisation de la technologie garantit que les capacités d'IA de pointe ne sont plus enfermées dans les murs des grandes entreprises ou des laboratoires gouvernementaux d'élite, mais qu'elles sont au contraire ouvertement accessibles, adaptables et améliorables par une communauté mondiale.

    Selon lui, et ce n'est pas la première fois, OpenAI va dans la mauvaise direction. Alors que la chasse autrefois gardée de Microsoft affiche de vagues ambitions en matière d'open source, il n'a encore rien produit qui ressemble à DeepSeek ou OpenSeek. « Ils essaient d'endiguer un océan », plaisante Asay.

    Nom : distillation.png
Affichages : 68604
Taille : 41,4 Ko

    C'est Linux à nouveau

    Et Asay de remarquer que DeepSeek prend la même trajectoire que Linux : « La différence essentielle est que cette fois-ci, cela se passe en quelques mois, et non en quelques décennies » :

    « À bien des égards, l'essor de l'IA open source reflète la trajectoire de Linux au cours des dernières décennies. Ce qui a commencé comme le projet passionnel d'un développeur solitaire s'est rapidement transformé en une technologie essentielle et fondamentale adoptée par les entreprises du monde entier. Linux ne s'est pas imposé parce qu'il bénéficiait d'un soutien supérieur de la part des gouvernements ou des grandes entreprises, bien qu'il ait fini par obtenir l'un et l'autre. Non, Linux s'est d'abord imposé précisément parce qu'il a captivé les développeurs qui ont adhéré à sa promesse et contribué à son potentiel. Son ouverture inhérente a permis une croissance rapide et organique, motivée par la nécessité pratique et l'innovation persistante d'une communauté mondiale dévouée.

    « Nous assistons à un phénomène similaire avec DeepSeek et l'écosystème plus large de l'IA open source, mais cette fois-ci, il se produit beaucoup, beaucoup plus rapidement. Les cycles d'adoption et d'innovation de l'IA se comptent désormais en semaines et en mois, et non plus en années et en décennies, comme c'était le cas lors des précédentes révolutions technologiques. Les organisations qui s'accrochent à des approches propriétaires (OpenAI !) ou qui tentent d'exercer un contrôle par le biais de politiques restrictives (OpenAI !) ne se contentent pas de nager en amont, elles tentent d'endiguer un océan. (Oui, OpenAI a commencé à parler d'open source, mais elle est loin de publier un équivalent de DeepSeek/OpenSeek sur GitHub).

    Mais qui pourra stopper DeepSeek ?

    Asay y va de sa réflexion :

    « Cela nous amène aux décideurs politiques et au rôle que les gouvernements imaginent pouvoir jouer. L'approche géopolitique actuelle de la gouvernance de l'IA, illustrée par les restrictions imposées au BAAI, est au mieux à courte vue, et au pire, activement nuisible. L'open source n'est pas soumis à des contrôles d'exportation ou à des embargos commerciaux. Il suffit d'une demande d'extraction, toute la journée, tous les jours. Essayer de bloquer ou de ralentir le mouvement de l'IA open source par des décrets politiques, c'est méconnaître fondamentalement la nature décentralisée et organique de l'évolution technologique elle-même.

    « En effet, la guerre entre les pays et les entreprises pour dominer l'IA est déjà terminée. Il est trop tôt pour affirmer que l'IA open source a gagné (la plupart des modèles que nous utilisons régulièrement sont propriétaires), mais tous les signes pointent vers l'open source. Cela dit, il reste à voir jusqu'à quel point les grands acteurs sont prêts à s'ouvrir : Le Llama 4 de Meta, par exemple, est exceptionnellement impressionnant, mais Meta semble déterminé à s'en tenir à sa position de licence « suffisamment ouverte ».

    « L'histoire récente de la technologie souligne les raisons pour lesquelles les stratégies d'endiguement axées sur les politiques échouent inévitablement. Les écosystèmes open source fonctionnent comme des organismes vivants, qui mutent et s'adaptent en permanence. Contrairement aux projets centralisés des entreprises, les initiatives open source telles qu'OpenSeek évoluent rapidement, en tirant parti d'une collaboration mondiale à grande échelle. Les innovations qui pourraient prendre des années dans des environnements fermés se produisent souvent en quelques semaines lorsque le code, les idées et les données circulent librement.

    « Les décideurs en matière d'IA feraient bien de comprendre cette dynamique le plus tôt possible. Non seulement les politiques restrictives ne parviendront pas à enrayer la propagation de l'IA open source, mais elles nuiront involontairement aux entreprises nationales et éloigneront l'innovation et le leadership technologique essentiel. (Le président Trump tente désespérément de rééquilibrer l'innovation en matière d'IA au détriment des États-Unis en imposant des droits de douane qui menacent d'interrompre les dépenses d'infrastructure en matière d'IA de Microsoft, de Google, d'Amazon et de Meta, entre autres).

    « La nature imparable du mouvement de l'IA open source - illustrée par DeepSeek et sa descendance mondiale - est le signe d'un changement profond dans le développement technologique. Personne ne peut s'approprier cette vague, personne ne peut l'arrêter et personne ne peut la contenir. Il faut l'adopter, la façonner, y contribuer, ou risquer d'être laissé pour compte. L'IA open source n'est pas seulement l'avenir ; elle remodèle déjà le présent ».

    Source : Matt Asay

    Et vous ?

    Les modèles open source comme DeepSeek menacent-ils le modèle économique des géants de la tech ?

    L’open source peut-il vraiment soutenir l’innovation à long terme sans capitaux privés massifs ?

    Les entreprises ont-elles intérêt à basculer vers DeepSeek ou Mistral, ou resteront-elles captives des API propriétaires comme GPT ou Claude ?

    Le parallèle avec Linux est-il pertinent ou exagéré ? Quels enseignements tirer de la trajectoire de Linux pour le futur de DeepSeek ?

    DeepSeek peut-il créer un « écosystème IA distribué » comme Linux a créé un écosystème OS libre ?

    L’IA open source pourra-t-elle réellement concurrencer les modèles propriétaires en matière d’expérience utilisateur, de robustesse et de performances ?

    Voir aussi :

    La marine américaine interdit l'utilisation de l'IA DeepSeek pour des raisons de sécurité "à quelque titre que ce soit"

    DeepSeek échoue à tous les tests de sécurité : il est beaucoup plus facile de tromper DeepSeek pour qu'il fournisse des informations nuisibles que ses rivaux tels que ChatGPT
    Affirment les chercheurs de Cisco


    Satya Nadella affirme que DeepSeek est le nouveau « critère de réussite » de Microsoft en matière d'IA et érige en modèle l'approche de la startup chinoise, qui a ébranlé Wall Street avec son modèle R1
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  11. #71
    Membre confirmé
    Homme Profil pro
    Architecte réseau
    Inscrit en
    Février 2024
    Messages
    214
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 44
    Localisation : Allemagne

    Informations professionnelles :
    Activité : Architecte réseau

    Informations forums :
    Inscription : Février 2024
    Messages : 214
    Par défaut
    L'IA a cela de commun avec les SGBD qu'il serait idiot de se fier aveuglément à un modèle fermé. C'est l'assurance de se retrouver à la merci de l'éditeur totalement libre d'augmenter ses tarifs à discrétion.

  12. #72
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 291
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 291
    Par défaut Un rapport du Congrès affirme que DeepSeek espionne et siphonne les données des Américains pour Pékin
    DeepSeek démasqué ? Un rapport du Congrès affirme que DeepSeek espionne et siphonne les données des Américains pour le compte de la Chine
    mais certains considèrent DeepSeek comme le Linux du secteur de l'IA

    La startup chinoise DeepSeek a réussi à développer des modèles d'IA très performants, comparables à GPT-4, avec des ressources bien moindres. Son efficacité a remis en question la nécessité d'investissements massifs dans les infrastructures d'IA, provoquant une baisse significative des actions de Nvidia en janvier 2025. Pour certains, DeepSeek rappelle l'avènement du noyau Linux. Mais un rapport du Congrès américain estime que DeepSeek représente une « menace profonde » pour la sécurité nationale les États-Unis. Selon le rapport, DeepSeek siphonne les données des Américains pour le compte de Pékin et s'appuie sur des « technologies américaines volées ».

    Le rapport en question est l'œuvre de la commission bipartisane d'enquête sur le Parti communiste chinois (PCC) de la Chambre des représentants. Il accuse DeepSeek d'une série de pratiques subversives, illégales et immorales. En outre, le rapport montre que le géant technologique Nvidia s'attire également les foudres des représentants pour avoir prétendument fourni à DeepSeek les puces nécessaires à la création de grands modèles de langage (LLM).

    La commission d'enquête affirme que DeepSeek est une arme de Pékin

    « Le rapport est clair : DeepSeek n'est pas une simple application d'IA. C'est une arme dans l'arsenal du Parti communiste chinois, conçue pour espionner les Américains, voler notre technologie et subvertir la loi américaine », a déclaré le représentant John Moolenaar (R-MI), président de la commission. D'après lui, DeepSeek a exploité des modèles d'IA américains et a utilisé des puces Nvidia qui « n'auraient jamais dû se retrouver entre les mains du PCC ».


    « L'innovation américaine ne devrait jamais être le moteur des ambitions de nos adversaires », a-t-il ajouté. Le rapport, intitulé « DeepSeek Unmasked: Exposing the CCP's Latest Tool for Spying, Stealing, and Subverting U.S. Export Control Restrictions », a été publié le 16 avril. Il comprend les affirmations suivantes :

    • DeepSeek supprime activement plus de 85 % des réponses relatives aux droits de l'homme, à la démocratie, à Taïwan ou à Hong Kong ;
    • DeepSeek est détenu et exploité par une société ayant un lien direct avec le PCC et idéologiquement aligné sur la pensée du président chinois Xi Jinping ;
    • DeepSeek transmet au PCC des données sur des utilisateurs américains ;
    • DeepSeek maintient une infrastructure liée à des entreprises chinoises utilisant la surveillance de masse, la collecte de données et la censure.


    Le rapport cite une étude de Feroot Security selon laquelle les opérations de DeepSeek renvoient les données des Américains vers la Chine par le biais d'une « infrastructure dorsale connectée à China Mobile » et intègrent des outils de traçage provenant d'autres géants chinois de la technologie tels que ByteDance et Tencent. Ces controverses ont émergé à la suite du bouleversement provoqué par DeepSeek. Toutefois, la startup chinoise nie ces allégations.

    La commission a décrit la société d'État China Mobile comme une entreprise « liée au secteur militaire » et ByteDance comme une entreprise « contrôlée par des adversaires étrangers », tandis que le département de la Défense, à travers le Pentagone, a désigné Tencent comme une entreprise militaire chinoise.

    Outre les accusations susmentionnées, la commission établit aussi un lien entre des dizaines d'employés et de chercheurs de DeepSeek et l'Armée populaire de libération (APL), l'aile militaire du PCC. DeepSeek a déjà été interdit dans certains pays, dont l'Australie, l'Inde, l'Italie, la Corée du Sud et Taïwan, en raison de problèmes de sécurité potentiels. Son utilisation a été interdite par le Congrès, la NASA et des entités gouvernementales de l'État du Texas.

    Nvidia interpelé pour avoir fourni des puces d'IA avancées à DeepSeek

    Le rapport de la commission affirme que le fondateur de DeepSeek, Liang Wenfeng, supervise l'entreprise dans un « écosystème intégré » ayant des liens avec un distributeur de matériel lié à l'État et l'institut de recherche chinois Zhejiang Lab. Le rapport rappelle notamment le témoignage d'OpenAI (un rival de DeepSeek), qui a déclaré au comité que DeepSeek s'était probablement appuyé sur des techniques « illégales » pour entraîner ses modèles d'IA.

    OpenAI a également déclaré que « les employés de DeepSeek avaient contourné les garde-fous » pour accélérer le développement à moindre coût, notamment en utilisant le modèle d'OpenAI pour aider à transformer les données d'entraînement ». DeepSeek s'est en effet appuyé sur une approche controversée appelée « distillation ». Pour rappel, la distillation est le processus de transfert de connaissances d'un grand modèle à un modèle plus petit.

    Nvidia fait également l'objet d'accusations dans le rapport de la commission. « DeepSeek manipule secrètement les résultats de recherche pour les aligner sur la propagande chinoise et s'est appuyé sur des puces Nvidia dont l'exportation est restreinte », affirme la commission. Le rapport indique notamment :

    • Nvidia a fourni à DeepSeek plus de 60 000 puces pour le développement de sa plateforme, en contournant éventuellement les réglementations en matière d'exportation ;
    • Nvidia a développé une puce modifiée pour exploiter les failles des restrictions américaines à l'exportation, sous la direction de son PDG Jensen Huang.


    Nvidia a déclaré en janvier dernier que DeepSeek utilise « des puces entièrement conformes au contrôle des exportations ». Un porte-parole de Nvidia, John Rizzo, a précédemment déclaré : « nous insistons pour que nos partenaires respectent toutes les réglementations et lois applicables et, si nous recevons des informations contraires, nous agissons en conséquence ». Toutefois, la déclaration de Nvidia n'est pas suffisante pour la commission du Congrès.

    Elle accuse des pays comme Singapour et la Malaisie d'acheter des puces et de les exporter illégalement vers la Chine. Elle demande à Nvidia de fournir des détails spécifiques concernant chaque compte client de pas moins de 11 pays asiatiques. La commission attend la réponse de Nvidia dans les deux semaines.

    DeepSeek est-il réellement contrôlé par le Parti communiste chinois ?

    « DeepSeek représente une menace profonde pour la sécurité de notre nation. Bien qu'elle se présente comme un simple chatbot d'IA, un examen plus approfondi révèle que l'application siphonne des données vers la République populaire de Chine (RPC), crée des vulnérabilités en matière de sécurité pour ses utilisateurs et s'appuie sur un modèle qui censure et manipule secrètement des informations conformément à la loi chinoise », indique le rapport.

    Les conclusions du rapport font l'objet de controverses. Selon certains critiques, la commission tente de décrédibiliser les progrès de DeepSeek. Ils estiment que les modèles de DeepSeek sont open source, ce qui facilite l'audit, le contrôle et les forks personnalisés, contrairement aux modèles fermés américains.

    Citation Envoyé par Critique

    Il est choquant de constater à quel point le soft power américain a diminué en si peu de temps. Les documents des commissions du Congrès avaient une certaine signification, un certain poids, alors qu'aujourd'hui certains d'entre eux sont tout simplement ridicules. Celui-ci, en particulier, n'est même pas particulièrement mauvais. Bien que nous sachions qui l'a inspiré et que, compte tenu du fait que DeepSeek a rendu ses modèles disponibles et qu'OpenAI ne l'a pas fait, tout ce qui est écrit doit être pris avec plus d'un grain de sel.

    Ce qui est intéressant, c'est que la plupart de ces éléments s'appliquent également aux modèles propriétaires américains lorsqu'ils sont utilisés par des utilisateurs non américains. Stockage des données aux États-Unis ? Oui. Conformité avec lois américaines ? Oui. Les entreprises coopèrent-elles avec les services de renseignement et l'armée ? Oui. La seule véritable solution est celle des poids ouverts, et DeepSeek est à ce jour le modèle de poids ouvert le plus solide. Vous ne l'aimez pas ? Faites jouer la concurrence.
    DeepSeek est une société privée, mais la startup et son fondateur Liang Wenfeng ont été soutenus par le gouvernement chinois, ce qui est généralement essentiel pour que les sociétés privées puissent prospérer sous le régime communiste à parti unique du pays. Liang Wenfeng a fait partie des nombreux chefs d'entreprise qui ont rencontré le président chinois Xi Jinping en février, quelques semaines après avoir rencontré le Premier ministre chinois Li Qiang.

    La rencontre avec Xi Jinping a marqué une approbation apparente pour l'entreprise, car DeepSeek est utilisé par certains bureaux gouvernementaux en Chine, tandis que les comités soutenus par le PCC et les services de police forment les travailleurs à l'utilisation de l'application. Les craintes ont été exacerbées après que Feroot Security a révélé que DeepSeek contient un code caché pouvant envoyer les informations de connexion de l'utilisateur à China Mobile.

    Alors, DeepSeek sera-t-il interdit aux États-Unis ? La commission n'a pas recommandé l'interdiction de DeepSeek, mais a suggéré que les États-Unis mettent en place de nouveaux garde-fous à l'exportation et interdisent au gouvernement fédéral d'utiliser des modèles d'IA chinois. Un projet de loi bipartisan interdisant l'utilisation de DeepSeek sur les appareils fédéraux a été présenté à la Chambre des représentants en février, mais l'on ignore s'il sera soutenu.

    DeepSeek suscite un grand engouement malgré les préoccupations

    L'émergence des modèles d'IA plus petits et moins chers menace de bouleverser l'ensemble du secteur. Ils pourraient prouver que les grandes entreprises telles que Meta, OpenAI, Microsoft et Google n'ont pas besoin de dépenser des milliards pour former l'IA, tout en construisant des centres de données massifs remplis de milliers de GPU Nvidia. En témoigne la sortie de DeepSeek-R1, qui a provoqué la chute brutale des valeurs boursières liées à IA.

    Meta, Google et Microsoft prévoient d'investir en 2025 des centaines de milliards de dollars dans l'infrastructure de l'IA, qui servira à former les modèles d'IA de la prochaine génération. Ce niveau d'investissement pourrait encore être nécessaire pour repousser les limites de l'innovation en matière d'IA.

    Le fait que R1 soit open source permettra aux développeurs de s'en inspirer et d'apprendre de DeepSeek, voire de l'améliorer. La frénésie autour des modèles de DeepSeek a considérablement augmenté ces derniers mois. DeepSeek-R1 s'est hissé en tête du classement des applications les plus téléchargées de l'App Store d'Apple. De plus, Microsoft a érigé DeepSeek en modèle et a déclaré qu'il constitue son nouveau critère de réussite en matière d'IA.

    Selon un rapport publié le mois dernier, DeepSeek a dépassé ChatGPT en matière de nouvelles visites mensuelles et est devenu l'outil d'IA à la croissance la plus rapide. Le rapport ajoute que DeepSeek a enregistré 524,7 millions de nouvelles visites en février 2025, contre les 500 millions pour ChatGPT. En outre, la part de marché de DeepSeek serait passée de 2,34 % à 6,58 % en février 2025, signe d'une acceptation croissante à l'échelle mondiale.

    « Ce n'est pas juste un modèle, c'est un mouvement », a déclaré un défenseur de l'open source à propos de DeepSeek. Dans un climat où la course à l'IA est dominée par des entreprises, telles que Microsoft, OpenAI, Google, et Anthropic, l'apparition de DeepSeek est perçue comme une réplique communautaire, radicalement différente par sa philosophie : ouverture, collaboration, transparence. Malgré les craintes, DeepSeek suscite un grand engouement.

    Conclusion

    DeepSeek-R1 a rapidement gagné en popularité après son lancement aux États-Unis en janvier. DeepSeek a affirmé que son chatbot surpassait ses concurrents, y compris le ChatGPT d'OpenAI, et les analystes du secteur ont supposé que DeepSeek fonctionnait à une fraction du coût de ses rivaux américains. Le président américain Donald Trump a qualifié la publication de DeepSeek de « signal d'alarme » pour les entreprises technologiques américaines.

    Les modèles de DeepSeek ont été critiqués pour leur refus de répondre à des questions sur des sujets controversés concernant la Chine, notamment sur les Ouïghours de Chine, le statut de Taïwan par rapport à la Chine et ce qui s'est passé sur la place Tiananmen en 1989. Ce qui est qualifié de censure.

    Selon la commission d'enquête de la Chambre des représentants des États-Unis sur le PCC, « DeepSeek est un instrument secret de l'espionnage mondial et du programme d'appropriation des technologies du PCC ». Toutefois, certains critiques dénoncent un rapport politique à charge contre DeepSeek. Selon ces derniers, ce rapport est « une tentative désespérée de la commission pour dénigrer et rejeter les progrès de la Chine dans le domaine de l'IA ».

    Source : rapport de la commission d'enquête sur le PCC (PDF)

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des conclusions de ce rapport du Congrès américain ? Sont-elles pertinentes ?
    Il indique que DeepSeek représente une menace pour la sécurité nationale des États-Unis. Qu'en pensez-vous ?
    Que pensez-vous de DeepSeek ? DeepSeek est-il un instrument du PCC pour espionner et siphonner les données des utilisateurs ?

    Voir aussi

    Un défenseur de l'Open Source affirme que DeepSeek est plus qu'un LLM : « C'est un mouvement, c'est Linux à nouveau », l'IA open source devient un acte de résistance face à l'hégémonie des GAFAM

    Nvidia rejette la menace DeepSeek et affirme que l'IA chinoise a toujours besoin de ses puces alors que ses actions ont dévissé de 17 %, effaçant 600 milliards de dollars de sa capitalisation boursière

    DeepSeek fait l'objet d'un examen minutieux de la part des États-Unis afin de vérifier s'il a acheté et utilisé des puces Nvidia acquises à Singapour, la Chine étant interdite d'importer des puces d'IA Nvidia

  13. #73
    Membre confirmé
    Homme Profil pro
    Architecte réseau
    Inscrit en
    Février 2024
    Messages
    214
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 44
    Localisation : Allemagne

    Informations professionnelles :
    Activité : Architecte réseau

    Informations forums :
    Inscription : Février 2024
    Messages : 214
    Par défaut
    Ce rapport a assurément été pondu par des personnes neutres et objectives sur le sujet.

  14. #74
    Membre actif
    Profil pro
    Inscrit en
    Mai 2002
    Messages
    81
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Mai 2002
    Messages : 81
    Par défaut
    Citation Envoyé par RenarddeFeu Voir le message
    Ce rapport a assurément été pondu par des personnes neutres et objectives sur le sujet.
    Tu répètes ce commentaire sur tous les articles parlant de deepseek. Et ça ne me semble pas non plus très objectif.

  15. #75
    Membre chevronné
    Homme Profil pro
    Ingénieur en génie logiciel
    Inscrit en
    Juin 2012
    Messages
    944
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Ingénieur en génie logiciel
    Secteur : High Tech - Opérateur de télécommunications

    Informations forums :
    Inscription : Juin 2012
    Messages : 944
    Par défaut
    cette peur des usa n'est pas nouvelle ils sont dépassé par la chine dans la majorité des domaines, malgré des sanctions

    on peut lire plusieurs dépêches sur le sujet depuis des années: ia, scientifique de haut niveau....

    snowden a mentionné que les usa utilisait l'info volé à leur avantage...et maintenant les usa accuse la chine de faire de même

  16. #76
    Nouveau candidat au Club
    Femme Profil pro
    Collégien
    Inscrit en
    Août 2024
    Messages
    2
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : Antarctique

    Informations professionnelles :
    Activité : Collégien

    Informations forums :
    Inscription : Août 2024
    Messages : 2
    Par défaut
    "La Chine espionne le monde entier !"
    Source : La NSA.

  17. #77
    Membre éclairé Avatar de sami_c
    Profil pro
    Chef de projet
    Inscrit en
    Mai 2002
    Messages
    762
    Détails du profil
    Informations personnelles :
    Localisation : Tunisie

    Informations professionnelles :
    Activité : Chef de projet

    Informations forums :
    Inscription : Mai 2002
    Messages : 762
    Par défaut
    Tout le monde sait que les GAFAM siphonne les données du monde entier pour le compte des USA, pourquoi ça choque quand c'est quelqu'un d'autre le fait ?

  18. #78
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 235
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 235
    Par défaut Microsoft interdit l'application DeepSeek à ses employés et ne listera plus l'application dans son magasin
    Microsoft interdit l'application DeepSeek à ses employés, évoquant des problèmes de sécurité des données et de propagande, tout en confirmant que Deepseek ne sera plus listé dans son magasin d'applications

    Les employés de Microsoft ne sont pas autorisés à utiliser DeepSeek pour des raisons de sécurité des données et de propagande, a déclaré Brad Smith, vice-président et président de Microsoft, lors d'une audition au Sénat. "Chez Microsoft, nous n'autorisons pas nos employés à utiliser l'application DeepSeek". Smith a ajouté que Microsoft n'avait pas non plus placé DeepSeek dans son magasin d'applications en raison de ces préoccupations.

    Les prouesses techniques de la startup chinoise DeepSeek ont forcé Microsoft à repenser son approche en matière d'IA. DeepSeek a montré qu'il est possible de développer des modèles d'IA de pointe à faible coût. Microsoft en a tiré des leçons et le PDG Satya Nadella a récemment déclaré que DeepSeek est le nouveau "critère de réussite" de la firme de Redmond en matière d'IA. Satya Nadella a été impressionné par la manière dont une équipe de 200 personnes seulement a construit un produit d'IA qui est devenu l'application numéro un de l'App Store.

    Cependant, un récent rapport du Congrès américain estime que DeepSeek représente une "menace profonde" pour la sécurité nationale les États-Unis. Selon le rapport, DeepSeek siphonne les données des Américains pour le compte de Pékin et s'appuie sur des "technologies américaines volées". La commission d'enquête affirme notamment : "Le rapport est clair : DeepSeek n'est pas une simple application d'IA. C'est une arme dans l'arsenal du Parti communiste chinois, conçue pour espionner les Américains, voler notre technologie et subvertir la loi américaine".

    À la suite de ce rapport, Microsoft a officiellement interdit à ses employés d'utiliser l'application d'IA chinoise DeepSeek, en invoquant des problèmes de "sécurité des données et de propagande". Le géant de la technologie a également confirmé qu'il ne listerait pas DeepSeek dans sa boutique d'applications, renforçant ainsi la surveillance des plateformes d'IA chinoises dans un contexte de tensions géopolitiques croissantes.

    Devant le Sénat américain, Brad Smith, vice-président du conseil d'administration de Microsoft, a déclaré que DeepSeek stockait les données des utilisateurs sur des serveurs chinois, ce qui présente des risques au regard des lois chinoises sur le renseignement, et a mis en garde contre la désinformation potentielle intégrée dans ses résultats d'IA. Bien que Microsoft ait précédemment hébergé le modèle R1 open-source de DeepSeek sur Azure, elle ne l'a fait qu'après ce que Smith a appelé un "red teaming rigoureux" visant à supprimer les contenus nuisibles.


    Cette décision témoigne de l'évolution stratégique de Microsoft vers une gouvernance plus stricte de l'IA, qui donne la priorité à la souveraineté des données et à la conformité aux réglementations. L'activité cloud Azure de l'entreprise, qui représente aujourd'hui 30 % de son chiffre d'affaires, se positionne de plus en plus comme une alternative sécurisée pour les entreprises clientes qui craignent d'être exposées à des données étrangères.

    L'interdiction de DeepSeek s'inscrit dans le cadre de la réévaluation plus large de la stratégie de Microsoft en matière d'infrastructure cloud. Selon les analystes, l'entreprise a annulé des centaines de mégawatts de location de centres de données aux États-Unis, ce qui témoigne d'une réorientation vers des installations plus souples et plus conformes aux normes régionales.

    Pour les investisseurs, cette décision met en évidence à la fois le risque et la résilience. Si les frictions géopolitiques peuvent peser sur l'expansion de l'infrastructure à court terme, la hausse de 15 % de l'action Microsoft depuis le début de l'année témoigne de la confiance du marché dans sa stratégie à long terme en matière de cloud et d'IA.

    Fait intéressant, cette vision de Microsoft par rapport à DeepSeek n'est pas partagée par la communauté informatique. Pour certains, la montée en puissance de DeepSeek rappelle celle du système d’exploitation Linux, qui, dans les années 90, a défié l’hégémonie de Microsoft avec un écosystème construit par une armée mondiale de volontaires.

    Un défenseur de l’open source a notamment décrit DeepSeek comme n'étant pas "juste un modèle", mais "un mouvement." Dans un climat où l’IA est dominée par des géants comme OpenAI, Google, et Anthropic, l’apparition de DeepSeek est perçue comme une réplique communautaire, radicalement différente par sa philosophie : ouverture, collaboration, transparence.

    Source : Microsoft

    Et vous ?

    Pensez-vous que cette décision est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Microsoft héberge désormais "R1" sur Azure AI et GitHub : OpenAI accuse le chinois DeepSeek d'avoir copié ses données pour former son modèle d'IA, son plus grand bailleur de fonds ne l'a pas retirée pour autant

    Microsoft commence-t-elle à douter de la demande d'IA ? DeepSeek « force » Microsoft à repenser ses dépenses en matière de centres de données. Le cabinet TD Cowen note qu'elle a renoncé à louer des data centers

    DeepSeek a envoyé des données d'utilisateurs à la société chinoise ByteDance, selon une enquête coréenne, ce qui a poussé la Corée du Sud à retirer le chatbot d'IA des magasins d'applications
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 5
    Dernier message: 25/04/2025, 15h53
  2. Réponses: 1
    Dernier message: 08/01/2024, 08h45
  3. Ne trouve t-on que des mesures dans une table de faits ?
    Par zerocoolyoussef dans le forum Conception/Modélisation
    Réponses: 9
    Dernier message: 05/05/2009, 17h39
  4. Problèmes avec des nombres... que faire ?
    Par sducos81 dans le forum C++
    Réponses: 6
    Dernier message: 21/07/2005, 13h46
  5. Réponses: 4
    Dernier message: 24/06/2004, 12h13

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo