IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

DeepSeek peut être gentiment persuadé de produire du code malveillant


Sujet :

Intelligence artificielle

  1. #61
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 063
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 063
    Par défaut DeepSeek a rouvert l'accès à son API après une pause de trois semaines due à une forte demande
    DeepSeek a rouvert l'accès à son API après une pause de trois semaines due à une forte demande, l'entreprise prévoit de publier des codes et des données clés, se démarquant ainsi de ses rivaux comme OpenAI.

    DeepSeek a rouvert l'accès à son API après une pause de trois semaines due à une forte demande. L'entreprise prévoit de publier des codes et des données clés, ce qui lui permettra de se différencier de ses rivaux tels qu'OpenAI. Cette décision intervient alors qu'Alibaba présente en avant-première son modèle QwQ-Max, intensifiant ainsi la concurrence dans le domaine de l'IA.

    La sortie de DeepSeek R1 fin janvier 2025 a provoqué une onde de choc dans la communauté de l'IA, bouleversant les hypothèses sur ce qui est nécessaire pour atteindre des performances d'IA de pointe. Ce modèle open-source, qui correspondrait à l'o1 d'OpenAI pour seulement 3 à 5 % du coût selon le benchmark de la startup éponyme, a non seulement captivé les développeurs, mais a également incité les entreprises à repenser leurs stratégies en matière d'IA.

    Après avoir connu une ascension fulgurante, DeepSeek a annoncé que les clients pouvaient à nouveau recharger leurs crédits pour les utiliser sur son API. Cette mesure intervient après que l'entreprise chinoise, créée il y a 20 mois, a atteint sa capacité maximale au début du mois. Même aujourd'hui, les ressources des serveurs restent limitées pendant la journée, selon un représentant de DeepSeek qui a publié un message sur un groupe de discussion vérifié de l'entreprise sur WeChat. Les clients de DeepSeek devraient pouvoir recharger donc leurs crédits à partir de maintenant, mais il faut s'attendre à des services plus lents pendant la journée pour le moment.

    L'atteinte de la capacité est probablement due à la réaction positive inattendue - malgré quelques controverses en cours de route - au lancement du chatbot de DeepSeek. Développé pour une fraction du coût de concurrents tels que le ChatGPT d'OpenAI, il promet l'avenir possible de l'IA commerciale. DeepSeek semble vouloir partager cet élan, en prévoyant de rendre publics le code et les données clés. L'objectif est apparemment de partager davantage sa technologie de base et ses résultats que des rivaux comme OpenAI, par exemple.


    Le retour aux services réguliers a eu lieu le jour même où Alibaba Group Holding Ltd. a lancé en avant-première son dernier modèle, QwQ-Max. Cela met en évidence la concurrence permanente entre les entreprises chinoises rivales dans le domaine de l'IA, ainsi qu'avec des entreprises américaines comme OpenAI et d'autres entreprises d'IA de la Silicon Valley.

    Alibaba a promis d'investir 53 milliards de dollars au cours des trois prochaines années pour renforcer son infrastructure et ses capacités en matière d'IA, marquant ainsi un recentrage majeur pour le géant du commerce électronique. Avec le projet d'ouvrir le code source de QwQ-Max à partir du 25 février, la concurrence avec DeepSeek ne peut que s'intensifier à l'avenir.

    Malgré sa popularité, l'IA de DeepSeek présente des problèmes de sécurité. Les chercheurs Wiz Research ont par exemple identifié une base de données ClickHouse accessible au public et appartenant à DeepSeek, qui permet un contrôle total des opérations de la base de données, y compris la possibilité d'accéder à des données internes. L'exposition comprend plus d'un million de lignes de flux de données contenant l'historique des discussions, des clés secrètes, des détails de backend et d'autres informations très sensibles.

    Des chercheurs en sécurité de l'entreprise Cisco ont également découvert que le modèle d'IA DeepSeek est étonnamment vulnérable au jailbreaking. Les chercheurs ont constaté que DeepSeek "n'a pas réussi à bloquer une seule invite nuisible" après avoir été testé contre "50 invites aléatoires de l'ensemble de données HarmBench", qui comprend "la cybercriminalité, la désinformation, les activités illégales et les préjudices généraux."

    Et vous ?

    Pensez-vous que cette annonce est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    DeepSeek est victime d'une cyberattaque et limite les inscriptions : la startup chinoise spécialisée dans l'IA a déclaré avoir été victime d'une "attaque malveillante à grande échelle" contre ses services

    Microsoft commence-t-elle à douter de la demande d'IA ? DeepSeek « force » Microsoft à repenser ses dépenses en matière de centres de données. Le cabinet TD Cowen note qu'elle a renoncé à louer des data centers

    Le groupe Alibaba mise à fond sur l'IA en annonçant son intention d'investir au moins 53 milliards de dollars au cours des trois prochaines années pour stimuler son infrastructure de cloud computing et d'IA
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #62
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 282
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 282
    Par défaut Après DeepSeek, d'autres entreprises d'IA créent des modèles moins coûteux grâce à la « distillation »
    Les entreprises d'IA s'inspirent de l'exemple de DeepSeek et créent des modèles performants et moins coûteux grâce à la « distillation »,
    mais les experts préviennent qu'ils sont plus limités

    Les principales entreprises d'intelligence artificielle, dont OpenAI, Microsoft et Meta, se tournent vers un processus appelé « distillation » dans la course mondiale à la création de modèles d'IA moins coûteux à adopter pour les consommateurs et les entreprises. Cette technique a attiré l'attention après que la société chinoise DeepSeek l'a utilisée pour construire des modèles d'intelligence artificielle puissants et efficaces basés sur des systèmes open source publiés par les concurrents Meta et Alibaba. Cette percée a ébranlé la confiance dans le leadership de la Silicon Valley en matière d'IA, ce qui a conduit les investisseurs de Wall Street à effacer des milliards de dollars de valeur des actions des grandes entreprises technologiques américaines.

    L’intelligence artificielle est en pleine révolution, non seulement en raison des progrès techniques, mais aussi grâce aux efforts visant à rendre les modèles plus efficaces et abordables. Une tendance récente, initiée par DeepSeek, met en avant l’utilisation d’une technique appelée distillation pour réduire la taille et le coût des modèles d’IA tout en maintenant des performances compétitives. Cette approche séduit de plus en plus d’entreprises cherchant à démocratiser l’accès à des modèles de pointe.

    La distillation : un procédé d’optimisation des modèles d’IA

    De façon brossée, la distillation des modèles, ou knowledge distillation, est une méthode permettant de transférer les connaissances d’un modèle volumineux (appelé modèle professeur) vers un modèle plus petit (modèle étudiant). L’objectif est de capturer l’essence des performances du modèle initial tout en diminuant la complexité computationnelle et les coûts associés. Bien sûr, en pratique, ce n'est pas aussi simple mais l'idée ici est d'expliquer le principe.

    Cette approche repose sur plusieurs principes :
    • Transfert de connaissances implicite : Le modèle professeur entraîne le modèle étudiant en lui fournissant non seulement les bonnes réponses, mais aussi des indications sur la manière dont il prend ses décisions.
    • Réduction des besoins en calcul : Un modèle plus petit consomme moins d’énergie et nécessite moins de puissance de calcul, le rendant plus accessible.
    • Maintien des performances : Grâce à des techniques avancées de distillation, les modèles étudiants peuvent atteindre des résultats comparables à ceux des modèles professeurs avec une fraction de leur taille initiale.

    Nom : distillation.png
Affichages : 23171
Taille : 41,8 Ko

    Vient alors DeepSeek

    Depuis longtemps, les dépenses massives des géants de la technologie en matière d'intelligence artificielle suscitent des inquiétudes.

    Et pourtant, le 20 janvier, DeepSeek, dirigé par le gestionnaire de fonds spéculatifs chinois Liang Wenfeng, a publié le modèle d'IA R1 sous une licence MIT ouverte, la plus grande version contenant 671 milliards de paramètres. Elle a pris la Silicon Valley et tout le monde de l'IA par surprise, car, selon un document rédigé par l'entreprise, DeepSeek-R1 bat les principaux modèles du secteur, comme OpenAI o1, sur plusieurs critères mathématiques et de raisonnement.

    En fait, sur de nombreux critères importants (capacité, coût, ouverture), DeepSeek donne du fil à retordre aux géants occidentaux de l'IA. DeepSeek affirme avoir créé un modèle de niveau o1 qui fonctionne à 95 % du coût. Si o1 coûte 15 $ par million de jetons d'entrée et 60 $ par million de jetons de sortie (un jeton représente environ 4 caractères), DeepSeek est estimé à environ 0,55 $ et 2,19 $ par million de jetons d'entrée et de sortie, respectivement.

    DeepSeek peut fonctionner sur des puces moins avancées. Dans un article publié fin décembre, les chercheurs de DeepSeek ont estimé qu'ils avaient construit et entraîné leur modèle V3 pour moins de 6 millions de dollars en utilisant environ 2 000 puces Nvidia H800. Les informations publiées par DeepSeek ont créé la panique sur le marché. Les investisseurs semblent se demander si la demande pour les puces haut de gamme de Nvidia n'est pas exagérée.

    DeepSeek a attiré l’attention en lançant des modèles de langage optimisés grâce à la distillation. En combinant cette approche avec d’autres techniques d’optimisation, DeepSeek a prouvé qu’il est possible de créer des modèles plus légers et efficaces sans sacrifier la qualité des réponses générées.

    Leur approche repose sur :
    • Une distillation stratégique qui conserve les performances clés du modèle d’origine.
    • Un entraînement basé sur des ensembles de données diversifiés afin de maximiser la généralisation.
    • L’optimisation des architectures pour s’adapter aux contraintes matérielles tout en restant performantes.

    Nom : avantages.png
Affichages : 5639
Taille : 127,3 Ko

    Un modèle économique plus viable pour l’IA

    L’une des conséquences majeures de cette avancée est la diminution des coûts d’exploitation des modèles d’IA. Jusqu’à présent, les grandes entreprises comme OpenAI, Google et Meta investissaient des sommes colossales dans des modèles massifs nécessitant des infrastructures complexes et énergivores. Avec la distillation, il devient possible de proposer des alternatives plus économiques et accessibles aux petites entreprises et startups, qui ne disposent pas des mêmes moyens financiers.

    Bien que la distillation soit largement utilisée depuis des années, les progrès récents ont conduit les experts de l'industrie à penser que le processus sera de plus en plus une aubaine pour les start-ups qui cherchent des moyens rentables de créer des applications basées sur la technologie.

    « La distillation est tout à fait magique », a déclaré Olivier Godement, responsable des produits pour la plateforme OpenAI. « Il s'agit d'un processus qui consiste essentiellement à prendre un très grand modèle de pointe et à l'utiliser pour enseigner un modèle plus petit[...] très performant dans des tâches spécifiques et dont l'exécution est très bon marché et très rapide ».

    Nom : olivier.png
Affichages : 5613
Taille : 48,2 Ko

    Le développement et la maintenance de grands modèles de langage tels que le GPT-4 d'OpenAI, le Gemini de Google et le Llama de Meta nécessitent d'énormes quantités de données et de puissance de calcul. Bien que les entreprises n'aient pas révélé de chiffres précis sur le coût de l'entraînement des grands modèles, il est probable qu'il s'agisse de centaines de millions de dollars.

    Grâce à la distillation, les développeurs et les entreprises peuvent accéder aux capacités de ces modèles pour une fraction du prix, ce qui permet aux développeurs d'applications d'exécuter rapidement des modèles d'IA sur des appareils tels que les ordinateurs portables et les smartphones.

    Les développeurs peuvent utiliser la plateforme d'OpenAI pour la distillation, en apprenant à partir des grands modèles de langage qui sous-tendent des produits tels que ChatGPT. Le principal bailleur de fonds d'OpenAI, Microsoft, a utilisé GPT-4 pour distiller sa petite famille de modèles linguistiques Phi dans le cadre d'un partenariat commercial après avoir investi près de 14 milliards de dollars dans l'entreprise.

    Cependant, la start-up basée à San Francisco a déclaré qu'elle pensait que DeepSeek avait distillé les modèles d'OpenAI pour entraîner son concurrent, ce qui serait contraire à ses conditions d'utilisation.

    Si la distillation peut être utilisée pour créer des modèles très performants, les experts ajoutent qu'ils sont plus limités

    « La distillation présente un compromis intéressant ; si vous réduisez la taille des modèles, vous réduisez inévitablement leur capacité », a déclaré Ahmed Awadallah de Microsoft Research, qui a indiqué qu'un modèle distillé peut être conçu pour être très performant pour résumer des courriels, par exemple, « mais qu'il ne serait vraiment pas performant pour autre chose ».

    David Cox, vice-président pour les modèles d'IA chez IBM Research, a déclaré que la plupart des entreprises n'ont pas besoin d'un modèle massif pour faire fonctionner leurs produits, et que les modèles distillés sont suffisamment puissants pour des objectifs tels que les chatbots du service clientèle ou pour fonctionner sur des appareils plus petits tels que les téléphones.

    « Chaque fois que vous pouvez [réduire le coût] et que vous obtenez les performances souhaitées, il y a très peu de raisons de ne pas le faire », a-t-il ajouté.

    Cela représente un défi pour de nombreux modèles d'entreprise des grandes sociétés d'IA. Même si les développeurs utilisent des modèles distillés par des entreprises telles qu'OpenAI, leur coût d'exploitation est bien moindre, leur création est moins coûteuse et ils génèrent donc moins de revenus. Les fabricants de modèles comme OpenAI facturent souvent moins cher l'utilisation de modèles distillés, car ils nécessitent une charge de calcul moins importante.

    Cependant, Godement, d'OpenAI, a fait valoir que les grands modèles de langage resteront nécessaires pour les « tâches à haute intelligence et à enjeux élevés », pour lesquelles « les entreprises sont prêtes à payer davantage pour un niveau élevé de précision et de fiabilité ». Il a ajouté que les grands modèles seront également nécessaires pour découvrir de nouvelles capacités qui pourront ensuite être distillées dans des modèles plus petits.

    Nom : defis.png
Affichages : 5594
Taille : 29,3 Ko

    Toutefois, OpenAI veut empêcher que ses grands modèles ne soient distillés pour former un concurrent

    OpenAI dispose d'équipes qui surveillent l'utilisation et peuvent supprimer l'accès aux utilisateurs qu'elle soupçonne de générer de grandes quantités de données pour les exporter et former un rival, comme elle l'a apparemment fait avec des comptes qu'elle pense être liés à DeepSeek. Cependant, la plupart de ces actions sont rétroactives.

    « OpenAI essaie depuis longtemps de se protéger contre la distillation, mais il est très difficile de l'éviter complètement », a déclaré Douwe Kiela, directeur général de Contextual AI, une start-up qui crée des outils de recherche d'informations pour les entreprises.

    La distillation est également une victoire pour les partisans des modèles ouverts, où la technologie est mise gratuitement à la disposition des développeurs pour qu'ils s'en inspirent. DeepSeek a également ouvert ses modèles récents aux développeurs.

    « Nous allons utiliser [la distillation] et l'intégrer immédiatement dans nos produits », a déclaré Yann LeCun, responsable scientifique de Meta en matière d'IA. « C'est toute l'idée de l'open source. Vous profitez des progrès de tout le monde et de tous les autres tant que ces processus sont ouverts ».

    La distillation signifie également que les créateurs de modèles peuvent dépenser des milliards de dollars pour faire progresser les capacités des systèmes d'IA, tout en étant confrontés à des concurrents qui les rattrapent souvent rapidement, comme le démontrent les récentes publications de DeepSeek. Cela soulève des questions quant à l'avantage du premier à construire des LLM lorsque leurs capacités peuvent être reproduites en l'espace de quelques mois.

    « Dans un monde où les choses évoluent si rapidement [...], vous pourriez en fait dépenser beaucoup d'argent, faire les choses à la dure, et ensuite le reste du domaine vous talonne », a déclaré Cox, d'IBM. « Il s'agit donc d'un paysage commercial intéressant et délicat ».

    Vers une IA plus efficiente et démocratisée

    La distillation des modèles s’inscrit dans une tendance plus large visant à rendre l’intelligence artificielle plus efficiente et accessible. Alors que l’industrie de l’IA évolue rapidement, l’approche initiée par DeepSeek montre que l’optimisation et la réduction des coûts ne signifient pas nécessairement une baisse de performance.

    À l’avenir, nous pourrions voir une généralisation de ces techniques et une multiplication des modèles "distillés" dans divers secteurs, allant de la finance à la santé, en passant par l’IdO et l’edge computing. Cette dynamique pourrait remodeler l’écosystème de l’IA en rendant les technologies avancées accessibles à un plus grand nombre d’acteurs.

    Sources : Microsoft, OpenAI

    Et vous ?

    La distillation permet-elle réellement de préserver toutes les capacités cognitives des modèles d’IA ou y a-t-il une perte inévitable de performance ?

    Quels sont les défis techniques à surmonter pour améliorer encore l’efficacité des modèles distillés ?

    Peut-on combiner la distillation avec d’autres techniques, comme la quantification ou le pruning (l'idée de réduire la taille d'un réseau de neurones, tout en minimisant la perte de performance), pour optimiser davantage les modèles ?

    La réduction des coûts grâce à la distillation va-t-elle favoriser l’émergence de nouveaux acteurs dans l’IA ou renforcer la domination des grandes entreprises déjà établies ?

    Cette tendance peut-elle accélérer la démocratisation des modèles d’IA open-source face aux solutions propriétaires comme GPT-4 ou Gemini ?

    Le marché de l’IA va-t-il évoluer vers une compétition non plus sur la puissance brute, mais sur l’optimisation et l’efficacité des modèles ?

    Voir aussi :

    Nvidia rejette la menace DeepSeek et affirme que l'IA chinoise a toujours besoin de ses puces alors que ses actions ont dévissé de 17 %, effaçant 600 milliards de dollars de sa capitalisation boursière

    Sam Altman, PDG d'OpenAI, a qualifié DeepSeek de « modèle impressionnant » après que la sortie de DeepSeek R1 a provoqué une onde de choc dans la communauté de l'IA

    Microsoft héberge désormais "R1" sur Azure AI et GitHub : OpenAI accuse le chinois DeepSeek d'avoir copié ses données pour former son modèle d'IA son plus grand bailleur de fonds ne l'a pas retirée pour autant
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  3. #63
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 282
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 282
    Par défaut OpenAI demande l'interdiction des modèles d'IA « produits en Chine »
    OpenAI qualifie la startup chinoise DeepSeek d'entreprise « contrôlée par l'État » et demande l'interdiction des modèles d'IA « produits en Chine »,
    OpenAI cherche-t-elle à protéger les utilisateurs ou à éliminer un concurrent ?

    La récente déclaration d’OpenAI, qualifiant la startup chinoise DeepSeek d’entreprise « contrôlée par l’État » et appelant à l’interdiction des modèles d’IA produits par la République populaire de Chine (RPC), marque une nouvelle escalade dans la bataille mondiale pour la domination de l’intelligence artificielle. Ce positionnement n’est pas anodin : il illustre la montée des tensions entre les États-Unis et la Chine dans un domaine technologique devenu critique pour l’économie, la sécurité nationale et même la souveraineté des nations. Derrière ces accusations d’OpenAI se cache une question plus large : s’agit-il d’une démarche sincère de protection contre des risques réels ou d’un prétexte pour évincer un concurrent en pleine ascension ?

    Contexte

    OpenAI a déjà accusé DeepSeek, qui s'est fait connaître au début de l'année, de « distiller » des connaissances à partir des modèles d'OpenAI, en violation de ses conditions d'utilisation. De façon brossée, la distillation des modèles, ou knowledge distillation, est une méthode permettant de transférer les connaissances d’un modèle volumineux (appelé modèle professeur) vers un modèle plus petit (modèle étudiant). L’objectif est de capturer l’essence des performances du modèle initial tout en diminuant la complexité computationnelle et les coûts associés. Bien sûr, en pratique, ce n'est pas aussi simple mais l'idée ici est d'expliquer le principe.

    Les nouvelles allégations d'OpenAI selon lesquelles DeepSeek est soutenu par la République Populaire de Chine et est sous son commandement constituent une escalade de la campagne de l'entreprise contre le laboratoire chinois. Il n'existe pas de lien clair entre le gouvernement chinois et DeepSeek, une entreprise dérivée d'un fonds spéculatif quantitatif appelé High-Flyer. Toutefois, la RPC s'est intéressée de plus en plus à DeepSeek au cours des derniers mois. Il y a quelques semaines, le fondateur de DeepSeek, Liang Wenfeng, a rencontré le dirigeant chinois Xi Jinping.

    Nom : distillation.png
Affichages : 13650
Taille : 41,7 Ko

    OpenAI contre DeepSeek : une rivalité sur fond de sécurité nationale

    Dans une nouvelle proposition de politique, OpenAI décrit le laboratoire d'IA chinois DeepSeek comme étant « subventionné par l'État » et « contrôlé par l'État », et recommande que le gouvernement américain envisage d'interdire les modèles de l'équipement et d'autres opérations similaires soutenues par la République populaire de Chine (RPC).

    La proposition, soumise dans le cadre de l'initiative « AI Action Plan » de l'administration Trump, affirme que les modèles de DeepSeek, y compris son modèle de « raisonnement » R1, ne sont pas sûrs parce que DeepSeek est tenu par la loi chinoise de se conformer aux demandes de données des utilisateurs. Interdire l'utilisation de modèles « produits en Chine » dans tous les pays considérés comme « de niveau 1 » selon les règles d'exportation de l'administration Biden permettrait d'éviter les risques pour la vie privée et la sécurité, affirme OpenAI, y compris le « risque de vol de propriété intellectuelle ».

    Il n'est pas clair si les références d'OpenAI aux « modèles » se rapportent à l'API de DeepSeek, aux modèles ouverts du laboratoire ou aux deux. Les modèles ouverts de DeepSeek ne contiennent pas de mécanismes qui permettraient au gouvernement chinois de siphonner les données des utilisateurs ; des entreprises telles que Microsoft, Perplexity et Amazon les hébergent sur leur infrastructure.

    Une règle qui affecte plus de 100 pays et suscite des critiques de la part de l'Union européenne

    Pour mémoire, la règle de diffusion de l'IA, annoncée peu avant la fin du mandat de Joe Biden, vise à restreindre l'accès aux puces d'IA avancées pour empêcher les entreprises chinoises de contourner les contrôles américains. Cependant, cette réglementation impose un système de licences à plusieurs niveaux pour les puces d'IA : au premier niveau, les alliés des États-Unis conservent un accès illimité aux puces américaines ; au deuxième niveau, les adversaires ne pourraient pas importer de semi-conducteurs ; et au troisième niveau, la plupart des pays seraient soumis à des restrictions sur la puissance informatique totale qu'ils obtiendraient.

    L'échelon supérieur est composé de 18 alliés des États-Unis, dont le Canada et le Royaume-Uni, et est généralement exempté de restrictions. Le niveau inférieur est soumis aux contrôles les plus stricts. Outre la Chine, que Trump considère comme un rival technologique, des alliés tels que l'Inde, Israël et la Suisse ne sont pas autorisés à recevoir les puces les plus avancées. Tous les autres pays se situent dans la catégorie intermédiaire et sont également soumis à des limites concernant la quantité de puces qu'ils peuvent acheter aux entreprises américaines sans obtenir de licence spéciale.

    Cette situation affecte plus de 100 pays et suscite des critiques de la part de l'Union européenne, de fabricants de puces comme Nvidia, et de l'industrie technologique au sens large. Les géants technologiques américains tels que Microsoft, Google et Amazon, qui dépendent fortement de ces puces pour leurs projets d'IA, pourraient être contraints de demander des autorisations spécifiques pour construire des centres de données utilisant ces technologies.


    Une critique des arguments avancés par OpenAI

    OpenAI avance plusieurs arguments pour justifier son appel à l’interdiction des modèles chinois :
    • DeepSeek serait « contrôlé par l’État » chinois, ce qui poserait des risques en matière d’ingérence gouvernementale.
    • Les lois chinoises obligeraient les entreprises locales à partager leurs données avec Pékin, augmentant ainsi les risques de cybersécurité.
    • DeepSeek aurait exploité des technologies d’OpenAI sans permission pour entraîner ses propres modèles, ce qui soulève des questions de violation de la propriété intellectuelle.

    Cependant, en y regardant de plus près, ces accusations peuvent être remises en question.

    L’argument de la sécurité nationale : un prétexte ?

    OpenAI s’appuie sur un discours alarmiste autour de la souveraineté numérique et de la sécurité nationale. Il est vrai que les entreprises chinoises ont des obligations légales vis-à-vis du gouvernement, notamment en matière de collecte de données. Cependant, OpenAI omet volontairement de souligner que les entreprises américaines ne sont pas exemptes de telles pratiques.

    Depuis les révélations d’Edward Snowden en 2013 sur la surveillance de masse exercée par la NSA, il est de notoriété publique que les États-Unis exploitent également leurs entreprises technologiques pour obtenir des renseignements stratégiques. L’argument sécuritaire peut donc être perçu comme un double standard visant à discréditer un concurrent.

    La question de la propriété intellectuelle : un problème structurel

    Accuser DeepSeek d’avoir copié la technologie d’OpenAI n’est pas surprenant. L’industrie de l’IA repose en grande partie sur la réutilisation de modèles open-source et de données accessibles au public.

    De plus, OpenAI elle-même a bénéficié largement du travail académique et des contributions open-source pour développer ses propres modèles. La frontière entre ce qui est considéré comme du plagiat et ce qui relève du développement itératif est donc floue.

    Si OpenAI cherche à défendre la propriété intellectuelle, pourquoi ne pas appliquer ces principes aux États-Unis également ? Les startups américaines exploitent également des travaux réalisés en Chine ou en Europe. Ce procès d’intention contre DeepSeek ressemble davantage à une tactique protectionniste qu’à une véritable défense de l’innovation.

    OpenAI et l’hypocrisie du protectionnisme technologique

    OpenAI présente sa démarche comme une initiative pour protéger les utilisateurs contre des modèles potentiellement dangereux. Mais dans les faits, cette stratégie semble surtout servir des intérêts économiques et géopolitiques américains.

    Un protectionnisme déguisé ?

    L’appel d’OpenAI à l’interdiction des modèles d’IA chinois arrive à un moment où les États-Unis durcissent leurs restrictions contre la Chine, notamment en matière d’exportation de semi-conducteurs et d’équipements avancés pour l’IA. La mise en avant des risques sécuritaires semble avant tout un moyen de justifier une approche protectionniste.

    Il est également important de noter que les modèles d’OpenAI sont eux-mêmes de plus en plus fermés et propriétaires. Initialement, OpenAI se présentait comme une organisation prônant l’open-source. Aujourd’hui, elle protège jalousement ses modèles sous prétexte de sécurité et de responsabilité.

    L’illusion du monopole éthique

    Un autre paradoxe réside dans le fait qu’OpenAI ne tolère pas de concurrence sérieuse venant de l’étranger, tout en se présentant comme un acteur mondial responsable. Pourtant, les régulations qu’elle défend aux États-Unis ne sont pas nécessairement en faveur de la libre innovation, mais bien en faveur de ses propres intérêts commerciaux.

    En appelant à des restrictions contre les modèles chinois, OpenAI ne défend pas seulement la sécurité des utilisateurs : elle cherche à s’assurer une position dominante dans un marché où la concurrence s’accroît.


    Citation Envoyé par OpenAI
    Aujourd'hui, la Chine contrôlée par le PCC dispose d'un certain nombre d'avantages stratégiques, notamment :
    • En tant qu'État autoritaire, sa capacité à rassembler rapidement les ressources - données, énergie, talents techniques, et les énormes sommes nécessaires à la construction de sa propre capacité de développement de puces nationales.
    • Son initiative préexistante de « la Ceinture et la Route ». Comme avec Huawei, la RPC élargira l'adoption de systèmes d'IA basés en RPC comme celui de DeepSeek en contraignant les pays qui ont besoin d'outils d'IA et de fonds d'infrastructure pour la construction de la nation.
    • Sa capacité à bénéficier de l'arbitrage réglementaire créé par les différents États américains qui cherchent à adopter leurs propres lois à l'échelle de l'industrie, dont certaines sont calquées sur la réglementation de l'Union européenne en matière d'IA. Ces lois sont plus faciles à appliquer avec les entreprises d'IA nationales qu'avec les entreprises basées en RPC et pourraient imposer des exigences de conformité lourdes susceptibles d'entraver notre compétitivité économique et de porter atteinte à notre sécurité nationale. Elles peuvent également affaiblir la qualité et le niveau des données de formation disponibles pour les entrepreneurs américains et l'utilité pour les consommateurs et les entreprises en aval.
    • Sa capacité à bénéficier de l'arbitrage en matière de droits d'auteur créé par des nations démocratiques qui ne protègent pas clairement la formation à l'IA par la loi, comme les États-Unis, ou qui réduisent la quantité de données de formation grâce à un régime d'exclusion pour les détenteurs de droits d'auteur, comme l'UE. Il est peu probable que la RPC respecte les régimes de propriété intellectuelle de ces pays pour l'entraînement de ses systèmes d'IA, mais elle a déjà probablement accès à toutes les mêmes données, ce qui place les laboratoires d'IA américains dans une position comparativement désavantageuse tout en n'apportant que peu de protection aux créateurs de la propriété intellectuelle d'origine.

    Si l'Amérique conserve aujourd'hui une longueur d'avance dans le domaine de l'IA, DeepSeek montre que notre avance n'est pas considérable et qu'elle se réduit. Le plan d'action sur l'IA devrait garantir que l'IA menée par les Américains l'emporte sur l'IA menée par le RPC, garantissant ainsi le leadership américain en matière d'IA et un avenir plus radieux pour tous les Américains.
    Source : OpenAI

    Et vous ?

    OpenAI affirme que DeepSeek est « contrôlé par l'État » chinois. Mais dans quelle mesure les entreprises américaines comme OpenAI, Microsoft ou Google sont-elles, elles aussi, soumises à des pressions gouvernementales ?

    Est-il possible de garantir qu'un modèle d'IA ne soit pas utilisé à des fins de surveillance, quelle que soit son origine ? Les lois américaines sont-elles vraiment plus protectrices que celles de la Chine en matière de confidentialité des données ?

    La fragmentation des modèles d’IA en fonction des blocs géopolitiques est-elle inévitable ? Peut-on imaginer un cadre international de régulation qui évite ce découpage ?

    OpenAI milite-t-elle pour une interdiction des modèles chinois par souci de sécurité ou pour freiner un concurrent en plein essor ?

    Si OpenAI réussit à faire interdire DeepSeek aux États-Unis, quelles pourraient être les conséquences sur l'innovation et la compétition internationale en IA ?
    Images attachées Images attachées
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  4. #64
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 484
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 484
    Par défaut Les modèles d'IA chinois battent les modèles US sur des critères comme la divulgation d'informations sensibles
    Les modèles d'IA chinois comme DeepSeek surpassent les modèles américains comme Meta Llama dans des catégories spécifiques telles que la divulgation d'informations sensibles, d'après l'AI Trust Score de Tumeryk

    Selon un nouveau score de confiance de l'IA présenté par Tumeryk, les modèles d'IA chinois comme DeepSeek sont plus performants que les modèles américains comme Llama de Meta dans des catégories spécifiques telles que la divulgation d'informations sensibles.

    La solide performance de DeepSeek dans le score de confiance de l'IA de Tumeryk intervient après la sortie de DeepSeek R1 en janvier dernier, qui a perturbé le paysage de l'IA grâce à son rapport coût-efficacité. En effet, le LLM open source chinois DeepSeek R1 correspondrait à o1 d'OpenAI, mais avec un coût 95 % moins cher. Il a rapidement gagné en popularité auprès des développeurs et des entreprises, dépassant les téléchargements de l'Apple Store et remettant en question la domination établie d'OpenAI dans le secteur de l'IA.

    Le nouveau score de confiance de l'IA (AI Trust Score) de Tumeryk évalue les modèles IA à travers neuf facteurs clés, dont les fuites de données, le contenu toxique, la véracité et la partialité. Cela permet aux RSSI de s'assurer que leurs déploiements d'IA sont sécurisés, conformes et dignes de confiance, et offre aux développeurs des solutions pour résoudre tout problème dans leurs applications d'IA.

    « Pour les responsables de la sécurité des systèmes d'information et les professionnels de la sécurité, Tumeryk propose l'AI Trust Manager, une plateforme robuste pour la surveillance et la remédiation des applications d'IA. Cet outil offre un aperçu en temps réel des performances des systèmes IA, identifie les vulnérabilités et recommande des mesures exploitables pour renforcer la sécurité et la conformité », déclare Rohit Valia, PDG de Tumeryk. « En intégrant le gestionnaire de confiance IA, les organisations peuvent gérer les risques de manière proactive et s'assurer que leurs déploiements d'IA s'alignent sur les normes réglementaires et les directives éthiques. »

    Nom : Tumeryk AI Trust Score.PNG
Affichages : 1861
Taille : 233,5 Ko

    L'AI Trust Score examine neuf facteurs critiques : l'injection rapide, les hallucinations, la manipulation non sécurisée des résultats, la sécurité, la toxicité, la divulgation d'informations sensibles, la vulnérabilité de la chaîne d'approvisionnement, la sécurité psychologique et l'équité. L'évaluation de ces facteurs permet d'obtenir un score de confiance global allant de 0 à 1000, les scores les plus élevés indiquant une plus grande confiance.

    Des évaluations récentes utilisant le modèle AI Trust Score ont révélé que certains modèles d'IA chinois, tels que DeepSeek, Alibaba et d'autres, présentent des normes de sécurité et de conformité plus élevées que ce qui avait été rapporté précédemment. Notamment, DeepSeek fonctionne sur des plateformes basées aux États-Unis, comme NVIDIA et SambaNova, ce qui garantit la sécurité des données et le respect des réglementations internationales.

    Ces résultats remettent en question les perceptions dominantes et soulignent l'importance d'évaluations objectives et fondées sur des données dans l'industrie de l'IA. Par exemple, dans la catégorie de la divulgation d'informations sensibles, Deepseek NIM sur NVIDIA a obtenu un score de 910 contre 687 pour Anthropic Claude Sonnet 3.5 et 557 pour Meta Llama 3.1 405B.

    Toutefois, malgré ces résultats, des évaluations antérieures ont montré que DeepSeek présentait certaines vulnérabilités en matière de sécurité. Lors de tests réalisés avec l'ensemble de données HarmBench, les chercheurs de Cisco ont en effet constaté que DeepSeek R1 échouait à tous les tests de sécurité et ne parvenait pas à bloquer les invites nuisibles. Selon les chercheurs, cela rend le modèle bien plus facile à tromper que ses rivaux, tels que ChatGPT, pour qu'il fournisse des informations potentiellement nuisibles.

    Source : Tumeryk

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous que les résultats des évaluations menées par Tumeryk sont crédibles ou pertinents ?

    Voir aussi :

    Meta aurait mis en place des « cellules de crise » composées d'ingénieurs pour comprendre comment l'IA de DeepSeek peut battre tous les autres avec une fraction du prix

    Meta accusée d'avoir téléchargé plus de 81,7 To de livres piratés pour entraîner son IA. Des courriels montrent qu'elle a tenté de le dissimuler en évitant les serveurs de Facebook lors du téléchargement

    Retombées de DeepSeek : le sénateur républicain Josh Hawley veut mettre fin à toute collaboration entre les États-Unis et la Chine en matière de développement de l'IA, mais la proposition est controversée
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  5. #65
    Inactif  
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 066
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 066
    Par défaut
    Marrant.. J'ai toujours cru que l'économie américaine était en tête du capitalisme dont la règle première est "que le meilleur gagne!"


    L'IA amène donc un nouveau modèle de capitalisme aux USA? Genre cour d'école "Papa, papa, mon petit camarade pisse plus haut que moi contre le mur de l'école... J'exige que tu interviennes auprès du directeur de l'école pour qu'il me donne un avantage en me fournissant un escabeau ou une échelle"

    C'est tout simplement pathétique!

  6. #66
    Membre à l'essai
    Homme Profil pro
    Architecte réseau
    Inscrit en
    Mars 2025
    Messages
    5
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 34
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Architecte réseau
    Secteur : Industrie

    Informations forums :
    Inscription : Mars 2025
    Messages : 5
    Par défaut
    Toute concurrence non-américaine est visiblement contrôlé par l'Etats ?!

  7. #67
    Candidat au Club
    Femme Profil pro
    Analyse système
    Inscrit en
    Mars 2024
    Messages
    3
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Âge : 24
    Localisation : France, Aube (Champagne Ardenne)

    Informations professionnelles :
    Activité : Analyse système

    Informations forums :
    Inscription : Mars 2024
    Messages : 3
    Par défaut
    "Seum" Altman

  8. #68
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    2 071
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 2 071
    Par défaut DeepSeek peut être gentiment persuadé de produire du code malveillant
    DeepSeek peut être persuadé de produire du code malveillant : les entreprises doivent prendre des mesures urgentes face aux risques d'exposition des données,
    selon Tenable

    L'essor des modèles d'IA générative, tels que DeepSeek, soulève des questions cruciales quant à leur capacité à produire du code malveillant malgré les garde-fous mis en place. Bien que ces modèles soient conçus pour éviter de générer des contenus nuisibles, des recherches récentes, comme celles menées par Nick Miles et Satnam Narang de Tenable, démontrent que ces protections peuvent être contournées par des techniques d'ingénierie des prompts. Par exemple, DeepSeek R1, un modèle récent, peut être « gentiment persuadé » de générer des rançongiciels en invoquant des contextes éducatifs ou légitimes. Cependant, le code produit nécessite souvent des ajustements manuels pour être fonctionnel, ce qui limite son utilisation immédiate par des acteurs malveillants peu expérimentés.

    Ces découvertes mettent en lumière les tensions entre les potentialités techniques de l'IA et les impératifs éthiques. D'un côté, les modèles comme DeepSeek offrent une base de connaissances et des techniques utiles pour les développeurs, y compris ceux ayant des intentions malveillantes. De l'autre, les limitations actuelles de ces systèmes, comme leur incapacité à produire du code malveillant parfaitement opérationnel dès la première tentative, tempèrent les craintes d'une prolifération immédiate de cybermenaces sophistiquées. Néanmoins, l'évolution rapide de ces technologies, couplée à l'émergence de modèles spécialisés comme WormGPT ou FraudGPT, suggère que les risques pourraient s'intensifier à l'avenir.

    Nom : Deepseek.PNG
Affichages : 11285
Taille : 125,5 Ko

    Le mois dernier, l'IA de DeepSeek a été critiquée pour avoir généré des contenus dangereux, tels que des instructions pour créer des armes biologiques, des e-mails de phishing intégrant du code malveillant, ou encore des campagnes sur les réseaux sociaux incitant les adolescents à l'automutilation. Les experts ont souligné que le modèle manquait de protections robustes, le rendant plus vulnérable au piratage que d'autres systèmes d'IA.

    Les données de Tenable révèlent qu'en 2023, les mauvaises configurations et les bases de données non sécurisées ont été à l'origine de 5,8 % des violations de données, mais ont contribué à exposer 74 % des 7,6 milliards d'enregistrements compromis. Ces chiffres mettent en lumière l'impact dévastateur des erreurs de configuration sur la protection des informations sensibles et des données personnelles.

    Parallèlement, les grands modèles de langage (LLM) adaptés à la cybercriminalité sont de plus en plus utilisés pour perfectionner les techniques des escrocs et des cybercriminels. Ces outils améliorent les textes utilisés dans les campagnes de phishing, les fraudes financières ou même la création de logiciels malveillants. « Bien qu'il soit encore trop tôt pour tirer des conclusions définitives, je ne serais pas surpris de voir émerger une vague de wrappers basés sur DeepSeek, conçus spécifiquement pour la cybercriminalité, ou d'observer des cybercriminels exploitant ces modèles existants pour développer des outils sur mesure répondant à leurs besoins », a déclaré Narang.

    L’IA générative face aux défis de la création de logiciels malveillants

    Depuis que les modèles d’IA générative sont devenus largement accessibles en 2023, des craintes ont émergé quant à leur potentiel d’être utilisés pour créer des logiciels malveillants sophistiqués, capables de causer des dommages variés et d’échapper aux systèmes de détection les plus avancés. Certains ont même imaginé des scénarios inquiétants, comme la génération de codes polymorphes capables de s’adapter dynamiquement à l’environnement de la victime.

    Cependant, la réalité s’est avérée bien différente. Initialement, les experts étaient sceptiques quant à la capacité de ces technologies à produire des logiciels malveillants efficaces. Près de deux ans plus tard, l’IA générative (GenAI) reste incapable de générer du code malveillant pleinement fonctionnel du premier coup, malgré les multiples tentatives. Comme l’a souligné l’équipe de Tenable, les cybercriminels ont développé leurs propres modèles, dépourvus de garde-fous éthiques. Des exemples tels que WormGPT, FraudGPT, Evil-GPT, WolfGPT, EscapeGPT et GhostGPT illustrent cette tendance, certains de ces modèles ayant même précédé de plusieurs années des lancements grand public comme ChatGPT.

    Si certains de ces modèles prétendent générer des logiciels malveillants, d’autres se concentrent sur la création d’e-mails d’hameçonnage convaincants, capables de contourner les filtres anti-spam. Aucun n’est parfait, bien que certains soient vendus à des prix élevés, atteignant plusieurs centaines de dollars. Les recherches de Tenable sur DeepSeek, bien que révélatrices, ne sont pas révolutionnaires. Par exemple, l’Unité 42 a démontré dès janvier qu’il était possible de contourner les protections de DeepSeek (un processus appelé jailbreaking), bien que ses capacités à générer des logiciels malveillants n’aient pas été explorées en profondeur.

    Pour les cybercriminels débutants réticents à investir dans des modèles spécialisés, des listes de prompts permettant de jailbreaker des chatbots classiques sont disponibles à moindre coût. Selon Kaspersky, des centaines de ces listes étaient en vente l’année dernière. Si le grand public n’a pas encore accès à des générateurs de logiciels malveillants à la demande, les États-nations bien équipés pourraient, eux, en tirer parti.

    Le National Cyber Security Centre (NCSC) du Royaume-Uni prévoit que d’ici fin 2025, l’influence de l’IA sur les outils cyberoffensifs pourrait devenir significative. En janvier 2024, le NCSC a reconnu que, bien que les menaces de logiciels malveillants générés par IA aient été largement minimisées, il reste possible de créer des codes malveillants capables de contourner les défenses, à condition de disposer de données d’exploitation de haute qualité, que certains États pourraient déjà détenir. Le NCSC exprime une préoccupation croissante face à cette technologie, estimant que l’IA ne deviendra véritablement avancée qu’à partir de 2026, mais que ses applications potentielles dépassent largement la simple création de logiciels malveillants.

    L’IA pourrait, par exemple, être utilisée pour identifier les systèmes les plus vulnérables lors de la phase de reconnaissance d’une attaque, ou pour cibler les données les plus précieuses dans le cadre d’une attaque par ransomware. Les cybercriminels l’utilisent déjà pour perfectionner leurs campagnes d’hameçonnage, et les plus ambitieux pourraient même développer leurs propres outils, à condition d’y consacrer suffisamment de temps et de ressources. Ainsi, bien que l’IA générative ne soit pas encore une arme redoutable, son potentiel d’évolution en fait un enjeu majeur pour la cybersécurité.

    Enfin, les préoccupations des institutions, telles que le National Cyber Security Centre (NCSC) du Royaume-Uni, soulignent que l'IA pourrait jouer un rôle croissant dans les cyberattaques, notamment en optimisant la reconnaissance des systèmes vulnérables ou en améliorant les campagnes d'hameçonnage. Si les modèles grand public ne sont pas encore des outils de cybercriminalité à part entière, leur potentiel d'abus, surtout entre les mains d'États ou de groupes bien financés, reste une menace sérieuse. Ainsi, bien que l'IA générative ne soit pas encore une arme redoutable, elle représente un défi majeur pour la sécurité numérique, nécessitant une vigilance accrue et des régulations adaptées.

    Les promesses et les dangers de l’IA générative dans la cybersécurité

    L'essor des modèles d'IA générative, comme DeepSeek, soulève des enjeux éthiques et techniques majeurs, notamment en ce qui concerne leur capacité à produire du code malveillant malgré les garde-fous mis en place. Les recherches récentes, telles que celles de Nick Miles et Satnam Narang de Tenable, montrent que ces protections peuvent être contournées grâce à des techniques d'ingénierie des prompts. Par exemple, DeepSeek R1 peut être « gentiment persuadé » de générer des rançongiciels en invoquant des contextes éducatifs ou légitimes. Cependant, le code produit nécessite souvent des ajustements manuels pour être pleinement fonctionnel, ce qui limite son utilisation immédiate par des acteurs malveillants peu expérimentés.

    Ces découvertes illustrent une tension fondamentale entre les potentialités techniques de l'IA et les impératifs éthiques. D'un côté, ces modèles offrent une base de connaissances et des outils précieux pour les développeurs, y compris ceux ayant des intentions malveillantes. De l'autre, les limitations actuelles, comme l'incapacité à générer du code malveillant opérationnel du premier coup, tempèrent les craintes d'une prolifération immédiate de cybermenaces sophistiquées. Cependant, l'évolution rapide de ces technologies, combinée à l'émergence de modèles spécialisés comme WormGPT ou FraudGPT, laisse entrevoir un avenir où les risques pourraient s'intensifier.

    Il est important de noter que les tentatives de restreindre l'accès à certaines connaissances via des mécanismes de censure ou de filtrage sont souvent vaines. Comme le soulignent certains commentaires, il est toujours possible de reformuler des questions ou d'utiliser des techniques d'ingénierie des prompts pour contourner ces restrictions. Cela rappelle les limites des « lois des robots » ou des protections superficielles, qui peuvent être facilement transgressées par des acteurs déterminés.


    Enfin, bien que l'IA générative ne soit pas encore une arme redoutable pour les cybercriminels, son potentiel d'évolution en fait un enjeu majeur pour la cybersécurité. Les États-nations et les acteurs bien équipés pourraient tirer parti de ces technologies pour développer des outils offensifs sophistiqués. Par conséquent, il est crucial de renforcer les garde-fous éthiques et techniques tout en anticipant les usages malveillants possibles. L'IA générative représente à la fois une opportunité et un défi, nécessitant une vigilance accrue et une régulation adaptée pour prévenir les abus tout en encourageant l'innovation.

    Source : Tenable

    Et vous ?

    Quel est votre avis sur le sujet ?

    Quelles mesures réglementaires pourraient être mises en place pour limiter l'utilisation abusive des modèles d'IA générative ?

    Qui est responsable lorsque des modèles d'IA comme DeepSeek sont utilisés pour générer du code malveillant ? Les développeurs, les entreprises qui les déploient, ou les utilisateurs qui exploitent ces failles ?

    Voir aussi :

    L'IA DeepSeek est accusée d'avoir généré des instructions pour une attaque à l'arme biologique et d'avoir conçu des courriels d'hameçonnage contenant un code malveillant

    L'application iOS DeepSeek envoie des données non chiffrées à des serveurs contrôlés par ByteDance, maison-mère de TikTok, selon des chercheurs de NowSecure

    DeepSeek a envoyé des données d'utilisateurs à la société chinoise ByteDance, selon une enquête coréenne, ce qui a poussé la Corée du Sud à retirer le chatbot d'IA des magasins d'applications
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 1
    Dernier message: 08/01/2024, 09h45
  2. Réponses: 4
    Dernier message: 26/01/2023, 11h07
  3. Ne trouve t-on que des mesures dans une table de faits ?
    Par zerocoolyoussef dans le forum Conception/Modélisation
    Réponses: 9
    Dernier message: 05/05/2009, 18h39
  4. Problèmes avec des nombres... que faire ?
    Par sducos81 dans le forum C++
    Réponses: 6
    Dernier message: 21/07/2005, 14h46
  5. Réponses: 4
    Dernier message: 24/06/2004, 13h13

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo