IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Des chercheurs ont découvert que GPT-4 est capable de pirater des sites web sans aide humaine


Sujet :

Intelligence artificielle

  1. #1
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 244
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 244
    Par défaut Des chercheurs ont découvert que GPT-4 est capable de pirater des sites web sans aide humaine
    Des chercheurs ont découvert que le modèle d'IA GPT-4 d'OpenAI est capable de pirater des sites web et de voler des informations dans des bases de données en ligne sans aide humaine.

    Des chercheurs ont démontré que les grands modèles de langage sont capables de pirater des sites web de manière autonome, en effectuant des tâches complexes sans connaissance préalable de la vulnérabilité. Le modèle GPT-4 d'OpenAI pouvait pirater 73 % des sites web lors de l'étude. Cette étude rappelle la nécessité pour les fournisseurs de LLM de réfléchir soigneusement au déploiement et à la publication des modèles.

    Les modèles d'IA, qui font l'objet de préoccupations constantes en matière de sécurité concernant les résultats nuisibles et biaisés, présentent un risque qui va au-delà de l'émission de contenu. Lorsqu'ils sont associés à des outils permettant une interaction automatisée avec d'autres systèmes, ils peuvent agir seuls comme des agents malveillants.

    Des informaticiens affiliés à l'université de l'Illinois Urbana-Champaign (UIUC) l'ont démontré en utilisant plusieurs grands modèles de langage (LLM) pour compromettre des sites web vulnérables sans intervention humaine. Des recherches antérieures suggèrent que les LLM peuvent être utilisés, malgré les contrôles de sécurité, pour aider à la création de logiciels malveillants.

    Les chercheurs Richard Fang, Rohan Bindu, Akul Gupta, Qiusi Zhan et Daniel Kang sont allés plus loin et ont montré que les agents alimentés par des LLM - des LLM dotés d'outils d'accès aux API, de navigation web automatisée et de planification basée sur le retour d'information - peuvent se promener seuls sur le web et s'introduire dans des applications web boguées sans surveillance. Ils décrivent leurs résultats dans un article intitulé "LLM Agents can Autonomously Hack Websites" (Les agents LLM peuvent pirater des sites web de manière autonome).

    Les chercheurs résument leurs travaux en expliquant :

    Ces dernières années, les grands modèles de langage (LLM) sont devenus de plus en plus performants et peuvent désormais interagir avec des outils (c'est-à-dire appeler des fonctions), lire des documents et s'appeler eux-mêmes de manière récursive. Par conséquent, ces LLM peuvent désormais fonctionner de manière autonome en tant qu'agents. Avec l'augmentation des capacités de ces agents, des travaux récents ont spéculé sur la manière dont les agents LLM affecteraient la cybersécurité. Cependant, on ne sait pas grand-chose des capacités offensives des agents LLM.

    Dans ce travail, nous montrons que les agents LLM peuvent pirater des sites web de manière autonome, en effectuant des tâches aussi complexes que l'extraction aveugle de schémas de base de données et les injections SQL sans retour d'information de la part de l'homme. Il est important de noter que l'agent n'a pas besoin de connaître la vulnérabilité à l'avance. Cette capacité est rendue possible de manière unique par les modèles de frontière qui sont hautement capables d'utiliser des outils et de tirer parti d'un contexte étendu. Nous montrons notamment que GPT-4 est capable de tels piratages, ce qui n'est pas le cas des modèles open-source existants. Enfin, nous montrons que GPT-4 est capable de trouver de manière autonome des vulnérabilités dans des sites web en pleine nature. Nos résultats soulèvent des questions sur le déploiement à grande échelle des LLM.
    Des agents LLM autonomes capables de pirater des sites web

    Les grands modèles de langage (LLM) sont devenus de plus en plus performants, avec des avancées récentes permettant aux LLM d'interagir avec des outils via des appels de fonction, de lire des documents et de s'auto-inviter récursivement. Collectivement, ces éléments permettent aux LLM de fonctionner de manière autonome en tant qu'agents. Par exemple, les agents LLM peuvent contribuer à la découverte scientifique.

    Ces agents LLM devenant plus performants, des travaux récents ont spéculé sur le potentiel des LLM et des agents LLM à contribuer à l'offensive et à la défense en matière de cybersécurité. Malgré ces spéculations, on sait peu de choses sur les capacités des agents LLM en matière de cybersécurité. Par exemple, des travaux récents ont montré que les LLM peuvent être incités à générer des logiciels malveillants simples, mais n'ont pas exploré les agents autonomes.

    L'image suivant présente le schéma de l'utilisation d'agents LLM autonomes pour pirater des sites web :

    Nom : 1.png
Affichages : 393802
Taille : 28,0 Ko

    Les agents LLM peuvent pirater des sites web de manière autonome, en effectuant des tâches complexes sans connaissance préalable de la vulnérabilité. Par exemple, ces agents peuvent effectuer des attaques complexes de type SQL union, qui impliquent un processus en plusieurs étapes (38 actions) d'extraction d'un schéma de base de données, d'extraction d'informations de la base de données basée sur ce schéma, et d'exécution du piratage final. L'agent le plus performant peut pirater 73,3 % (11 sur 15, réussite à 5) des vulnérabilités testées, ce qui montre les capacités de ces agents. Il est important de noter que l'agent LLM est capable de trouver des vulnérabilités dans des sites Web du monde réel.

    Pour donner à ces agents LLM la capacité de pirater des sites web de manière autonome, ils leur ont donné la possibilité de lire des documents, d'appeler des fonctions pour manipuler un navigateur web et récupérer des résultats, et d'accéder au contexte des actions précédentes. Ils ont fourni en outre à l'agent LLM des instructions détaillées sur le système. Ces capacités sont désormais largement disponibles dans les API standard, telles que la nouvelle API OpenAI Assistants. Par conséquent, ces capacités peuvent être mises en œuvre en seulement 85 lignes de code avec des outils standard.

    Les résultats ont montré que ces capacités permettent au modèle le plus performant au moment de la rédaction (GPT-4) de pirater des sites web de manière autonome. De manière incroyable, GPT-4 peut effectuer ces piratages sans connaissance préalable de la vulnérabilité spécifique. Tous les composants sont nécessaires pour obtenir des performances élevées, le taux de réussite chutant à 13 % lorsque l'on supprime des composants.

    Nom : 2.PNG
Affichages : 84870
Taille : 12,5 Ko
    Taux de réussite du GPT-4 par vulnérabilité

    Les résultats ont montré également que le piratage des sites web a une forte loi d'échelle, le taux de réussite de GPT-3.5 tombant même à 6,7 % (1 vulnérabilité sur 15). Cette loi d'échelle se poursuit pour les modèles open-source, chaque modèle open-source testé atteignant un taux de réussite de 0 %.

    L'étude a également analysé le coût du piratage autonome de sites web. Si l'on tient compte des échecs dans le coût total, la tentative de piratage d'un site web coûte environ 9,81 dollars. Bien que coûteux, ce coût est probablement beaucoup moins élevé que l'effort humain (qui peut coûter jusqu'à 80 dollars).

    Conclusion

    Cette recherche montre que les agents LLM peuvent pirater des sites web de manière autonome, sans connaître la vulnérabilité à l'avance. L'agent le plus performant peut même trouver de manière autonome des vulnérabilités dans des sites Web du monde réel. Les résultats montrent en outre des lois d'échelle fortes avec la capacité des LLM à pirater des sites web : GPT-4 peut pirater 73 % des sites web construits pour l'étude, contre 7 % pour GPT-3.5 et 0 % pour tous les modèles open-source. Le coût de ces piratages par des agents LLM est probablement beaucoup moins élevé que le coût d'un analyste en cybersécurité.

    Combinés, ses résultats montrent la nécessité pour les fournisseurs de LLM de réfléchir soigneusement au déploiement et à la publication des modèles. On peut souligner deux résultats importants. Tout d'abord, l'étude constate que tous les modèles open-source existants sont incapables de pirater de manière autonome, mais que les modèles frontières (GPT-4, GPT-3.5) le sont. Deuxièmement, les chercheurs pensent que ces résultats sont les premiers exemples de dommages concrets causés par les modèles frontières. Compte tenu de ces résultats, ils espèrent que les fournisseurs de modèles open source et fermé examineront attentivement les politiques de diffusion des modèles frontières.

    Source : "LLM Agents can Autonomously Hack Websites"

    Et vous ?

    Pensez-vous que cette étude est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    55 % des hackers estiment que l'IA sera meilleure que le hacker moyen d'ici cinq ans, alors que 72 % pensent que l'IA générative ne sera pas en mesure de reproduire la créativité des hackers humains

    Découvrir les attaques par courrier électronique générées par l'IA : exemples réels de 2023. Découvrez comment les pirates utilisent l'IA générative pour contourner la sécurité et tromper les employés

    Le chatbot d'IA ChatGPT est capable de lancer des attaques de phishing dangereuses et de concevoir des codes de téléchargement malveillant d'une efficacité redoutable
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Membre averti
    Homme Profil pro
    Collégien
    Inscrit en
    Novembre 2020
    Messages
    52
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 59
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Collégien

    Informations forums :
    Inscription : Novembre 2020
    Messages : 52
    Par défaut Super
    Tous les sites vont être testé automatiquement, c'est vraiment de la sécurité de haut niveau.
    Qui veut monter une startup avec moi.
    Un label triple A pour exemple pour les sites qui sont correctement programmé. Avec zero réussite de l'automate.

  3. #3
    Membre averti
    Profil pro
    Inscrit en
    Juillet 2010
    Messages
    53
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Juillet 2010
    Messages : 53
    Par défaut
    en bref, c'est une attaque par brute force, donc ce qui se fait depuis des années, quand on voit dans ses logs des recherches d'uri wordpress alors même qu'on n'a pas de site wordpress.
    Sauf que là, même plus besoin de s'y connaitre un minimum pour le faire.
    Mais si on a sécurisé ses sites, cela ne devrait rien changer. Dans le cas contraire, ça devrait augmenter fortement le nombre de personnes qui auraient eu un accès non autorisé aux sites gérés

  4. #4
    Futur Membre du Club Avatar de MOUHADDIB
    Homme Profil pro
    Autre
    Inscrit en
    Juin 2019
    Messages
    5
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Autre

    Informations forums :
    Inscription : Juin 2019
    Messages : 5
    Par défaut
    Cela pourrait aussi avoir un impact positif sur la sécurité minimale d'un site ...

  5. #5
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 244
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 244
    Par défaut Le grand modèle de langage GPT-4 d'OpenAI peut exploiter de manière autonome des vulnérabilités
    Le grand modèle de langage GPT-4 d'OpenAI peut exploiter de manière autonome des vulnérabilités dans des systèmes du monde réel en lisant des avis de sécurité, si on lui donne un avis CVE décrivant la faille.

    Des agents d'IA, qui combinent de grands modèles de langage avec des logiciels d'automatisation, peuvent exploiter avec succès des vulnérabilités de sécurité dans le monde réel en lisant des avis de sécurité.

    Dans un article récemment publié, quatre informaticiens de l'Université de l'Illinois Urbana-Champaign (UIUC) - Richard Fang, Rohan Bindu, Akul Gupta et Daniel Kang - rapportent que le grand modèle de langage (LLM) GPT-4 d'OpenAI peut exploiter de manière autonome des vulnérabilités dans des systèmes réels s'il reçoit un avis CVE décrivant la faille.

    "Pour le démontrer, nous avons collecté un ensemble de données de 15 vulnérabilités d'un jour qui comprennent celles classées comme critiques dans la description du CVE", expliquent les auteurs basés aux États-Unis dans leur article. "Lorsqu'il reçoit la description CVE, GPT-4 est capable d'exploiter 87 % de ces vulnérabilités, contre 0 % pour tous les autres modèles que nous avons testés (GPT-3.5, LLM open-source) et les scanners de vulnérabilités open-source (ZAP et Metasploit)."

    Les travaux des chercheurs s'appuient sur des résultats antérieurs montrant que les LLM peuvent être utilisés pour automatiser des attaques contre des sites web dans un environnement sandbox. Selon Daniel Kang, professeur adjoint à l'UIUC, GPT-4 "peut en fait exécuter de manière autonome les étapes permettant de réaliser certains exploits que les scanners de vulnérabilités open-source ne peuvent pas trouver".

    Nom : 1.jpg
Affichages : 60085
Taille : 35,2 Ko

    Les chercheurs ont écrit que "nos vulnérabilités couvrent les vulnérabilités des sites web, les vulnérabilités des conteneurs et les paquets Python vulnérables. Plus de la moitié d'entre elles sont classées comme étant de gravité "élevée" ou "critique" par la description CVE."

    Kang et ses collègues ont calculé le coût d'une attaque réussie par un agent LLM et sont arrivés à un chiffre de 8,80 dollars par exploit.

    Les agents LLM peuvent exploiter de manière autonome les vulnérabilités

    Les LLM sont de plus en plus puissants, tant dans leurs utilisations bénignes que malveillantes. Avec l'augmentation des capacités, les chercheurs s'intéressent de plus en plus à leur capacité à exploiter les vulnérabilités en matière de cybersécurité. En particulier, des travaux récents ont mené des études préliminaires sur la capacité des agents LLM à pirater des sites web de manière autonome.

    Toutefois, ces études se limitent à des vulnérabilités simples. Dans cette étude, les chercheurs montrent que les agents LLM peuvent exploiter de manière autonome des vulnérabilités d'un jour dans des systèmes du monde réel. Pour ce faire, ils ont collecté un ensemble de données de 15 vulnérabilités d'un jour qui comprennent celles classées comme critiques dans la description du CVE.

    Nom : 2.jpg
Affichages : 17632
Taille : 57,7 Ko

    Lorsqu'il reçoit la description CVE, GPT-4 est capable d'exploiter 87 % de ces vulnérabilités, contre 0 % pour tous les autres modèles testés (GPT-3.5, LLMs open-source) et les scanners de vulnérabilités open-source (ZAP et Metasploit). Heureusement, l'agent GPT-4 a besoin de la description du CVE pour être performant : sans la description, GPT-4 ne peut exploiter que 7 % des vulnérabilités. Ces résultats soulèvent des questions quant au déploiement à grande échelle d'agents LLM hautement performants.

    Conclusions

    La recherche montre que les agents LLM sont capables d'exploiter de manière autonome les vulnérabilités d'un jour du monde réel. Actuellement, seul GPT-4 avec la description CVE est capable d'exploiter ces vulnérabilités. Ces résultats montrent à la fois la possibilité d'une capacité émergente et le fait qu'il est plus difficile de découvrir une vulnérabilité que de l'exploiter.

    Néanmoins, ces résultats soulignent la nécessité pour l'ensemble de la communauté de la cybersécurité et les fournisseurs de LLM de réfléchir attentivement à la manière d'intégrer les agents LLM dans les mesures défensives et à leur déploiement à grande échelle.


    Source : "LLM Agents can Autonomously Exploit One-day Vulnerabilities"

    Et vous ?

    Pensez-vous que cette étude est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Des chercheurs ont découvert que le modèle d'IA GPT-4 d'OpenAI est capable de pirater des sites web et de voler des informations dans des bases de données en ligne sans aide humaine

    88 % des professionnels de la cybersécurité estiment que l'IA aura un impact significatif sur leur travail, aujourd'hui ou dans un avenir proche, selon une enquête de l'ISC2

    L'utilisation de l'IA par les pirates informatiques a entraîné une hausse considérable de la cybercriminalité, dont le coût pour les internautes devrait atteindre 9 220 milliards de dollars en 2024
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  6. #6
    Nouveau candidat au Club
    Homme Profil pro
    Webplanneur
    Inscrit en
    Avril 2024
    Messages
    3
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 54
    Localisation : France, Isère (Rhône Alpes)

    Informations professionnelles :
    Activité : Webplanneur

    Informations forums :
    Inscription : Avril 2024
    Messages : 3
    Par défaut IA adaptative
    Il serait quand même mieux soucieux d'apprendre donc à l'intelligence artificiel qui soit capable de déceler des faille de pouvoir re-conformer les programmes en circonstance des menaces.

  7. #7
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 244
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 244
    Par défaut Des équipes d'agents LLM peuvent exploiter des vulnérabilités de type Zero-Day
    Des équipes d'agents LLM peuvent exploiter de manière autonome des vulnérabilités de type "zero-day", les acteurs "black-hat" peuvent désormais utiliser des agents d'IA pour pirater des sites Web.

    Des équipes d'agents LLM peuvent exploiter de manière autonome des vulnérabilités de type « zero-day », résolvant ainsi une question ouverte posée par des travaux antérieurs. Cela signifie que les acteurs « black-hat » peuvent désormais utiliser des agents d'IA pour pirater des sites Web.

    Les capacités des agents d'intelligence artificielle augmentent rapidement. Ils peuvent désormais résoudre des tâches aussi complexes que les problèmes de GitHub dans le monde réel et les tâches d'organisation des courriels dans le monde réel. Cependant, l'amélioration de leurs capacités pour des applications bénignes s'accompagne d'une augmentation de leur potentiel dans des contextes à double usage.

    Parmi les applications à double usage, le piratage est l'une des préoccupations majeures. C'est pourquoi des travaux récents ont exploré la capacité des agents d'IA à exploiter les vulnérabilités de la cybersécurité. Ces travaux ont montré que de simples agents d'intelligence artificielle peuvent pirater de manière autonome des sites web fictifs de type "capture du drapeau" et peuvent pirater des vulnérabilités du monde réel lorsqu'on leur donne la description de la vulnérabilité. Cependant, ils échouent en grande partie lorsque la description de la vulnérabilité est exclue, ce qui correspond à la configuration de l'exploit "zero-day".

    Cela soulève une question naturelle : des agents d'IA plus complexes peuvent-ils exploiter les vulnérabilités "zero-day" dans le monde réel ? Cette nouvelle étude répond à cette question par l'affirmative, en montrant que des équipes d'agents d'intelligence artificielle peuvent exploiter les vulnérabilités "zero-day" dans le monde réel. Pour ce faire, les chercheurs ont développé un nouveau cadre multi-agents pour les exploits de cybersécurité, en élargissant les travaux antérieurs dans le cadre multi-agents. Ils ont appelé la technique HPTSA, qui serait le premier système multi-agent à réussir des exploits de cybersécurité significatifs.

    Nom : 1.jpg
Affichages : 7745
Taille : 40,8 Ko

    Les travaux antérieurs utilisent un seul agent d'intelligence artificielle qui explore le système informatique (c'est-à-dire le site web), planifie l'attaque et l'exécute. Étant donné que tous les agents d'intelligence artificielle hautement compétents dans le domaine de la cybersécurité sont basés sur de grands modèles de langage (LLM), l'exploration, la planification et l'exécution conjointes sont difficiles à réaliser en raison de la longueur limitée du contexte dont disposent ces agents.

    Les chercheurs ont conçu des agents experts spécifiques à une tâche pour résoudre ce problème. Le premier agent, l'agent de planification hiérarchique, explore le site web pour déterminer les types de vulnérabilités à rechercher et les pages du site. Après avoir établi un plan, l'agent de planification envoie un agent gestionnaire d'équipe qui détermine les agents chargés de tâches spécifiques à envoyer. Ces agents spécifiques tentent alors d'exploiter des formes spécifiques de vulnérabilités.

    Pour tester HPTSA, ils ont développé une nouvelle référence de vulnérabilités récentes dans le monde réel qui ont dépassé la date limite de connaissance déclarée du LLM testé, GPT-4. Pour construire la référence, ils ont suivi les travaux antérieurs et ont recherché des vulnérabilités dans les logiciels open-source qui sont reproductibles. Ces vulnérabilités varient en type et en gravité.

    Sur ce benchmark, HPTSA obtient un succès à 5 de 53%, à moins de 1,4× d'un agent GPT-4 connaissant la vulnérabilité. En outre, il surpasse les scanners de vulnérabilités open-source (qui obtiennent 0 % sur ce benchmark) et un seul agent GPT-4 sans description. Les résultats montrent que les agents experts sont nécessaires pour obtenir des performances élevées.

    Nom : 2.jpg
Affichages : 1105
Taille : 37,4 Ko

    En outre, l'étude présente le contexte de la cybersécurité et des agents d'intelligence artificielle. Elle décrit la HPTSA, une analyse comparative des vulnérabilités du monde réel et l'évaluation de la HPTSA. L'étude présente également des études de cas et une analyse des coûts.

    Les chercheurs commentent l'étude :

    Dans ce travail, nous montrons que des équipes d'agents LLM peuvent exploiter de manière autonome des vulnérabilités de type « zero-day », résolvant ainsi une question ouverte posée par des travaux antérieurs. Nos résultats suggèrent que la cybersécurité, tant du côté offensif que défensif, va s'accélérer. Aujourd'hui, les pirates informatiques peuvent utiliser des agents d'intelligence artificielle pour pirater des sites web. D'autre part, les testeurs de pénétration peuvent utiliser des agents d'intelligence artificielle pour effectuer des tests de pénétration plus fréquents.

    Il est difficile de savoir si les agents d'intelligence artificielle contribueront davantage à l'offensive ou à la défense en matière de cybersécurité, et nous espérons que des travaux futurs permettront de répondre à cette question. Au-delà de l'impact immédiat de nos travaux, nous espérons qu'ils inciteront les fournisseurs de LLM à réfléchir soigneusement à leurs déploiements.

    Bien que notre travail montre des améliorations substantielles de la performance dans le cadre du jour zéro, il reste encore beaucoup de travail à faire pour comprendre pleinement les implications des agents d'IA dans la cybersécurité. Par exemple, nous nous sommes concentrés sur les vulnérabilités du web et des sources ouvertes, ce qui peut donner lieu à un échantillon biaisé de vulnérabilités. Nous espérons que les travaux futurs aborderont ce problème de manière plus approfondie.

    Conclusion

    Les agents LLM sont devenus de plus en plus sophistiqués, en particulier dans le domaine de la cybersécurité. Les chercheurs ont montré que les agents LLM peuvent exploiter les vulnérabilités du monde réel lorsqu'on leur donne une description de la vulnérabilité et qu'ils jouent les problèmes de capture du drapeau. Toutefois, ces agents sont encore peu performants lorsqu'il s'agit de vulnérabilités du monde réel qui sont inconnues de l'agent à l'avance (vulnérabilités de type « zero-day »).

    Cette étude montre que des équipes d'agents LLM peuvent exploiter des vulnérabilités zero-day dans le monde réel. Les agents antérieurs ont du mal à explorer de nombreuses vulnérabilités différentes et à planifier à long terme lorsqu'ils sont utilisés seuls. Pour résoudre ce problème, l'étude présente HPTSA, un système d'agents avec un agent de planification qui peut lancer des sous-agents. L'agent de planification explore le système et détermine quels sous-agents appeler, ce qui résout les problèmes de planification à long terme lors de l'essai de différentes vulnérabilités. Les chercheurs ont également construit un benchmark de 15 vulnérabilités du monde réel et montrent que l'équipe d'agents améliore les travaux antérieurs jusqu'à 4,5×.

    Source :

    Et vous ?

    Pensez-vous que cette étude est crédible ou pertinente ?


    Voir aussi :

    Des chercheurs ont découvert que le modèle d'IA GPT-4 d'OpenAI est capable de pirater des sites web et de voler des informations dans des bases de données en ligne sans aide humaine

    L'IA va accroître le nombre et l'impact des cyberattaques, les ransomwares étant susceptibles d'en être les plus grands bénéficiaires au cours des deux prochaines années

    L'intelligence artificielle GPT-4 d'OpenAI peut exploiter de manière autonome les vulnérabilités dans les systèmes du monde réel en lisant les avis de sécurité décrivant les failles
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 1
    Dernier message: 08/01/2024, 08h45
  2. Réponses: 1
    Dernier message: 22/07/2020, 12h59
  3. Réponses: 6
    Dernier message: 09/11/2019, 10h52
  4. Quel est le meilleur conseil que vous ayez reçu dans la conception de sites Web ?
    Par rodolphebrd dans le forum Général Conception Web
    Réponses: 48
    Dernier message: 26/03/2014, 19h57
  5. Réponses: 3
    Dernier message: 16/11/2007, 21h37

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo