Les chatbots alimentés par des grands modèles de langage (LLM) entraîneront un pic de violations de données d'initiés au cours de l'année à venir, 82 % des entreprises ne disposant pas de stratégie de gestion des risques d'initiés

Les mauvais contrôles des données et l'avènement de nouveaux outils d'IA générative basés sur de grands modèles de langage (Large Language Models - LLM) entraîneront un pic de violations de données internes au cours de l'année à venir.

Les chatbots alimentés par des LLM étant devenus plus puissants, de nombreuses organisations ont mis en place des interdictions complètes ou ont limité les données pouvant être partagées avec eux. Cependant, comme une écrasante majorité (82 %) n'a pas mis en place de stratégie de gestion des risques internes, elles restent aveugles aux cas d'employés utilisant l'IA générative pour les aider dans leurs tâches.

"Interdire aux employés d'utiliser l'IA générative est futile", déclare Terry Ray, "SVP, data security GTM et field CTO" chez Imperva. "Nous l'avons vu avec tant d'autres technologies. Les gens sont inévitablement capables de trouver un moyen de contourner de telles restrictions et les interdictions ne font que créer un jeu de la taupe (whack-a-mole) sans fin pour les équipes de sécurité, sans garder l'entreprise significativement plus sûre."

Nom : Insider-threat-600x300.jpg
Affichages : 731
Taille : 22,0 Ko

Une étude précédente d'Imperva sur les plus grandes failles des données des cinq dernières années a révélé que 24 % d'entre elles étaient dues à une erreur humaine. (L'erreur humaine est définie comme l'utilisation accidentelle ou malveillante d'informations d'identification à des fins de fraude, de vol, de demande de rançon ou de perte de données). Cependant, les entreprises n'accordent toujours pas la priorité aux menaces d'origine interne, 33 % d'entre elles déclarant qu'elles ne les considèrent pas comme une menace importante.

"Il n'est pas nécessaire d'avoir des intentions malveillantes pour provoquer une faille dans les données", poursuit M. Ray. "La plupart du temps, ils essaient simplement d'être plus efficaces dans leur travail. Mais si les entreprises ne voient pas les LLM accéder à leur "code backend" ou à leurs stockages de données sensibles, ce n'est qu'une question de temps avant que cela ne leur explose à la figure".

Selon Imperva, il est essentiel que les entreprises découvrent et aient une visibilité sur chaque base de données de leur système. Le but est que les informations importantes stockées dans des bases de données cachées ne soient pas oubliées ou utilisées à mauvais escient. Une fois l'inventaire réalisé, l'étape suivante consiste à classer chaque actif de données en fonction de son type, de sa sensibilité et de sa valeur pour l'organisation. Les entreprises doivent également mettre en œuvre des capacités de surveillance et d'analyse des données permettant de détecter les menaces telles que les comportements anormaux, l'exfiltration de données, l'escalade des privilèges ou la création de comptes suspects.

Source :Imperva

Et vous ?

Cette étude est elle crédible ou pertinente ?
Que pensez-vous de cette étude ?
Que faudrait-il faire pour mieux sécuriser les bases de données d'une entreprise ?

Voir aussi :

Les entreprises peinent à se protéger contre les risques internes, et 71 % d'entre elles prévoient une hausse des pertes de données liées à ces incidents au cours des 12 prochains mois Selon Code42

40 % des employés américains ont emporté des données avec eux lorsqu'ils ont quitté leur emploi
Exposant l'entreprise à une série de problèmes de cybersécurité, selon une nouvelle étude de Tessian


La moitié des responsables de la cybersécurité changeront d'emploi d'ici 2025
Et 25 % opteront pour des rôles entièrement différents à cause des facteurs de stress liés au poste, selon Gartner