IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Le contenu des "deepfake" en ligne augmente à un rythme annuel de 900 %, d’après le World Economic Forum


Sujet :

Intelligence artificielle

  1. #1
    Expert éminent sénior

    Femme Profil pro
    Rédacteur Web
    Inscrit en
    Mars 2020
    Messages
    838
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur Web

    Informations forums :
    Inscription : Mars 2020
    Messages : 838
    Points : 58 035
    Points
    58 035
    Par défaut Le contenu des "deepfake" en ligne augmente à un rythme annuel de 900 %, d’après le World Economic Forum
    Le contenu des "deepfake" en ligne augmente à un rythme annuel de 900 %,
    d’après le World Economic Forum

    Selon le World Economic Forum, le nombre de vidéos frauduleuses en ligne augmente à un rythme annuel de 900 %. C'est pourquoi les chercheurs de Kaspersky ont révélé les trois principales fraudes utilisant des deepfakes dont il faut être conscient.

    Nom : Screenshot_2023-05-16 Deepfake content rises 900 percent – Recherche Google.png
Affichages : 2154
Taille : 62,6 Ko

    La fraude financière est une utilisation courante des deepfakes, comme la vidéo d'Elon Musk promouvant un système de crypto-monnaie douteux l'année dernière. Pour créer des deepfakes comme celui-ci, les escrocs utilisent des images de célébrités ou assemblent de vieilles vidéos, et lancent des flux en direct sur les plateformes de médias sociaux, promettant de doubler tout paiement en crypto-monnaie qui leur est envoyé.

    Les deepfakes sont également utilisés pour violer la vie privée ou nuire à la réputation, par exemple en mettant le visage d'une personne dans une vidéo pornographique.

    Mais les deepfakes sont également utilisés pour cibler les entreprises. Dans un cas connu, des cybercriminels ont réussi à tromper un directeur de banque aux Émirats arabes unis, ce qui leur a permis de voler 35 millions de dollars. Cette escroquerie utilisait un deepfake vocal : un simple enregistrement de la voix du patron de l'employé suffisait à générer un deepfake convaincant.

    « L'une des menaces les plus graves que le deepfake fait peser sur les entreprises n'est pas toujours le vol de données d'entreprise. Parfois, les risques pour la réputation peuvent avoir des conséquences très graves. Imaginez qu'une vidéo soit publiée dans laquelle votre dirigeant fait (apparemment) des déclarations polarisantes sur des sujets sensibles. Pour les entreprises, cela peut rapidement entraîner une chute du cours des actions. Cependant, bien que les risques d'une telle menace soient extrêmement élevés, la probabilité que vous soyez attaqué de cette manière reste extrêmement faible en raison du coût de création des deepfakes et du fait que peu d'attaquants sont capables de créer un deepfake de haute qualité », explique Dmitry Anikin, expert principal en sécurité chez Kaspersky.

    Comment les entreprises peuvent-elles se défendre contre les deepfakes ? Kaspersky recommande une formation de sensibilisation pour s'assurer que les employés comprennent ce que sont les deepfakes, comment ils fonctionnent et les défis qu'ils peuvent poser. Il faut également veiller à utiliser des sources d'information de bonne qualité et adopter une attitude sceptique vis-à-vis des messages vocaux et des vidéos, en recherchant des indices tels que des lèvres mal synchronisées avec la parole.

    Anikin ajoute : « Ce que vous pouvez faire aujourd'hui, c'est connaître les principales caractéristiques des vidéos "deepfake" et adopter une attitude sceptique à l'égard des messages vocaux et des vidéos que vous recevez. Veillez également à ce que vos employés comprennent ce qu'est un deepfake et comment ils peuvent le reconnaître : par exemple, des mouvements saccadés, des changements dans le teint de la peau, des clignements étranges ou l'absence de clignement, et autres … ».

    Source : World Economic Forum

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous que les conclusions de ce rapport de World Economic Forum sont pertinentes, voir utiles ?
    Selon vous, quelles mesures peuvent-être mises en place pour limiter ces pratiques frauduleuses ?
    D'après vous, quelles sont les implications de ces types de menaces pour l'avenir de la vérification d'identité ?

    Voir aussi :

    Des chercheurs développent une IA capable de détecter les vidéos deepfake avec une précision allant jusqu'à 99 %, cette méthode détecte les expressions faciales manipulées et les échanges d'identité

    Des cybercriminels ont utilisé la technologie deepfake pour voler 35 millions de dollars à une banque, en clonant la voix du directeur

    Les arnaques de type deepfake et crypto ont augmenté durant le premier trimestre 2022, ils sont utilisés pour diffuser de la désinformation et accéder à des informations financières ou personnelles

    Les arnaques de type deepfake et crypto ont augmenté durant le premier trimestre 2022, ils sont utilisés pour diffuser de la désinformation et accéder à des informations financières ou personnelles
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre expert
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 118
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 118
    Points : 3 424
    Points
    3 424
    Par défaut
    Oulala 900% c'est terrible, nous voila face à une épidémie de Deepfakes attention.
    Ou alors il n'y en avait quasiment pas et il y en a un peu plus, 9 fois plus qu'avant.

    Quand on part d'un niveau faible il n'est pas pertinent de compter la croissance en pourcentage.
    Toute étude qui cite un taux élevé sans préciser le chiffre avant ou après est qusi systématiquement falacieux.
    Ajoutons y un ou deux exemples (exceptionnels) marquants et nous voilà face à de la désinformation en belle et dûe forme sur base de panique morale.

  3. #3
    Membre émérite Avatar de onilink_
    Profil pro
    Inscrit en
    Juillet 2010
    Messages
    597
    Détails du profil
    Informations personnelles :
    Âge : 32
    Localisation : France

    Informations forums :
    Inscription : Juillet 2010
    Messages : 597
    Points : 2 441
    Points
    2 441
    Par défaut
    @totozor
    L'article source donne quelques chiffres.
    Circuits intégrés mis à nu: https://twitter.com/TICS_Game

  4. #4
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    919
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 919
    Points : 15 173
    Points
    15 173
    Par défaut Les "deepfakes" deviennent la première forme de fraude, selon une étude de Sumsub
    Les "deepfakes" deviennent la première forme de fraude, et sont principalement utilisés pour le "liveness bypass" et la fabrication de cartes d'identité falsifiées ou modifiées, selon Sumsub

    Une nouvelle étude de la plateforme de vérification Sumsub montre que la proportion de deepfakes en Amérique du Nord a plus que doublé entre 2022 et le premier trimestre 2023.

    La proportion de deepfakes a bondi de 0,2 % à 2,6 % aux États-Unis et de 0,1 % à 4,6 % au Canada, respectivement. Simultanément, les faux imprimés, qui représentaient quatre à cinq pour cent de l'ensemble des fraudes en 2022, ont chuté à zéro pour cent au cours du dernier trimestre.

    "Les deepfakes sont devenus plus faciles à fabriquer et, par conséquent, leur quantité s'est multipliée, comme le montrent également les statistiques", explique Pavel Goldman-Kalaydin, responsable de l'IA et du ML chez Sumsub. "Pour créer un deepfake, un fraudeur utilise le document d'une personne réelle, en prend une photo et la transforme en un personnage en 3D. Les fournisseurs de services de lutte contre la fraude et de vérification qui ne travaillent pas constamment à la mise à jour des technologies de détection des deepfakes sont à la traîne et mettent en danger à la fois les entreprises et les utilisateurs. La mise à jour de la technologie de détection des faux est un élément essentiel des systèmes modernes de vérification et de lutte contre la fraude."

    Nom : standard_Sw-face-swap_.png
Affichages : 1249
Taille : 312,3 Ko

    Les trois principaux types de fraude sont le "liveness bypass", une méthode de fraude où les criminels intervertissent ou modifient les données biométriques (34 % des fraudes aux États-Unis et 22 % au Canada), les cartes d'identité modifiées (22 % aux États-Unis et 24 % au Canada) et les fausses cartes d'identité (13 % aux États-Unis et 18 % au Canada).

    On observe également une tendance croissante à la vérification forcée - les personnes effectuant des vérifications biométriques contre leur gré - qui est passée de 0,5 % à 0,7 % en 2022 et encore plus au premier trimestre 2023, de 0,6 % à 1,1 %.

    "Nous avons constaté une tendance à la vérification forcée à l'échelle mondiale, lorsqu'il est visible qu'une personne dont la photo est prise ou qui passe la vérification de la vivacité le fait involontairement tout en étant retenue par la force d'autrui", déclare Goldman-Kalaydin. "Il est alarmant de constater que la proportion de ces fraudes augmente. De même, il arrive que la personne contrôlée soit manifestement inconsciente - peut-être endormie, peut-être mal dans sa peau, ou peut-être sous l'influence de substances. Cela signifie qu'elle ne participe pas activement et volontairement au processus KYC (Know Your Customer), ce qui peut conduire à la criminalité et à la fraude financière, par exemple, si elle n'est pas détectée et arrêtée à temps. Heureusement, ces cas ne sont pas encore très fréquents, mais leur existence est un signal d'alarme".

    Source : Sumsub

    Et vous ?

    Quel est votre avis sur le sujet ?

    Que pensez-vous des résultats de cette étude de Sumsub ? Trouvez-vous qu'ils sont pertinents ?

    Pensez-vous que des technologies de détection de deepfakes plus modernes doivent être mises en place pour lutter contre ce fléau ?

    Voir aussi

    Le nombre de contenus deepfake en ligne augmente à un rythme annuel de 900 %, d'après le World Economic Forum

    Des cybercriminels ont utilisé la technologie deepfake pour voler 35 millions de dollars à une banque en clonant la voix du directeur

    67 % des consommateurs déclarent connaitre les technologies d'IA générative, mais ils surestiment leur capacité à détecter une deepfake vidéo, selon une étude récente de Jumio

    Deepfake : 29 % des entreprises ont été victimes de fraudes vidéos et 37 % ont été touchées par des fraudes vocales, tandis que 46 % ont subi une fraude sur l'identité synthétique, selon Regula
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  5. #5
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    906
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 906
    Points : 63 536
    Points
    63 536
    Par défaut La FTC propose de nouvelles protections pour lutter contre l'usurpation d'identité par l'IA
    La FTC propose de nouvelles protections pour lutter contre l'usurpation d'identité par l'IA, elle finalise un règlement interdisant la fraude à l'administration et à l'usurpation d'identité.

    La Federal Trade Commission (FTC) s'efforce de promouvoir la concurrence, de protéger et d'éduquer les consommateurs. Elle propose de nouvelles protections pour lutter contre l'usurpation d'identité par l'IA. L'agence finalise un règlement interdisant la fraude à l'administration et à l'usurpation d'identité et cherche à étendre les protections aux particuliers.

    La Federal Trade Commission (FTC) est une agence indépendante du gouvernement des États-Unis dont la mission principale est l'application de la législation antitrust civile (non pénale) et la promotion de la protection des consommateurs. La FTC partage la compétence en matière d'application de la législation antitrust civile fédérale avec la division antitrust du ministère de la Justice.

    La Federal Trade Commission sollicite les commentaires du public sur un avis complémentaire de proposition de réglementation qui interdirait l'usurpation d'identité des personnes. Les modifications proposées étendraient les protections de la nouvelle règle sur l'usurpation de l'identité d'un gouvernement ou d'une entreprise que la Commission finalise.

    L'agence prend cette mesure à la lumière de l'augmentation des plaintes concernant la fraude à l'usurpation d'identité, ainsi que du tollé général concernant les préjudices causés aux consommateurs et aux personnes dont l'identité a été usurpée. Les nouvelles technologies, notamment les deepfakes générées par l'intelligence artificielle, risquent d'aggraver ce fléau, et la FTC s'est engagée à utiliser tous les outils dont elle dispose pour détecter, décourager et faire cesser les fraudes à l'usurpation d'identité.

    La Commission sollicite également des commentaires sur la question de savoir si la règle révisée devrait déclarer illégal pour une entreprise, telle qu'une plateforme d'IA qui crée des images, des vidéos ou du texte, de fournir des biens ou des services dont ils savent ou ont des raisons de savoir qu'ils sont utilisés pour nuire aux consommateurs par le biais de l'usurpation d'identité.


    "Les fraudeurs utilisent des outils d'IA pour usurper l'identité de personnes avec une précision inquiétante et à une échelle beaucoup plus large. Avec l'augmentation du clonage vocal et d'autres escroqueries basées sur l'IA, il est plus important que jamais de protéger les Américains contre la fraude à l'usurpation d'identité", a déclaré Lina M. Khan, présidente de la FTC. "Nos propositions d'extension de la règle finale sur l'usurpation d'identité vont dans ce sens, en renforçant la boîte à outils de la FTC pour lutter contre les escroqueries fondées sur l'IA qui usurpent l'identité d'un individu".

    L'avis supplémentaire de proposition de réglementation est publié en réponse aux commentaires reçus pendant la période de consultation publique sur la règle relative à l'usurpation d'identité des gouvernements et des entreprises, qui soulignaient les menaces et les préjudices supplémentaires posés par l'usurpation d'identité des personnes. Alors que les escrocs trouvent de nouveaux moyens d'escroquer les consommateurs, notamment par le biais d'imitations générées par l'intelligence artificielle, cette proposition aidera l'agence à décourager la fraude et à obtenir réparation pour les consommateurs lésés.

    Règle finale sur l'usurpation d'identité des gouvernements et des entreprises

    En plus de l'avis complémentaire, la FTC a finalisé la règle sur l'usurpation d'identité du gouvernement et des entreprises, qui donne à l'agence des outils plus puissants pour lutter contre les escrocs qui se font passer pour des entreprises ou des agences gouvernementales, permettant à la FTC de saisir directement les tribunaux fédéraux pour obliger les escrocs à rendre l'argent qu'ils ont gagné grâce à des escroqueries par usurpation d'identité du gouvernement ou des entreprises. Cette mesure est particulièrement importante compte tenu de l'arrêt rendu par la Cour suprême en avril 2021 dans l'affaire AMG Capital Management LLC v. FTC, qui a considérablement limité la capacité de l'agence à exiger des défendeurs qu'ils restituent de l'argent aux consommateurs lésés.

    Les escroqueries liées à l'usurpation de l'identité d'un gouvernement ou d'une entreprise ont coûté des milliards de dollars aux consommateurs ces dernières années, et ces deux catégories ont connu une augmentation significative des signalements à la FTC en 2023. Le règlement autorise l'agence à lutter plus efficacement contre ces escroqueries.

    Par exemple, la règle permettrait à la FTC de demander directement une réparation pécuniaire devant un tribunal fédéral aux escrocs qui :

    • utilisent des sceaux gouvernementaux ou des logos d'entreprises lorsqu'ils communiquent avec les consommateurs par courrier ou en ligne

    • usurpent des adresses électroniques et des adresses web gouvernementales ou professionnelles, notamment en usurpant des adresses électroniques ".gov" ou en utilisant des adresses électroniques ou des sites web ressemblants qui reposent sur des fautes d'orthographe du nom d'une entreprise.

    • donnent une fausse impression d'affiliation à un gouvernement ou à une entreprise en utilisant des termes connus pour être affiliés à une agence gouvernementale ou à une entreprise (par exemple, en déclarant "J'appelle du bureau du greffier" pour donner une fausse impression d'affiliation à un tribunal).


    La publication de la règle finale intervient après deux séries de commentaires publics en réponse à un avis préalable de proposition de réglementation publié en décembre 2021, un avis de proposition de réglementation publié en septembre 2022 et une audience informelle en mai 2023.

    Le vote de la Commission pour émettre la règle finale et l'avis supplémentaire de réglementation proposée et pour les publier dans le Registre fédéral a été de 3-0. La présidente Lina M. Khan a fait une déclaration séparée à laquelle se sont joints les commissaires Rebecca Kelly Slaughter et Alvaro M. Bedoya.

    Les deux textes paraîtront prochainement dans le Registre fédéral. La règle finale sur l'usurpation de l'identité d'un gouvernement ou d'une entreprise entrera en vigueur 30 jours après sa publication dans le Registre fédéral. La période de consultation publique pour le SNPRM sera ouverte pendant 60 jours à compter de la date de sa publication dans le Federal Register, et des instructions sur la manière de formuler des commentaires seront incluses dans l'avis.

    Source : Federal Trade Commission (FTC)

    Et vous ?

    Pensez-vous que ce règlement est crédible ou pertinent ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Les "deepfakes" deviennent la première forme de fraude et sont principalement utilisés pour le "liveness bypass" et la fabrication de cartes d'identité falsifiées ou modifiées, selon Sumsub

    Les Américains ont perdu l'an dernier un montant record de 10,3 milliards de dollars dans des escroqueries en ligne, selon un rapport du FBI

    La NSA, le FBI et la CISA publient une fiche d'information sur la cybersécurité concernant les menaces liées aux Deepfake
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  6. #6
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    906
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 906
    Points : 63 536
    Points
    63 536
    Par défaut Des experts en IA et des dirigeants d'entreprises ont signé une lettre ouverte sur la création de "deepfakes"
    Des experts en IA et des dirigeants d'entreprises ont signé une lettre ouverte appelant à une plus grande réglementation de la création de "deepfakes", évoquant les risques potentiels pour la société.

    Des experts en intelligence artificielle et des dirigeants d'entreprises, dont Yoshua Bengio, l'un des pionniers de cette technologie, ont signé une lettre ouverte appelant à une plus grande réglementation de la création de "deepfakes", en invoquant les risques potentiels pour la société. La lettre contient des recommandations sur la manière de réglementer les deepfakes.

    Aujourd'hui, les "deepfakes" concernent souvent l'imagerie sexuelle, la fraude ou la désinformation politique. "Étant donné que l'IA progresse rapidement et rend la création de deepfakes beaucoup plus facile, des garde-fous sont nécessaires", indique le groupe dans la lettre, rédigée par Andrew Critch, chercheur en IA à l'université de Berkeley.

    Les deepfakes sont des images, des sons et des vidéos réalistes mais fabriqués par des algorithmes d'IA, et les progrès récents de la technologie les rendent de plus en plus impossibles à distinguer des contenus créés par des humains.

    La lettre, intitulée "Disrupting the Deepfake Supply Chain", contient des recommandations sur la manière de réglementer les deepfakes, notamment la criminalisation totale de la pédopornographie par deepfake, des sanctions pénales pour toute personne créant ou facilitant sciemment la diffusion de deepfakes nuisibles et l'obligation pour les entreprises d'IA d'empêcher leurs produits de créer des deepfakes nuisibles.

    Plus de 400 personnes issues de différents secteurs, notamment du monde universitaire, du spectacle et de la politique, avaient signé la lettre. Parmi les signataires figurent Steven Pinker, professeur de psychologie à Harvard, Joy Buolamwini, fondatrice de l'Algorithmic Justice League, deux anciens présidents estoniens, des chercheurs de Google DeepMind et un chercheur d'OpenAI.

    Veiller à ce que les systèmes d'IA ne nuisent pas à la société est une priorité pour les régulateurs depuis qu'OpenAI, soutenue par Microsoft, a dévoilé ChatGPT fin 2022, qui a séduit les utilisateurs en les faisant participer à des conversations semblables à celles des humains et en effectuant d'autres tâches. De nombreuses personnalités ont mis en garde contre les risques liés à l'IA, notamment une lettre signée par Elon Musk l'année dernière, qui appelait à une pause de six mois dans le développement de systèmes plus puissants que le modèle d'IA GPT-4 d'OpenAI.


    Perturber la chaîne d'approvisionnement de Deepfake

    Contexte : De nombreux experts ont prévenu que l'intelligence artificielle ("IA") pourrait causer des dommages importants à l'humanité si elle n'était pas gérée de manière responsable. L'impact de l'IA est considérablement aggravé par sa capacité à imiter des êtres humains réels. Dans la déclaration ci-dessous, le terme "deepfakes" fait référence à des voix, des images ou des vidéos générées par l'IA, non consensuelles ou grossièrement trompeuses, qu'une personne raisonnable pourrait prendre pour réelles. Cela n'inclut pas les légères modifications d'une image ou d'une voix, ni les divertissements ou satires inoffensifs qui sont facilement reconnus comme étant synthétiques. Aujourd'hui, les deepfakes concernent souvent l'imagerie sexuelle, la fraude ou la désinformation politique. Étant donné que l'IA progresse rapidement et qu'il est beaucoup plus facile de créer des deepfakes, il est nécessaire de mettre en place des mesures de protection pour assurer le fonctionnement et l'intégrité de notre infrastructure numérique.

    Déclaration

    Les deepfakes constituent une menace croissante pour la société, et les gouvernements doivent imposer des obligations tout au long de la chaîne d'approvisionnement pour mettre fin à la prolifération des deepfakes. Les nouvelles lois doivent :

    1. Criminaliser totalement la pornographie infantile "deepfake", même lorsque seuls des enfants fictifs sont représentés ;
    2. Prévoir des sanctions pénales pour toute personne qui crée ou facilite sciemment la diffusion de "deepfakes" préjudiciables ; et
    3. Exiger des développeurs et distributeurs de logiciels qu'ils empêchent leurs produits audio et visuels de créer des deepfakes nuisibles, et qu'ils soient tenus pour responsables si leurs mesures préventives sont trop facilement contournées.


    Si elles sont conçues judicieusement, ces lois pourraient favoriser l'émergence d'entreprises socialement responsables et ne devraient pas être excessivement contraignantes.
    Source : "Disrupting the Deepfake Supply Chain" (Lettre ouverte)

    Et vous ?
    Pensez-vous que cette lettre soit crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    La FTC propose de nouvelles protections pour lutter contre l'usurpation d'identité par l'IA. Elle finalise un règlement interdisant la fraude à l'administration et à l'usurpation d'identité

    La NSA, le FBI et la CISA publient une fiche d'information sur la cybersécurité concernant les menaces liées aux Deepfake

    Quelles seront les avancées technologiques les plus dangereuses à l'avenir ? L'IA figure parmi les réponses les plus courantes, ainsi que les deepfakes et les essaims de drones
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 0
    Dernier message: 19/01/2022, 15h52
  2. Réponses: 13
    Dernier message: 03/09/2013, 13h31
  3. Réponses: 1
    Dernier message: 05/03/2012, 15h04
  4. [DisplayTag] vs 1.1 Prob de répétition du contenu des lignes
    Par yannick101 dans le forum Servlets/JSP
    Réponses: 1
    Dernier message: 13/07/2006, 09h50
  5. [VBA]comptage de lignes en fonction du contenu des cellules
    Par calimero91 dans le forum Macros et VBA Excel
    Réponses: 10
    Dernier message: 22/12/2005, 11h38

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo