Les "deepfakes" constituent la plus grande préoccupation en matière d'IA,
d’après Brad Smith, président de Microsoft

Le président de Microsoft, Brad Smith, a déclaré que sa plus grande préoccupation en matière d'intelligence artificielle est les "deepfakes", des contenus réalistes mais faux.

Nom : Screenshot_2023-05-26 Microsoft chief says deep fakes are biggest AI concern – Recherche Google.png
Affichages : 1905
Taille : 177,2 Ko

Lors d'un discours prononcé à Washington, visant à aborder la question de la meilleure manière de réglementer l'intelligence artificielle, qui est passée d'une situation bancale à une situation généralisée avec l'arrivée du ChatGPT d'OpenAI, Smith a demandé que des mesures soient prises pour que les gens sachent quand une photo ou une vidéo est réelle et quand elle est générée par l'intelligence artificielle, potentiellement à des fins malveillantes.

« Nous allons devoir nous pencher sur les problèmes liés aux contrefaçons profondes. Nous allons devoir nous attaquer en particulier à ce qui nous préoccupe le plus, à savoir les opérations de cyberinfluence étrangère, le type d'activités déjà menées par le gouvernement russe, les Chinois et les Iraniens. Nous devons prendre des mesures pour nous protéger contre l'altération de contenus légitimes dans le but de tromper ou d'escroquer les gens par l'utilisation de l'IA », a-t-il déclaré.

Smith a également appelé à l'octroi de licences pour les formes les plus critiques d'IA, avec des « obligations de protection de la sécurité, de la sécurité physique, de la cybersécurité et de la sécurité nationale ». « Nous aurons besoin d'une nouvelle génération de contrôles à l'exportation, ou du moins d'une évolution des contrôles à l'exportation existants, afin de garantir que ces modèles ne sont pas volés ou utilisés d'une manière qui violerait les exigences du pays en matière de contrôle des exportations », a-t-il déclaré.

Depuis des semaines, les législateurs de Washington s'interrogent sur les lois à adopter pour contrôler l'IA, alors même que les entreprises, grandes et petites, s'empressent de mettre sur le marché une IA de plus en plus polyvalente.

Il y a quelques jours, Sam Altman, PDG d'OpenAI, la startup à l'origine de ChatGPT, a déclaré à un groupe d'experts du Sénat, lors de sa première comparution devant le Congrès, que l'utilisation de l'IA pour interférer avec l'intégrité des élections était un « sujet de préoccupation important », ajoutant qu'elle nécessitait une réglementation. Altman, dont la société OpenAI est soutenue par Microsoft, a également appelé à une coopération mondiale en matière d'IA et à des mesures d'incitation pour le respect des règles de sécurité.


Dans son discours et dans un billet de blog publié jeudi, Smith a également fait valoir que les personnes devaient être tenues pour responsables de tout problème causé par l'IA et il a exhorté les législateurs à veiller à ce que des freins de sécurité soient mis sur l'IA utilisée pour contrôler le réseau électrique, l'approvisionnement en eau et d'autres infrastructures critiques, afin que les humains restent maîtres de la situation.

Il a insisté sur l'utilisation d'un système de type "Know Your Customer" pour les développeurs de puissants modèles d'IA afin de garder un œil sur la manière dont leur technologie est utilisée et d'informer le public du contenu créé par l'IA afin qu'il puisse identifier les vidéos truquées.

Certaines propositions examinées au Capitole porteraient sur l'IA susceptible de mettre en danger la vie ou les moyens de subsistance des personnes, par exemple dans les domaines de la médecine et de la finance. D'autres préconisent des règles visant à garantir que l'IA ne soit pas utilisée à des fins de discrimination ou de violation des droits civils.

Source : Brad Smith, président de Microsoft

Et vous ?

Que pensez-vous des propos de Brad Smith ? Partagez-vous son opinion ?

Voir aussi :

Les effets subtils de la circulation sanguine peuvent être utilisés pour détecter un deepfake et le logiciel qui a permis de le créer, selon une étude

Avatarify, un deepfake qui échange en temps réel votre visage avec celui d'une célébrité, pendant les appels vidéo sur Zoom et Skype

Des cybercriminels ont utilisé la technologie deepfake pour voler 35 millions de dollars à une banque en clonant la voix du directeur

Des chercheurs développent une IA capable de détecter les vidéos deepfake avec une précision allant jusqu'à 99 % cette méthode détecte les expressions faciales manipulées et les échanges d'identité