IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

L’IA et les droits civils : comment les pays s’adaptent à ChatGPT et aux autres technologies


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 856
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 856
    Points : 36 476
    Points
    36 476
    Par défaut L’IA et les droits civils : comment les pays s’adaptent à ChatGPT et aux autres technologies
    L’IA et les droits civils : comment les pays s’adaptent à ChatGPT
    et aux autres technologies qui échappent à tout contrôle

    L’IA évolue rapidement et l’outil ChatGPT d’OpenAI, qui bénéficie du soutien de Microsoft, en est un exemple. Cette technologie pose des défis juridiques aux gouvernements qui peinent à trouver un consensus sur la façon de la réguler.

    Des analystes ont comparé les approches utilisées par l’Australie, la Grande-Bretagne, la Chine, l’Union européenne, la France et l’Irlande dans l'encadrement de l’utilisation et le développement de l’IA. Ils mettent en évidence les avantages et les risques de l’IA pour la société et les droits civils, et appellent à une collaboration internationale et à une participation des communautés marginalisées pour élaborer des cadres éthiques et juridiques adaptés à l’IA.

    Nom : ChatGPT.png
Affichages : 881
Taille : 125,0 Ko

    La Commission de l'Union européenne a été à l'avant-garde des efforts visant à mettre en place des instruments de renseignement. En avril 2021, l'UE a dévoilé une proposition de lignes directrices visant à structurer la tournure des événements et l'utilisation des dispositifs de renseignement informatisés sur l'ensemble du territoire. Ces lignes directrices exigeraient des ingénieurs en intelligence artificielle qu'ils se conforment à des principes moraux stricts et interdiraient certaines utilisations de l'intelligence artificielle, par exemple celles qui pourraient être utilisées pour contrôler des individus ou opprimer des groupes spécifiques.

    Dans le cas des États-Unis, la Maison blanche a publié un plan d’action sur son site officiel pour protéger les droits civils des citoyens américains à l’ère de l’intelligence artificielle et des systèmes automatisés. Elle s’inspire de la vision du président Biden, qui a affirmé les principes de l’équité, de la justice et de la démocratie comme fondements de son administration.

    Le gouvernement américain propose cinq principes et des pratiques associées pour orienter la conception, l’utilisation et le déploiement de ces systèmes de manière à renforcer les valeurs démocratiques.

    Les cinq principes proposés par la Maison blanche dans ce plan d’action sont les suivants :

    1. Systèmes sûrs et efficaces : vous devriez être protégé(e) des systèmes dangereux ou inefficaces ;
    2. Protection contre la discrimination algorithmique : vous ne devriez pas faire l’objet de discrimination par les algorithmes et les systèmes devraient être utilisés et conçus de manière équitable ;
    3. Protection des données personnelles : vous devriez être protégé(e) des pratiques abusives en matière de données grâce à des protections intégrées et vous devriez avoir un contrôle sur la façon dont les données vous concernant sont utilisées ;
    4. Notification et explication : vous devriez savoir quand un système automatisé est utilisé et comprendre comment et pourquoi il contribue aux résultats qui vous impactent ;
    5. Alternatives, considération et recours humains : vous devriez pouvoir vous désengager, le cas échéant, et avoir accès à une personne qui peut rapidement examiner et résoudre les problèmes que vous rencontrez.

    Ces principes visent à garantir la sécurité, l’efficacité, l’équité, la protection des données, la transparence et le choix des utilisateurs face aux systèmes automatisés. Le plan d’action proposé par la maison blanche est accompagné d’un guide pratique pour aider les acteurs concernés à mettre en œuvre ces principes dans leurs politiques et leurs pratiques.

    Le texte offre une vision d’une société où les protections sont intégrées dès le départ, où les communautés marginalisées ont une voix dans le processus de développement, et où les concepteurs travaillent dur pour que les bénéfices des technologies atteignent toutes les personnes.

    Voici, ci-dessous, quelques mesures prises par les instances nationales et internationales pour réglementer les outils d'IA :

    Alors que l'Australie a demandé conseil à son principal organe consultatif scientifique sur la façon de répondre à l’IA et envisage les prochaines étapes, la Grande-Bretagne a prévu de répartir la responsabilité de la gouvernance de l’IA entre ses régulateurs des droits de l’homme, de la santé et de la sécurité, et de la concurrence, plutôt que de créer un nouvel organisme.

    La France aurait lancé une enquête sur plusieurs plaintes concernant l’outil d’IA ChatGPT. Dans le même temps, l’Irlande a déclaré que l’IA générative devait être réglementée, mais qu’il fallait trouver comment le faire correctement avant de se précipiter vers des interdictions qui « ne tiendraient pas ».

    La Chine a dévoilé des mesures provisoires pour gérer les services d’IA générative

    Le gouvernement chinois exige que les entreprises soumettent des évaluations de sécurité aux autorités avant de lancer des offres au public. La Chine a publié un projet de règlement pour encadrer le développement des technologies d’IA générative, telles que ChatGPT. Les opérateurs devront soumettre leurs applications à des examens de sécurité et respecter des lignes directrices sur le contenu.

    Le but est de garantir l’utilisation sûre et fiable de ces outils et de prévenir la diffusion de fausses informations. Cette initiative intervient alors que les États-Unis sollicitent par ailleurs l’avis du public sur la responsabilité de l’IA.

    Selon le projet de règlement, les opérateurs devront envoyer leurs applications aux régulateurs pour des « examens de sécurité » avant d’offrir les services au public. Ils ne doivent pas non plus utiliser les algorithmes et les données de l’IA pour se livrer à une concurrence déloyale. Le projet de règlement établit également des lignes directrices auxquelles les services d’IA générative doivent se conformer, telles que les types de contenu que ces applications peuvent générer. Ces lignes directrices garantiront l’exactitude des informations et empêcheront la diffusion de fausses informations.

    L’Allemagne envisage d’interdire ChatGPT après l’Italie

    Le lundi 3 avril, le commissaire allemand à la protection des données, Ulrich Kelber, a déclaré que son pays pourrait s'inspirer de la récente interdiction de ChatGPT par l'Italie et prendre une mesure similaire. Après que l'agence italienne de protection des données a lancé une enquête sur une violation présumée des règles de confidentialité par ChatGPT, Kelber a déclaré que, « en principe, une telle action est aussi possible en Allemagne ». Il a ajouté que cela relèverait de la compétence de chacun des États fédéraux du pays.

    Toutefois, malgré ces agacements pour la réglementation de l’IA, il convient de noter que cette technologie présente quelques avantages potentiels de l’IA pour l’innovation et le bien-être social, mais aussi les risques qu’elle pose pour les droits civils, la vie privée et l’équité. Il appelle à une collaboration internationale et à une participation des communautés marginalisées pour élaborer des cadres éthiques et juridiques adaptés à l’IA.

    Source : Reuters

    Et vous ?

    Quels sont, selon vous, les risques de l’IA et de ChatGPT pour la vie privée et la sécurité des citoyens ?

    À votre avis, quels peuvent être les critères à utiliser par les gouvernements pour réguler l’IA et ChatGPT ?

    Les limites des pratiques proposées par la Maison blanche pour protéger les droits civils à l’ère de l’IA et des systèmes automatisés vous convainc-t-elle ?

    Quelles pourraient être les voix et les perspectives exclues ou marginalisées dans l’élaboration des cadres éthiques et juridiques adaptés à l’IA ?

    Voir aussi :

    L'Allemagne envisage d'emboîter le pas à l'Italie en interdisant l'utilisation de ChatGPT, évoquant une violation présumée des règles de confidentialité par le chatbot d'IA d'OpenAI

    La Chine veut utiliser les supercalculateurs pour accélérer la transformation numérique et le développement de l'intelligence artificielle
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Communiqués de presse

    Femme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2018
    Messages
    2 135
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Âge : 33
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Mai 2018
    Messages : 2 135
    Points : 158 420
    Points
    158 420
    Par défaut Le directeur technique d'OpenAI estime que les systèmes d'IA devraient "absolument" être réglementés
    Le directeur technique d'OpenAI, Mira Murati, estime que les systèmes d'IA devraient "absolument" être réglementés

    Mira Murati, directeur technique d'OpenAI, créateur de ChatGPT, estime que les systèmes d'intelligence artificielle générale (AGI) devraient "absolument" être réglementés.

    Lors d'une récente interview, Mira Murati a déclaré que son entreprise discutait constamment avec les gouvernements, les régulateurs et d'autres organisations afin de convenir d'un certain niveau de normes.

    "Nous avons travaillé dans ce sens ces deux dernières années avec les développeurs de grands modèles de langage en nous alignant sur certaines normes de sécurité de base pour le déploiement de ces modèles", a déclaré M. Murati. "Mais je pense qu'il reste encore beaucoup à faire. Les régulateurs gouvernementaux devraient certainement être très impliqués.

    M. Murati a évoqué en particulier l'approche de l'OpenAI en matière d'AGI avec des "capacités de niveau humain".
    La vision spécifique d'OpenAI à ce sujet est de la construire en toute sécurité et de trouver comment la construire d'une manière qui soit alignée sur les intentions humaines, de sorte que les systèmes d'IA fassent les choses que nous voulons qu'ils fassent, et qu'ils profitent au maximum au plus grand nombre de personnes possible, idéalement à tout le monde.

    Q : Existe-t-il une voie entre des produits comme le GPT-4 et l'AGI ?

    R : Nous sommes encore loin d'un système AGI sûr, fiable et aligné. Pour y parvenir, nous disposons de quelques vecteurs importants. Du point de vue de la recherche, nous essayons de construire des systèmes qui ont une solide compréhension du monde, semblable à celle que nous avons en tant qu'humains. Des systèmes comme le GPT-3 ont d'abord été formés uniquement sur des données textuelles, mais notre monde n'est pas fait que de texte, il y a aussi des images, puis nous avons commencé à introduire d'autres modalités.

    L'autre angle d'attaque a été la mise à l'échelle de ces systèmes afin d'accroître leur généralité. Avec le GPT-4, nous avons affaire à un système beaucoup plus performant, en particulier du point de vue du raisonnement sur les choses. Cette capacité est essentielle. Si le modèle est suffisamment intelligent pour comprendre une direction ambiguë ou une direction de haut niveau, vous pouvez alors trouver comment lui faire suivre cette direction. Mais s'il ne comprend même pas cet objectif ou cette direction de haut niveau, il est beaucoup plus difficile de l'aligner. Il ne suffit pas de construire cette technologie dans le vide d'un laboratoire. Nous avons vraiment besoin de ce contact avec la réalité, avec le monde réel, pour voir où sont les faiblesses, où sont les points de rupture, et essayer de le faire d'une manière contrôlée et à faible risque et d'obtenir autant de retour d'information que possible.
    Q : Quelles mesures de sécurité prenez-vous ?

    R : Nous pensons aux interventions à chaque étape. Nous expurgeons certaines données de la formation initiale sur le modèle. Avec DALL-E, nous voulions réduire les biais nuisibles que nous observions... Dans la formation au modèle, avec ChatGPT en particulier, nous avons fait de l'apprentissage par renforcement avec un retour d'information humain pour aider le modèle à s'aligner davantage sur les préférences humaines. En fait, nous essayons d'amplifier ce qui est considéré comme un bon comportement et de désamplifier ce qui est considéré comme un mauvais comportement.
    Une dernière citation tirée de l'entretien :

    Il est difficile de concevoir des mécanismes de sécurité dans des systèmes complexes... Les mécanismes de sécurité et de coordination de ces systèmes d'IA et de tout système technologique complexe sont difficiles et nécessitent beaucoup de réflexion, d'exploration et de coordination entre les acteurs.



    Source : Associated Press

    Et vous ?

    Que pensez-vous des avis de Mira Murati ?
    Quel est votre opinion sur la règlementation de l'IA ?

    Voir aussi :

    La Chambre de commerce des États-Unis demande une réglementation de l'IA, pour que l'IA ne nuise pas à la croissance ou ne devienne pas un risque pour la sécurité

    Le Vatican, IBM et Microsoft ensemble pour appeler à une réglementation de la reconnaissance faciale, et de façon générale, à une régulation de l'IA pour le bien de l'humanité

    « Le développement de l'IA sans réglementation induit une menace existentielle pour l'humanité », d'après Elon Musk, dont une société développe des puces à insérer dans le cerveau pour contrer l'IA
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  3. #3
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    1 791
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 1 791
    Points : 5 758
    Points
    5 758
    Par défaut
    C'est juste du blabla, un gros nuage de fumée, pour se faire passer pour le "gentil" de l'histoire et surtout... se dédouaner! Quand cela finira mal, il lui sera facile de dire "Mais on vous avez prévenu... Ce sont les politiques, les gouvernements qui sont responsables de n'avoir rien fait pour éviter le pire!"

    Le mec n'est pas le premier "apprenti sorcier de l'IA" a appelé de ses voeux une "régulation de l'IA" tout en sachant parfaitement que cela ne se fera jamais!!!!

    30 ans après l'invention de l'internet, il n'y a toujours pas aujourd'hui une loi régulant les pratiques de l'internet reconnue par l'ensemble des pays...

    Prenons l'exemple de la protection des données privée des utilisateurs de l'internet... Il a fallu 30 ans pour que l'Union Européenne nous pondent le RGPD, un "règlement" qui ne s'applique qu'à moins de 500 000 personnes sur l'ensemble d'une planète qui en compte presque 10 milliards et encore, il faut vite le dire parce qu'en réalité il ne s'applique même pas au 500 000 européens puisque la totalité de ces gens utilisent des services dont les données sont stockées aux USA qui se "fout" royalement du RGPD des européens.

    Les acteurs de l'IA peuvent transformer le monde et son organisation sociale en champs de ruines et envoyer les 3/4 des gens au chômage en toute quiétude, aucune loi ne les en empêchera (cf. Microsoft qui dit suspendre l'engagement de certains profils parce qu'ils pensent pouvoir remplacer 7 800 employés grâce à l'utilisation de l'IA)!

    Et ce ne sont pas les 2 ou 3 gugusses qui nous expriment leur remords d'avoir inventer le monstre qui changeront quoique ce soit... Il y a trop de fric à se faire!!!

Discussions similaires

  1. Réponses: 1
    Dernier message: 09/07/2020, 17h08
  2. générer la liste de tous les pays en JSP
    Par Namson dans le forum Servlets/JSP
    Réponses: 1
    Dernier message: 26/03/2008, 18h00
  3. [Tableaux] Les villes de tous les pays
    Par paulrad dans le forum Langage
    Réponses: 12
    Dernier message: 13/02/2007, 10h30

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo