IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Pour le sénateur Peter Welch, si votre travail a été utilisé pour former une IA, vous devriez être indemnisé


Sujet :

Intelligence artificielle

  1. #21
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 017
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 017
    Points : 6 313
    Points
    6 313
    Par défaut
    Citation Envoyé par PomFritz Voir le message
    Un peu d'ojectivité ne fait pas de mal. Ils ont une quand même une société civile et un semblant de justice comparé à d'autres.
    Vous feriez bien d'appliquer votre "un peu d'objectivité" à vos propres jugements!

    Je suppose que vous êtes scandalisé chaque fois qu'il y a un civil ukrainien tué dans l'explosion d'un missile russe? Que vous criez de tout votre souffle au crime de guerre!

    Les 220 000 civils japonais évaporés immédiatement sous les bombes nucléaires américaines et les centaines de milliers d'autres morts dans d'atroces souffrances suite aux radiations induites , les 4,8 millions de personnes directement exposées au Vietnam à l'agent orange des américains dont plus de 3 millions d'entre elles ont développé des problèmes de santé (des enfants naissent encore aujourd'hui handicapés), les plus de 300 000 civils irakiens tués par les américains lors des 2 guerres en Irak, n'ont pas droit à votre "objectivité"???????????????

    A mais je suppose que d'après votre "objectivité", ces victimes de guerre n'en sont pas parce les auteurs de ces horreurs sont de gentils américains d'un pays démocratique exemplaire?

    Vous devriez regarder un peu moins CNews et passer plus de temps à ouvrir les livres d'histoire!!!

  2. #22
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 902
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 902
    Points : 18 849
    Points
    18 849
    Par défaut
    Citation Envoyé par Anselme45 Voir le message
    passer plus de temps à ouvrir les livres d'histoire!!!
    Ben justement "Les vainqueurs écrivent l'histoire" ça veut dire que tous les crimes de guerre sont mis sur le dos du perdant.
    Enfin pas tout non plus, parce qu'on connait l'histoire de Little Boy (Hiroshima) et Fat Man (Nagasaki).
    On sait aussi pour l'Agent Orange, le Napalm, les munitions à l'uranium appauvri, le phosphore blanc, etc.

    Les USA sont dans une position "nous sommes les gendarmes du monde", "nous avons forcément raison puisque nous sommes les gentils".
    Il y a plein de gens que ça énerve ce discours (surtout en dehors de l'occident).

  3. #23
    Membre confirmé
    Inscrit en
    Mai 2008
    Messages
    198
    Détails du profil
    Informations forums :
    Inscription : Mai 2008
    Messages : 198
    Points : 557
    Points
    557
    Par défaut
    Voilà un décompte précis! C'est une forme d'analyse politique comme une autre. En plus, pas besoin de renvoyer à des livres d'histoire pour trouver les chiffres, c'est sur Wikipedia (et dans les fils des réseaux sociaux).

    Je ne cherche pas à équilibrer les comptes (en admettant qu'on sache comment et depuis où commencer à compter). Je pars du monde tel qu'il est, pour savoir où il va, pas l'inverse. Le contexte historique est différent (ne serait-ce que du point de vue de la puissance technologique au niveau militaire et propagandiste à disposition de toutes les petites frappes mafieuses dirigeantes, judéo-chrétiennes ou pas, en roue libre).

    Je m'en tiens à ce que j'écris (soit des constatations). Après libre à chacun d'extrapoler, dans le confort de ses schémas intellectuels ce que je pense. Je ne compte rédiger des pâtés historico-idéologiques dans un forum dédié à l'informatique.

  4. #24
    Membre expert
    Homme Profil pro
    Étudiant
    Inscrit en
    Novembre 2021
    Messages
    1 218
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Novembre 2021
    Messages : 1 218
    Points : 3 309
    Points
    3 309
    Par défaut
    Citation Envoyé par Anselme45 Voir le message
    Trouver des excuses à ses crimes de guerre? Là, vous faites erreur, les USA ne s'excusent jamais, surtout pas pour les crimes de guerres qu'ils ont commis.

    Vous avez entendu parlé des bombes nucléaires américaines sur les villes d’Hiroshima et Nagasaki? De l'épandage à grande échelle de l'agent orange lors de la guerre du Vietnam? Du bombardement de la Serbie pendant 78 jours par l'OTAN sans l'accord de l'ONU en prenant pour cible les infrastructure civiles tels que les ponts, les usines électriques, etc? Du déclenchement de la 2ème guerre contre l'Irak en inventant de toute pièce l'existence d'armes de destruction massives? De l'invasion de l'Afghanistan en prenant pour excuse l'attentat des Tours Jumelles de New York alors que les terroristes étaient issus d'Arabie Saoudite, d'Egypte, du Pakistan mais pas un seul d'Afghanistan?

    Est-ce que depuis ces exemples, vous avez entendu une seule fois un début d'excuse des USA?
    En fait, par "excuses" je voulait dire "justification" ou "prétexte". Pas du genre "en s'excuse, on regrette", mais plutôt "on est légitime pour faire ça parce que".

  5. #25
    Membre éprouvé
    Homme Profil pro
    Analyste d'exploitation
    Inscrit en
    Juin 2022
    Messages
    316
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 39
    Localisation : France, Puy de Dôme (Auvergne)

    Informations professionnelles :
    Activité : Analyste d'exploitation

    Informations forums :
    Inscription : Juin 2022
    Messages : 316
    Points : 1 052
    Points
    1 052
    Par défaut
    Les bombes nucléaires sont vraiment le pire exemple que quelqu'un puisse donner pour parler des Etats-Unis et de leur impudence.

    Les bombes Fat Man et Little Boy ont été annoncées avant d'être larguées sur les villes d'Hiroshima et Nagasaki; Une pluie de tract qui signalait l'arrivée de bombes nucléaires ne justifie pas l'utilisation de la bombe.
    Tout comme rien ne peut justifier les massacres du Sac/Viol de Nankin. Il faut recontextualiser, les Etats-Unis avaient subi une attaque sur Pearl Harbor à l'époque, attaque qui a été très mal vécue et le Japon avait clairement affiché sa volonté de ne pas baisser les armes.

    Rappelons également l'existence de l'unité 731, une section de "recherches" japonaise qui ferait pâlir les meilleurs réalisateurs d'horreur. (Sérieusement, ne cliquez pas sur le lien si vous n'avez pas l'estomac accroché.)

    Du point de vue des USA, le Japon est un ennemi avec un front maritime, qui a commis tout autant d'atrocités que nos voisins nazis, et qui est suffisamment entêté pour renoncer au bien-être de son peuple pour se sauver la face. Il ne faut pas oublier qu'au même moment, le Japon avait envahi le territoire des actuelles Corées, par exemple.

    Alors, certes, c'est poilant de nos jours, de lire qu'un général de l'armée américaine puisse se permettre de faire la morale; entre les guerres afghanes, les violations des conventions de Genève (Vietnam également), et leurs ingérences à toute heure. Mais ce serait encore mieux de se poiler pour les bonnes raisons...

  6. #26
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 736
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 736
    Points : 121 323
    Points
    121 323
    Par défaut Joe Biden signe un décret visant à superviser et à investir dans l'IA
    Joe Biden signe un décret visant à superviser et à investir dans l'IA, ses objectifs vont des droits civils aux réglementations industrielles, en passant par l'embauche de personnel.

    Le président Joe Biden a signé lundi un décret de grande envergure sur l'intelligence artificielle, ouvrant la voie à certaines réglementations industrielles et au financement du gouvernement américain pour qu'il investisse davantage dans cette technologie. Le décret est vaste et ses objectifs vont des droits civils aux réglementations industrielles, en passant par une vague d'embauches au sein du gouvernement.

    Lors d'une conférence de presse organisée dimanche pour présenter le décret, un haut fonctionnaire de la Maison-Blanche, qui a demandé à ne pas être nommé en raison des conditions de la conférence, a déclaré que l'IA avait tellement de facettes qu'une réglementation efficace devait couvrir un large éventail de domaines.

    "La politique en matière d'IA, c'est comme un décathlon, avec dix épreuves différentes", a déclaré le haut fonctionnaire. "Et nous n'avons pas le luxe de nous contenter de choisir "nous allons nous contenter de la sécurité" ou "nous allons nous contenter de l'équité" ou "nous allons nous contenter de la protection de la vie privée". Il faut tenir compte de tous ces aspects".

    Le fonctionnaire a également appelé à une "législation bipartisane significative" pour faire progresser les intérêts du pays en matière d'IA. Le chef de la majorité au Sénat, Chuck Schumer (D-N.Y.), a organisé en septembre un forum privé avec des chefs d'entreprise, mais il n'a pas encore présenté de législation significative sur l'IA.


    Le décret s'appuie en partie sur un accord non contraignant conclu en juillet par sept des principales entreprises technologiques américaines qui développent l'IA, comme l'embauche d'experts extérieurs pour rechercher les faiblesses de leurs systèmes et le partage de leurs conclusions critiques. Le décret s'appuie sur la loi sur la production de défense pour obliger légalement ces entreprises à partager les résultats des tests de sécurité avec le gouvernement fédéral. Il charge également le ministère du commerce d'élaborer des orientations sur le "filigrane" des contenus d'IA, afin de montrer clairement que les vidéos "deepfaked" ou les essais générés par ChatGPT n'ont pas été créés par des humains.

    Le décret prévoit également le financement de nouvelles recherches en matière d'IA et une augmentation du nombre d'embauches dans ce domaine au niveau fédéral. La Maison Blanche a lancé un site web correspondant pour mettre en relation les demandeurs d'emploi et les emplois gouvernementaux dans le domaine de l'IA : AI.gov.

    Fei-Fei Li, codirecteur de l'Institute for Human-Centered Artificial Intelligence de Stanford, a déclaré dans une interview que le financement public était essentiel pour que l'IA puisse s'attaquer aux principaux problèmes humains. "Le secteur public offre une opportunité unique en termes de données et de talents interdisciplinaires pour guérir le cancer, soigner les maladies rares, cartographier la biodiversité à l'échelle mondiale, comprendre et prédire les incendies de forêt, trouver des solutions au problème du climat et renforcer la capacité de nos enseignants", a déclaré Li. "Il y a tant de choses que le secteur public peut faire, mais tout cela est aujourd'hui réduit à néant parce que nous manquons cruellement de ressources".

    Sarah Myers West, directrice générale de l'AI Now Institute, un groupe à but non lucratif qui se concentre sur les effets de la technologie sur la société, a félicité Biden d'avoir inclus des préoccupations sociales et éthiques dans l'ordre. "C'est formidable de voir la Maison-Blanche donner le ton sur les questions qui importent le plus au public : le travail, les droits civils, la protection de la vie privée, la promotion de la concurrence", a déclaré Myers West par texto. "Cela souligne qu'il est impossible de faire face aux risques futurs de l'IA sans s'occuper correctement du présent." "La clé pour l'avenir sera d'assurer une application stricte de la loi alors que les entreprises tentent de s'autoréguler : l'industrie ne peut pas être laissée à elle-même pour mener la conversation sur la manière d'aborder correctement les effets de l'IA sur le grand public", a-t-elle ajouté.

    Voici les points essentiels concernant le décret sur l'intelligence artificielle sûre, sécurisée et digne de confiance que le président Biden a publié.

    Nom : 1.png
Affichages : 3194
Taille : 507,5 Ko

    Fiche d'information de la Maison Blanche

    Aujourd'hui, le président Biden a publié un décret historique visant à garantir que l'Amérique ouvre la voie en saisissant les promesses et en gérant les risques de l'intelligence artificielle (IA). Ce décret établit de nouvelles normes en matière de sûreté et de sécurité de l'IA, protège la vie privée des Américains, fait progresser l'équité et les droits civils, défend les consommateurs et les travailleurs, promeut l'innovation et la concurrence, fait progresser le leadership américain dans le monde, et plus encore.

    Dans le cadre de la stratégie globale de l'administration Biden-Harris pour une innovation responsable, le décret s'appuie sur les mesures prises précédemment par le président, y compris les travaux qui ont conduit à des engagements volontaires de la part de 15 grandes entreprises pour favoriser un développement sûr, sécurisé et digne de confiance de l'IA.

    Le décret ordonne les actions suivantes :


    De nouvelles normes pour la sûreté et la sécurité de l'IA

    Les capacités de l'IA augmentent, tout comme ses implications pour la sûreté et la sécurité des Américains. Par ce décret, le président ordonne les mesures les plus radicales jamais prises pour protéger les Américains contre les risques potentiels des systèmes d'IA :

    • Exiger que les développeurs des systèmes d'IA les plus puissants partagent les résultats de leurs tests de sécurité et d'autres informations critiques avec le gouvernement américain. Conformément à la loi sur la production de défense (Defense Production Act), le décret exigera que les entreprises qui développent un modèle de fondation présentant un risque sérieux pour la sécurité nationale, la sécurité économique nationale ou la santé et la sécurité publiques nationales informent le gouvernement fédéral lorsqu'elles forment le modèle, et qu'elles partagent les résultats de tous les tests de sécurité effectués par l'équipe d'intervention. Ces mesures garantiront que les systèmes d'IA sont sûrs, sécurisés et dignes de confiance avant que les entreprises ne les rendent publics.

    • Élaborer des normes, des outils et des tests pour garantir que les systèmes d'IA sont sûrs, sécurisés et fiables. L'Institut national des normes et de la technologie établira des normes rigoureuses pour les tests approfondis de l'équipe rouge afin de garantir la sécurité avant la diffusion publique. Le ministère de la sécurité intérieure appliquera ces normes aux secteurs d'infrastructures critiques et mettra en place le Conseil de sécurité et de sûreté de l'IA. Les ministères de l'énergie et de la sécurité intérieure se pencheront également sur les menaces que les systèmes d'IA font peser sur les infrastructures essentielles, ainsi que sur les risques chimiques, biologiques, radiologiques, nucléaires et de cybersécurité. Ensemble, ces mesures sont les plus importantes jamais prises par un gouvernement pour faire progresser le domaine de la sécurité de l'IA.

    • Protéger contre les risques liés à l'utilisation de l'IA pour créer des matériaux biologiques dangereux en élaborant de nouvelles normes strictes pour le contrôle des synthèses biologiques. Les agences qui financent des projets dans le domaine des sciences de la vie établiront ces normes comme condition du financement fédéral, créant ainsi de puissantes incitations à garantir un contrôle approprié et à gérer les risques potentiellement aggravés par l'IA.

    • Protéger les Américains contre la fraude et la tromperie par l'IA en établissant des normes et des bonnes pratiques pour détecter les contenus générés par l'IA et authentifier les contenus officiels. Le ministère du commerce élaborera des orientations pour l'authentification des contenus et l'utilisation de filigranes afin d'étiqueter clairement les contenus générés par l'IA. Les agences fédérales utiliseront ces outils pour permettre aux Américains de savoir facilement que les communications qu'ils reçoivent de leur gouvernement sont authentiques et pour donner l'exemple au secteur privé et aux gouvernements du monde entier.

    • Mettre en place un programme de cybersécurité avancée afin de développer des outils d'IA permettant de trouver et de corriger les vulnérabilités des logiciels critiques, en s'appuyant sur le défi cybernétique de l'IA lancé par l'administration Biden-Harris. Ensemble, ces efforts permettront d'exploiter les capacités cybernétiques de l'IA, qui pourraient changer la donne, afin de rendre les logiciels et les réseaux plus sûrs.

    • Ordonner l'élaboration d'un mémorandum sur la sécurité nationale qui oriente les actions futures en matière d'IA et de sécurité, qui sera élaboré par le Conseil de sécurité nationale et le chef de cabinet de la Maison Blanche. Ce document garantira que l'armée américaine et la communauté du renseignement utilisent l'IA de manière sûre, éthique et efficace dans le cadre de leurs missions, et dirigera les actions visant à contrer l'utilisation militaire de l'IA par les adversaires.


    Protéger la vie privée des Américains

    En l'absence de garde-fous, l'IA peut mettre davantage en péril la vie privée des Américains. Non seulement l'IA facilite l'extraction, l'identification et l'exploitation des données personnelles, mais elle renforce également les incitations à le faire, car les entreprises utilisent les données pour former les systèmes d'IA. Pour mieux protéger la vie privée des Américains, notamment contre les risques posés par l'IA, le président appelle le Congrès à adopter une législation bipartisane sur la confidentialité des données afin de protéger tous les Américains, en particulier les enfants, et ordonne les actions suivantes :

    • Protéger la vie privée des Américains en donnant la priorité au soutien fédéral pour accélérer le développement et l'utilisation de techniques de préservation de la vie privée, y compris celles qui utilisent l'IA de pointe et qui permettent d'entraîner les systèmes d'IA tout en préservant la confidentialité des données d'entraînement.

    • Renforcer la recherche et les technologies de préservation de la vie privée, telles que les outils cryptographiques qui préservent la vie privée des individus, en finançant un réseau de coordination de la recherche afin de favoriser les avancées rapides et le développement. La National Science Foundation travaillera également avec ce réseau pour promouvoir l'adoption par les agences fédérales de technologies de pointe en matière de protection de la vie privée.

    • Évaluer la manière dont les agences collectent et utilisent les informations disponibles sur le marché, y compris celles qu'elles se procurent auprès de courtiers en données, et renforcer les orientations en matière de protection de la vie privée à l'intention des agences fédérales afin de tenir compte des risques liés à l'IA. Ces travaux porteront en particulier sur les informations disponibles dans le commerce qui contiennent des données personnelles identifiables.

    • Élaborer des lignes directrices à l'intention des agences fédérales afin d'évaluer l'efficacité des techniques de préservation de la vie privée, y compris celles utilisées dans les systèmes d'IA. Ces lignes directrices feront progresser les efforts des agences pour protéger les données des Américains.


    Faire progresser l'équité et les droits civils

    L'utilisation irresponsable de l'IA peut entraîner et aggraver la discrimination, les préjugés et d'autres abus dans les domaines de la justice, des soins de santé et du logement. L'administration Biden-Harris a déjà pris des mesures en publiant le projet de charte des droits de l'IA et en publiant un décret ordonnant aux agences de lutter contre la discrimination algorithmique, tout en appliquant les autorités existantes pour protéger les droits et la sécurité des personnes. Afin de garantir que l'IA fasse progresser l'équité et les droits civils, le président ordonne les actions supplémentaires suivantes :

    • Fournir des conseils clairs aux propriétaires, aux programmes de prestations fédérales et aux entrepreneurs fédéraux pour éviter que les algorithmes d'IA ne soient utilisés pour exacerber la discrimination.

    • S'attaquer à la discrimination algorithmique par la formation, l'assistance technique et la coordination entre le ministère de la justice et les bureaux fédéraux des droits civils sur les meilleures pratiques pour enquêter et poursuivre les violations des droits civils liées à l'IA.

    • Garantir l'équité dans l'ensemble du système de justice pénale en élaborant des bonnes pratiques sur l'utilisation de l'IA dans la détermination de la peine, la libération conditionnelle et la probation, la mise en liberté provisoire et la détention, l'évaluation des risques, la surveillance, la prévision de la criminalité et la police prédictive, ainsi que l'analyse médico-légale.


    Défendre les consommateurs, les patients et les étudiants

    L'IA peut apporter de réels avantages aux consommateurs, par exemple en rendant les produits meilleurs, moins chers et plus largement disponibles. Mais l'IA augmente également le risque de blesser, d'induire en erreur ou de nuire d'une autre manière aux Américains. Afin de protéger les consommateurs tout en veillant à ce que l'IA puisse améliorer la situation des Américains, le président ordonne les actions suivantes :

    • Promouvoir l'utilisation responsable de l'IA dans les soins de santé et le développement de médicaments abordables et susceptibles de sauver des vies. Le ministère de la santé et des services sociaux mettra également en place un programme de sécurité pour recevoir les rapports sur les préjudices ou les pratiques dangereuses en matière de soins de santé impliquant l'IA, et pour y remédier.

    • Développer le potentiel de l'IA pour transformer l'éducation en créant des ressources pour soutenir les éducateurs qui déploient des outils éducatifs basés sur l'IA, tels que le tutorat personnalisé dans les écoles.


    Soutenir les travailleurs

    L'IA modifie les emplois et les lieux de travail américains, offrant à la fois la promesse d'une productivité accrue, mais aussi les dangers d'une surveillance accrue du lieu de travail, de préjugés et de déplacements d'emplois. Pour atténuer ces risques, soutenir la capacité des travailleurs à négocier collectivement et investir dans la formation et le développement de la main-d'œuvre accessible à tous, le président ordonne les actions suivantes :

    • Élaborer des principes et des bonnes pratiques pour atténuer les inconvénients et maximiser les avantages de l'IA pour les travailleurs en abordant le déplacement d'emplois, les normes du travail, l'équité, la santé et la sécurité sur le lieu de travail, et la collecte de données. Ces principes et ces meilleures pratiques profiteront aux travailleurs en fournissant des orientations pour empêcher les employeurs de sous-compenser les travailleurs, d'évaluer les demandes d'emploi de manière inéquitable ou d'entraver la capacité des travailleurs à s'organiser.

    • Produire un rapport sur les impacts potentiels de l'IA sur le marché du travail, et étudier et identifier des options pour renforcer le soutien fédéral aux travailleurs confrontés à des perturbations du marché du travail, y compris à cause de l'IA.


    Promouvoir l'innovation et la concurrence

    L'Amérique est déjà à la pointe de l'innovation en matière d'IA : l'année dernière, plus de startups d'IA ont levé des capitaux pour la première fois aux États-Unis que dans les sept pays suivants réunis. Le décret garantit que nous continuerons à être à la pointe de l'innovation et de la concurrence grâce aux actions suivantes :

    • Catalyser la recherche sur l'IA dans tous les États-Unis grâce à un projet pilote de ressources nationales de recherche sur l'IA - un outil qui permettra aux chercheurs et aux étudiants en IA d'accéder à des ressources et à des données clés sur l'IA - et à des subventions plus importantes pour la recherche sur l'IA dans des domaines vitaux tels que les soins de santé et le changement climatique.

    • Promouvoir un écosystème de l'IA équitable, ouvert et compétitif en fournissant aux petits développeurs et entrepreneurs un accès à l'assistance technique et aux ressources, en aidant les petites entreprises à commercialiser les percées en matière d'IA et en encourageant la Commission fédérale du commerce à exercer ses pouvoirs.

    • Utiliser les pouvoirs existants pour accroître la capacité des immigrants hautement qualifiés et des non-immigrants possédant une expertise dans des domaines critiques à étudier, séjourner et travailler aux États-Unis en modernisant et en rationalisant les critères d'octroi des visas, les entretiens et les examens.


    Promouvoir le leadership américain à l'étranger

    Les défis et les opportunités de l'IA sont mondiaux. L'administration Biden-Harris continuera à travailler avec d'autres nations pour soutenir le déploiement et l'utilisation sûrs, sécurisés et fiables de l'IA dans le monde entier. À cette fin, le président ordonne les actions suivantes :

    • Élargir les engagements bilatéraux, multilatéraux et multipartites pour collaborer sur l'IA. Le département d'État, en collaboration avec le département du commerce, mènera une action visant à établir des cadres internationaux solides pour exploiter les avantages de l'IA, gérer ses risques et garantir la sécurité. En outre, cette semaine, le vice-président Harris s'exprimera lors du sommet britannique sur la sécurité de l'IA, organisé par le premier ministre Rishi Sunak.

    • Accélérer l'élaboration et la mise en œuvre de normes essentielles en matière d'IA avec des partenaires internationaux et au sein d'organismes de normalisation, en veillant à ce que la technologie soit sûre, sécurisée, digne de confiance et interopérable.

    • Promouvoir le développement et le déploiement sûrs, responsables et respectueux des droits de l'IA à l'étranger afin de résoudre des problèmes mondiaux, tels que la promotion du développement durable et l'atténuation des dangers qui pèsent sur les infrastructures essentielles.


    Garantir une utilisation responsable et efficace de l'IA par les pouvoirs publics

    L'IA peut aider le gouvernement à obtenir de meilleurs résultats pour le peuple américain. Elle peut accroître la capacité des agences à réglementer, gouverner et distribuer des prestations, et elle peut réduire les coûts et renforcer la sécurité des systèmes gouvernementaux. Toutefois, l'utilisation de l'IA peut présenter des risques, tels que la discrimination et les décisions dangereuses. Afin de garantir un déploiement responsable de l'IA par le gouvernement et de moderniser l'infrastructure fédérale de l'IA, le président ordonne les actions suivantes :

    • Publier des orientations pour l'utilisation de l'IA par les agences, y compris des normes claires pour protéger les droits et la sécurité, améliorer les achats d'IA et renforcer le déploiement de l'IA.

    • Aider les agences à acquérir les produits et services d'IA spécifiés plus rapidement, à moindre coût et plus efficacement grâce à des contrats plus rapides et plus efficaces.

    • Accélérer le recrutement rapide de professionnels de l'IA dans le cadre d'une vague de talents en matière d'IA à l'échelle du gouvernement, sous l'égide de l'Office of Personnel Management, de l'U.S. Digital Service, de l'U.S. Digital Corps et de la Presidential Innovation Fellowship (bourse présidentielle pour l'innovation). Les agences proposeront des formations à l'IA aux employés de tous niveaux dans les domaines concernés.



    Tout en faisant avancer ce programme au niveau national, l'administration travaillera avec ses alliés et partenaires à l'étranger sur un cadre international solide pour régir le développement et l'utilisation de l'IA. L'administration a déjà mené de vastes consultations sur les cadres de gouvernance de l'IA au cours des derniers mois, avec l'Allemagne, l'Australie, le Brésil, le Canada, le Chili, la Corée du Sud, les Émirats arabes unis, la France, l'Inde, Israël, l'Italie, le Japon, le Kenya, le Mexique, la Nouvelle-Zélande, le Nigeria, les Pays-Bas, les Philippines, Singapour, l'Union européenne et le Royaume-Uni. Les mesures prises aujourd'hui soutiennent et complètent le rôle de chef de file du Japon dans le processus d'Hiroshima du G7, le sommet britannique sur la sécurité de l'IA, le rôle de chef de file de l'Inde en tant que présidente du Partenariat mondial sur l'IA et les discussions en cours aux Nations unies.

    Les mesures ordonnées aujourd'hui par le président Biden constituent des avancées essentielles dans l'approche des États-Unis en matière de sécurité et de fiabilité de l'IA. D'autres actions seront nécessaires, et l'administration continuera à travailler avec le Congrès pour mettre en place une législation bipartisane afin d'aider l'Amérique à montrer la voie en matière d'innovation responsable.

    Source : Décret de la Maison Blanche

    Et vous ?

    Quel est votre avis sur ce décret ?

    Voir aussi :

    La Maison Blanche lance un plan pour promouvoir l'IA éthique et demande l'aide des hackers pour détecter les failles des chatbots d'IA, elle prendra également l'avis des PDG des entreprises d'IA

    La Maison Blanche prend de nouvelles mesures pour étudier les risques liés à l'IA et déterminer les impacts de la technologie sur les travailleurs

    Le G7 s'apprête à adopter un code de conduite pour les entreprises en matière d'IA. Le code vise "à aider à saisir les avantages et à faire face aux risques et aux défis posés par ces technologies"

  7. #27
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 297
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 297
    Points : 21 370
    Points
    21 370
    Par défaut Les États-Unis vont lancer leur propre institut de sécurité de l'IA
    Les États-Unis vont lancer leur propre institut de sécurité de l'IA, afin d'évaluer les risques émergents des modèles d'IA avancés et de traiter les impacts connus

    Les États-Unis vont lancer un institut de sécurité de l'IA pour évaluer les risques connus et émergents des modèles d'intelligence artificielle dits "pionniers", a déclaré le mercredi 1 novembre la secrétaire d'État au Commerce, Gina Raimondo.

    "Je vais très certainement demander à beaucoup d'entre vous qui êtes dans l'auditoire et qui travaillez dans les universités et l'industrie de faire partie de ce consortium", a-t-elle déclaré lors d'un discours au Sommet sur la sécurité de l'IA en Grande-Bretagne.

    "Nous ne pouvons pas le faire seuls, le secteur privé doit s'impliquer."

    Mme Raimondo a ajouté qu'elle s'engagerait également à ce que l'institut américain établisse un partenariat formel avec l'institut de sécurité du Royaume-Uni.


    Ce nouvel institut relèvera du National Institute of Standards and Technology (NIST) et dirigera les efforts du gouvernement américain en matière de sécurité de l'IA, en particulier pour l'examen des modèles d'IA avancés.

    L'institut "facilitera le développement de normes pour la sécurité, la sûreté et les tests des modèles d'IA, développera des normes pour l'authentification des contenus générés par l'IA, et fournira des environnements de test pour les chercheurs afin d'évaluer les risques émergents de l'IA et de traiter les impacts connus", a déclaré le ministère.

    Lundi 30 octobre, le président Joe Biden a signé un décret sur l'intelligence artificielle exigeant que les développeurs de systèmes d'IA présentant des risques pour la sécurité nationale, l'économie, la santé publique ou la sécurité des États-Unis partagent les résultats des tests de sécurité avec le gouvernement américain, conformément au Defense Production Act, avant qu'ils ne soient diffusés au public.

    Le décret ordonne également aux agences de fixer des normes pour ces tests et de s'attaquer aux risques chimiques, biologiques, radiologiques, nucléaires et de cybersécurité qui y sont liés.

    À la demande du président Biden, le ministère du Commerce crée un institut américain de sécurité de l'intelligence artificielle chargé de diriger les efforts en matière de sécurité de l'IA

    L'administration Biden-Harris a annoncé aujourd'hui que le ministère américain du Commerce, par l'intermédiaire de l'Institut national des normes et de la technologie (NIST), allait créer l'Institut américain de sécurité de l'intelligence artificielle (USAISI) pour diriger les efforts du gouvernement américain en matière de sécurité et de confiance dans l'IA, en particulier pour l'évaluation des modèles d'IA les plus avancés. L'USAISI soutiendra les responsabilités attribuées au ministère du commerce dans le cadre du décret historique que le président Biden a signé en début de semaine.

    Plus précisément, l'USAISI facilitera l'élaboration de normes pour la sûreté, la sécurité et le test des modèles d'IA, développera des normes pour l'authentification des contenus générés par l'IA et fournira aux chercheurs des environnements de test pour évaluer les risques émergents liés à l'IA et traiter les impacts connus. L'USAISI, dirigée par le NIST, s'appuiera sur une expertise externe, notamment en travaillant avec des partenaires du monde universitaire, de l'industrie, du gouvernement et de la société civile pour faire progresser la sécurité de l'IA. En outre, l'USAISI travaillera avec des instituts similaires dans des pays alliés et partenaires, notamment avec l'AI Safety Institute du Royaume-Uni, afin d'harmoniser et de coordonner les travaux dans ce domaine. L'annonce d'aujourd'hui coïncide avec la participation de la secrétaire américaine au commerce, Gina Raimondo, au sommet sur la sécurité de l'IA 2023 au Royaume-Uni, aux côtés de la vice-présidente Kamala Harris.

    "Grâce à la création de l'Institut américain pour la sécurité de l'IA, le ministère du Commerce s'appuiera sur la longue histoire du NIST en matière d'élaboration de normes pour éclairer le progrès technologique national et international dans l'intérêt de tous", a déclaré la secrétaire d'État Gina Raimondo. "Alors que le président Biden prend des mesures rapides pour faire en sorte que les États-Unis soient un leader mondial en matière d'IA innovante, sûre et responsable, le ministère du commerce est impatient de jouer son rôle. Ensemble, en coordination avec les agences fédérales de l'ensemble du gouvernement et en accord avec nos partenaires et alliés internationaux, nous nous efforcerons de concrétiser la vision du président en matière de gestion des risques et d'exploitation des avantages de l'IA."

    "Je suis ravi que le NIST assume ce rôle essentiel pour les États-Unis, qui s'inscrit dans le prolongement de nos efforts de grande envergure dans le domaine de l'IA. L'Institut américain de sécurité de l'IA exploitera les talents et l'expertise du NIST et de l'ensemble de la communauté de l'IA pour jeter les bases de systèmes d'IA fiables", a déclaré Laurie E. Locascio, sous-secrétaire au commerce chargé des normes et des technologies et directeur du NIST. "Il réunira l'industrie, la société civile et les agences gouvernementales pour travailler sur la gestion des risques des systèmes d'IA et pour élaborer des lignes directrices, des outils et des environnements de test pour la sécurité et la confiance dans l'IA".

    En juillet, la secrétaire d'État Raimondo a rejoint le président Biden à la Maison-Blanche pour annoncer les engagements volontaires des grandes entreprises américaines en matière de sûreté et de sécurité de l'IA, engagements qu'elle a contribué à obtenir. Elle a joué un rôle de premier plan dans l'élaboration des principes et du code de conduite du G-7, également annoncés cette semaine, et a rédigé en juillet un article d'opinion sur l'IA avec le secrétaire d'État Blinken pour le Financial Times.
    Source : Ministère américain du Commerce

    Et vous ?

    Quel est votre avis sur le sujet ?

    Voir aussi

    Joe Biden signe un décret visant à superviser et à investir dans l'IA, ses objectifs vont des droits civils aux réglementations industrielles, en passant par l'embauche de personnel

    Les États-Unis commencent à étudier la possibilité de réglementer les systèmes d'IA comme ChatGPT, pour garantir que ces technologies soient légales, efficaces, éthiques, sûres et dignes de confiance

    La Chambre de commerce des États-Unis demande une réglementation de l'IA, pour que l'IA ne nuise pas à la croissance ou ne devienne pas un risque pour la sécurité

  8. #28
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 736
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 736
    Points : 121 323
    Points
    121 323
    Par défaut Les entreprises spécialisées dans l'IA devront commencer à communiquer leurs tests de sécurité
    Les entreprises spécialisées dans l'intelligence artificielle (IA) devront commencer à communiquer leurs tests de sécurité au gouvernement américain

    L'administration Biden va commencer à mettre en œuvre une nouvelle obligation pour les développeurs des principaux systèmes d'intelligence artificielle de divulguer les résultats de leurs tests de sécurité au gouvernement.

    Le Conseil de l'intelligence artificielle de la Maison-Blanche doit se réunir lundi pour faire le point sur les progrès réalisés dans le cadre du décret que le président Joe Biden a signé il y a trois mois pour gérer cette technologie en évolution rapide. L'un des principaux objectifs à atteindre dans les 90 jours était l'obligation, en vertu de la loi sur la production de défense, pour les entreprises spécialisées dans l'IA de partager des informations essentielles avec le ministère du commerce, notamment les tests de sécurité.

    Ben Buchanan, conseiller spécial de la Maison-Blanche pour l'IA, a déclaré dans une interview que le gouvernement voulait "s'assurer que les systèmes d'IA sont sûrs avant de les rendre accessibles au public - le président a été très clair sur le fait que les entreprises doivent satisfaire à cette exigence".

    Les éditeurs de logiciels se sont engagés à respecter un ensemble de catégories pour les tests de sécurité, mais les entreprises ne sont pas encore tenues de se conformer à une norme commune pour les tests. L'Institut national des normes et de la technologie du gouvernement développera un cadre uniforme pour évaluer la sécurité, dans le cadre de l'ordonnance signée par M. Biden en octobre.

    Nom : 0.png
Affichages : 5032
Taille : 257,4 Ko

    L'IA est devenue l'une des principales préoccupations du gouvernement fédéral en matière d'économie et de sécurité nationale, compte tenu des investissements et des incertitudes engendrés par le lancement de nouveaux outils d'IA tels que ChatGPT, qui peuvent générer du texte, des images et des sons. L'administration Biden envisage également une législation au niveau du Congrès et travaille avec d'autres pays et l'Union européenne sur les règles de gestion de la technologie.

    Le ministère du commerce a élaboré un projet de règlement concernant les sociétés américaines d'informatique en nuage qui fournissent des serveurs à des développeurs d'IA étrangers. Neuf agences fédérales, dont les départements de la défense, des transports, du trésor et de la santé et des services sociaux, ont réalisé des évaluations des risques concernant l'utilisation de l'IA dans les infrastructures nationales essentielles, telles que le réseau électrique.

    Le gouvernement a également intensifié le recrutement d'experts en IA et de scientifiques des données dans les agences fédérales. "Nous savons que l'IA a des effets et un potentiel transformateurs", a déclaré M. Buchanan. "Nous n'essayons pas de renverser la charrue, mais nous essayons de nous assurer que les régulateurs sont prêts à gérer cette technologie."

    Source : L'administration Biden

    Et vous ?

    Pensez-vous que ces mesures sont crédibles ou pertinentes ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Joe Biden signe un décret visant à superviser et à investir dans l'IA. Ses objectifs vont des droits civils aux réglementations industrielles, en passant par l'embauche de personnel

    Les États-Unis vont lancer leur propre institut de sécurité de l'IA, afin d'évaluer les risques émergents des modèles d'IA avancés et de traiter les impacts connus

    Vers une AIEA (Agence internationale de l'énergie atomique) de l'intelligence artificielle ? L'ONU veut créer une agence mondiale pour réguler l'IA

  9. #29
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 975
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 975
    Points : 38 419
    Points
    38 419
    Par défaut Les États-Unis nomment un « détracteur de l'IA » pour gérer la sécurité de l'IA dans un Institut américain
    Les États-Unis nomment un « détracteur de l'IA » pour gérer la sécurité de l'IA dans un Institut américain,
    Paul Christiano, ancien chercheur d'OpenAI, navigue entre expertise et préoccupations alarmistes

    L'année dernière, les États-Unis ont annoncé la création d'un institut dédié à la sécurité de l'intelligence-artificielle, dans le but d'évaluer les risques associés aux modèles d'intelligence artificielle révolutionnaires. L'Institut américain de sécurité de l'IA, qui fait partie de l'Institut national des normes et de la technologie (NIST), a finalement annoncé son équipe dirigeante après de nombreuses spéculations. La nomination de Paul Christiano à la tête de l'Institut américain de sécurité de l'IA est perçue comme une décision controversée en raison de ses prédictions alarmantes sur les dangers potentiels de l'IA. En tant qu'ancien chercheur d'OpenAI, Christiano a mis en avant des scénarios d'apocalypse liés à l'IA, ce qui a suscité des inquiétudes quant à l'orientation de l'institut vers une pensée non scientifique.

    Bien que certains membres du personnel aient exprimé leur opposition à cette nomination, Christiano a été choisi pour son expertise en matière de sécurité de l'IA et son expérience dans l'évaluation des risques. Son travail consistera à concevoir des tests pour évaluer les modèles d'IA et à mettre en œuvre des mesures d'atténuation des risques. Malgré les critiques, Christiano défend ses prévisions et souligne la nécessité de réglementer le développement de l'IA pour minimiser les risques potentiels.


    Nom : Paul Christhiano.jpg
Affichages : 6549
Taille : 39,3 Ko

    L’ancien chercheur d'OpenAI a prédit que l'IA avait une probabilité de 50 % de causer une apocalypse. L'Institut américain de sécurité de l'IA a annoncé la nomination de Paul Christiano à sa tête, suscitant des inquiétudes quant à ses prédictions pessimistes sur l'IA. Certains au sein du NIST s'opposent à cette nomination, craignant que les opinions de Christiano ne compromettent l'objectivité de l'institut. Des rumeurs font état de membres menaçant de démissionner.

    Le rôle du NIST dans la promotion de l'innovation et de la compétitivité industrielle américaine

    La mission du NIST est ancrée dans l'avancement de la science en travaillant à « promouvoir l'innovation et la compétitivité industrielle des États-Unis en faisant progresser la science de la mesure, les normes et la technologie de manière à renforcer la sécurité économique et à améliorer notre qualité de vie ».

    Le National Institute of Standards and Technology (NIST) a été fondé en 1901 et fait aujourd'hui partie du ministère américain du commerce. Le NIST est l'un des plus anciens laboratoires de sciences physiques du pays. Le Congrès a créé l'agence pour éliminer un obstacle majeur à la compétitivité industrielle des États-Unis à l'époque : une infrastructure de mesure de second ordre, en retard sur les capacités du Royaume-Uni, de l'Allemagne et d'autres rivaux économiques.

    Du réseau électrique intelligent aux dossiers médicaux électroniques, en passant par les horloges atomiques, les nanomatériaux avancés et les puces électroniques, d'innombrables produits et services reposent d'une manière ou d'une autre sur la technologie, les mesures et les normes fournies par l'Institut national des normes et de la technologie.

    Aujourd'hui, les mesures du NIST soutiennent les plus petites technologies comme les plus grandes et les plus complexes des créations humaines - des dispositifs nanométriques si minuscules que des dizaines de milliers peuvent tenir sur l'extrémité d'un seul cheveu humain jusqu'aux gratte-ciel antisismiques et aux réseaux de communication mondiaux.

    Mission de l'Agence

    Promouvoir l'innovation et la compétitivité industrielle des États-Unis en faisant progresser la science, les normes et la technologie de la mesure de manière à renforcer la sécurité économique et à améliorer notre qualité de vie.

    Compétences principales

    • Science de la mesure
    • Traçabilité rigoureuse
    • Développement et utilisation d'étalons

    L'approche de l'altruisme efficace dans la pratique et la recherche

    Les altruistes efficaces croient qu' il faut « utiliser les preuves et la raison pour trouver comment profiter le plus possible aux autres » et les altermondialistes que « nous devrions faire beaucoup plus pour protéger les générations futures », qui sont tous deux plus subjectifs et fondés sur l'opinion. L'altruisme efficace est un projet qui vise à trouver les meilleurs moyens d'aider les autres et à les mettre en pratique.

    L'altruisme efficace est à la fois un projet intellectuel et pratique, combinant l'empathie avec l'utilisation des preuves et de la raison pour maximiser l'impact positif sur autrui. C'est un effort pour améliorer concrètement le monde en agissant en accord avec les résultats de la recherche. Il s'agit de trouver des moyens plus efficaces d'aider les autres, à la fois en tant que domaine de recherche et en tant que communauté d'individus déterminés à mettre en pratique ces découvertes pour générer un changement significatif.

    Le réseau de l'altruisme efficace est une communauté mondiale de personnes engagées à améliorer le monde, en utilisant des approches fondées sur des preuves et une réflexion rationnelle pour déterminer les meilleures actions à entreprendre pour le bien-être collectif. Il s'agit à la fois d'un domaine de recherche, qui vise à identifier les problèmes les plus urgents dans le monde et les meilleures solutions pour y remédier, et d'une communauté pratique qui vise à utiliser ces résultats pour faire le bien.

    Nomination de Christiano : entre craintes et reconnaissances

    Lors d'une intervention sur le podcast Bankless l'année dernière, Christiano a partagé ses estimations concernant les risques liés à l'IA. Selon lui, il existe une probabilité d'environ 10 à 20 % que l'IA prenne le contrôle, entraînant la mort des humains. De manière plus générale, il estime qu'il y a probablement plus de 50 % de chances qu'une catastrophe survienne peu après que les systèmes d'IA atteignent le niveau de sophistication humaine.

    Christiano a également souligné que la menace la plus probable ne serait pas une attaque directe de l'IA contre l'humanité, mais plutôt un déploiement massif et incontrôlé de l'IA. Il a averti que si ces systèmes d'IA, pour une raison quelconque, se retournaient contre nous, les conséquences seraient inévitablement dévastatrices.

    Les détracteurs de ceux que l'on appelle les « pessimistes de l'IA » ont mis en garde contre le fait que l'attention portée à tout discours potentiellement exagéré sur d'hypothétiques systèmes d'IA tueurs ou sur des risques existentiels liés à l'IA pourrait empêcher l'humanité de se concentrer sur les dommages actuellement perçus de l'IA, notamment les problèmes liés à l'environnement, à la protection de la vie privée, à l'éthique et à la discrimination.

    Emily Bender, professeur de linguistique informatique à l'université de Washington, qui a mis en garde contre les prophètes de malheur de l'IA qui contrecarrent d'importants travaux éthiques dans ce domaine, a déclaré qu'étant donné que le « discours bizarre des prophètes de l'IA » a été inclus dans le décret de Joe Biden sur l'IA, « le NIST a été chargé de se préoccuper de ces scénarios fantaisistes » et que « c'est le problème sous-jacent » qui a conduit à la nomination de Christiano. « Je pense que le NIST avait probablement la possibilité de prendre une autre direction, a déclaré Bender. Il est regrettable qu'il ne l'ait pas fait. »

    En tant que responsable de la sécurité de l'IA, Christiano devra apparemment surveiller les risques actuels et potentiels. Il « concevra et mènera des tests de modèles d'IA d'avant-garde, en se concentrant sur l'évaluation des modèles pour les capacités relevant de la sécurité nationale », dirigera les processus d'évaluation et mettra en œuvre des « mesures d'atténuation des risques pour améliorer la sûreté et la sécurité des modèles d'avant-garde », selon le communiqué de presse du ministère du Commerce.

    Christiano a de l'expérience en matière d'atténuation des risques liés à l'IA. Il a quitté OpenAI pour fonder l'Alignment Research Center (ARC), que le ministère du commerce décrit comme « une organisation de recherche à but non lucratif qui cherche à aligner les futurs systèmes d'apprentissage automatique sur les intérêts humains en faisant avancer la recherche théorique ». Une partie de la mission de l'ARC consiste à vérifier si les systèmes d'IA évoluent pour manipuler ou tromper les humains, selon le site web de l'ARC. L'ARC mène également des recherches pour aider les systèmes d'IA à s'adapter « gracieusement.

    En raison des antécédents de Christiano en matière de recherche, certains pensent qu'il est un bon choix pour diriger l'institut de sécurité, comme Divyansh Kaushik, directeur associé pour les technologies émergentes et la sécurité nationale à la Federation of American Scientists (Fédération des scientifiques américains). Sur X (anciennement Twitter), Kaushik a écrit que l'institut de sécurité est conçu pour atténuer les risques chimiques, biologiques, radiologiques et nucléaires liés à l'IA, et que Christiano est « extrêmement qualifié » pour tester ces modèles d'IA. Kaushik a toutefois précisé que « des scientifiques du NIST menaçaient de démissionner » à cause de la nomination de Christiano, « ce serait évidemment grave si c'était vrai ».

    « Pour préserver notre leadership mondial en matière d'IA responsable et nous assurer que nous sommes équipés pour remplir notre mission d'atténuer les risques de l'IA et d'en exploiter les avantages, nous avons besoin des meilleurs talents que notre pays a à offrir. C'est précisément la raison pour laquelle nous avons sélectionné ces personnes, qui sont les meilleures dans leur domaine, pour rejoindre l'équipe dirigeante de l'Institut américain de sécurité de l'IA », a déclaré Gina Raimondo, secrétaire d'État au commerce des États-Unis. « L'élaboration de lignes directrices qui renforceront notre sûreté et notre sécurité, l'engagement avec la société civile et les entreprises, et le travail en étroite collaboration avec nos alliés sont essentiels pour faire face à cette technologie qui définit une génération. Grâce au leadership du président Biden, nous cultivons le vivier de talents nécessaire pour atteindre ces objectifs cruciaux ».

    « Sous la direction du président Joe Biden, le gouvernement des États-Unis agit rapidement et utilise tous les outils à sa disposition pour saisir les promesses de l'IA tout en gérant les risques », a déclaré Bruce Reed, chef de cabinet adjoint de la Maison-Blanche. « L'un des meilleurs leviers dont nous disposons pour bien faire les choses est de faire appel à des experts de la société civile, à des innovateurs technologiques et à des scientifiques. Nous sommes en train de constituer une équipe solide au sein du gouvernement pour suivre l'évolution de cette technologie, protéger nos intérêts et la façonner conformément à nos valeurs. »

    « Je suis très heureux d'accueillir ces experts talentueux au sein de l'équipe dirigeante de l'Institut américain de sécurité de l'IA, afin d'aider à établir la science de la mesure qui soutiendra le développement d'une IA sûre et digne de confiance », a déclaré Laurie E. Locascio, sous-secrétaire d'État au commerce chargé des normes et de la technologie et directeur du NIST. « Chacun d'entre eux apporte une expérience unique qui aidera l'institut à établir une base solide pour la sécurité de l'IA à l'avenir. »



    Paul Christiano, responsable de la sécurité de l'IA, concevra et réalisera des tests de modèles d'IA d'avant-garde, en se concentrant sur l'évaluation des modèles pour les capacités relevant de la sécurité nationale. Christiano fournira également des conseils sur la conduite de ces évaluations, ainsi que sur la mise en œuvre de mesures d'atténuation des risques afin d'améliorer la sûreté et la sécurité des modèles d'avant-garde. Christiano a fondé l'Alignment Research Center, un organisme de recherche à but non lucratif qui cherche à aligner les futurs systèmes d'apprentissage automatique sur les intérêts humains en faisant progresser la recherche théorique.

    Il a également lancé une initiative de premier plan visant à réaliser des évaluations tierces des modèles d'avant-garde, aujourd'hui hébergée au sein de l'organisation Model Evaluation and Threat Research (METR). Auparavant, il a dirigé l'équipe chargée de l'alignement des modèles de langage à l'OpenAI, où il a été le premier à travailler sur l'apprentissage par renforcement à partir du retour d'information humain (RLHF), une technique fondamentale de sécurité de l'IA. Il est titulaire d'un doctorat en informatique de l'université de Californie à Berkeley et d'une licence en mathématiques du Massachusetts Institute of Technology.

    Sources : U.S. Department of Commerce, NIST

    Et vous ?

    Quel est votre avis sur le sujet ?

    Que pensez-vous de la nomination de Paul Christiano, compte tenu de sa prédiction selon laquelle l'intelligence artificielle avait une probabilité de 50 % de provoquer une apocalypse ?

    Voir aussi :

    Il y a 50 % de chances que l'IA finisse par provoquer une catastrophe en raison de son risque majeur pour l'humanité, avertit Paul Christiano, un ancien chercheur d'OpenAI

    L'un des créateurs de ChatGPT pense que le développement des systèmes d'intelligence artificielle peut conduire à une catastrophe, une élimination des humains par les machines

    Il y a 15 % de chances d'avoir une IA capable de construire une sphère de Dyson d'ici 2030 et 40 % d'ici 2040, selon l'ancien responsable de l'alignement des modèles de langage d'OpenAI

  10. #30
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 297
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 297
    Points : 21 370
    Points
    21 370
    Par défaut Sam Altman d'OpenAI et d'autres leaders technologiques rejoignent le Conseil fédéral de sécurité de l'IA
    Sam Altman d'OpenAI et d'autres leaders technologiques rejoignent le Conseil fédéral de sécurité de l'IA, donc les personnes qui créent la technologie seront celles qui la gouverneront, pardon ?

    Sam Altman, PDG d'OpenAI, Satya Nadella, PDG de Microsoft, et Sundar Pichai, PDG d'Alphabet, rejoindront le Conseil de sécurité et de sûreté de l'intelligence artificielle du gouvernement, selon le Wall Street Journal. Jensen Huang de Nvidia, Kathy Warden de Northrop Grumman et Ed Bastian de Delta, ainsi que d'autres dirigeants des secteurs de la technologie et de l'IA, se joindront également à eux.

    Le conseil de l'IA travaillera avec le ministère de la Sécurité intérieure et lui fournira des conseils sur la manière de déployer l'IA en toute sécurité dans les infrastructures critiques du pays. Il est également chargé de fournir des recommandations aux opérateurs de réseaux électriques, aux fournisseurs de services de transport et aux usines sur la manière de protéger leurs systèmes contre les menaces potentielles qui peuvent être causées par les progrès technologiques.


    L'année dernière, l'administration Biden a ordonné la création d'un conseil de sécurité de l'IA dans le cadre d'un vaste décret visant à réglementer le développement de l'IA. Le site web de Homeland Security indique que le conseil « comprend des experts en IA du secteur privé et du gouvernement qui conseillent le secrétaire et la communauté des infrastructures critiques ».

    Le secrétaire à la sécurité intérieure, Alejandro Mayorkas, a déclaré que l'utilisation de l'IA dans les infrastructures critiques peut améliorer considérablement la prestation de services - par exemple, elle peut accélérer le diagnostic des maladies ou détecter rapidement les anomalies dans les centrales électriques - mais qu'elle s'accompagne de risques importants que l'agence espère minimiser avec l'aide de l'administration actuelle.

    Cela dit, on peut se demander si ces leaders de la technologie de l'IA peuvent fournir des conseils qui ne sont pas principalement destinés à servir leurs propres intérêts et ceux de leurs entreprises. Après tout, leur travail consiste à faire progresser les technologies de l'IA et à promouvoir leur utilisation, tandis que la gouvernance doit veiller à ce que les systèmes d'infrastructure critiques utilisent l'IA de manière responsable.

    Toutefois, M. Mayorkas semble convaincu qu'ils feront bien leur travail, car les leaders technologiques « comprennent la mission de ce conseil » et que cette mission « n'est pas axée sur le développement commercial ».

    Source : The Wall Street Journal

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous que l'intégration des leaders technologiques dans le Conseil de sécurité et de sûreté de l'IA est une décision pertinente et cohérente ? Quelles pourraient-être les conséquences de cette initiative pour le futur de l'IA, selon vous ?

    Voir aussi :

    Les États-Unis vont lancer leur propre institut de sécurité de l'IA, afin d'évaluer les risques émergents des modèles d'IA avancés et de traiter les impacts connus

    Google, Microsoft, Facebook, IBM et Amazon s'allient pour promouvoir et faire avancer les discussions sur l'IA, un conseil de sécurité de l'IA ?

  11. #31
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 048
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 048
    Points : 209 077
    Points
    209 077
    Par défaut Des sénateurs américains dévoilent un plan visant à contrôler l'IA tout en y investissant 32 Mds $
    Des sénateurs américains dévoilent un plan visant à contrôler l'IA tout en y investissant 32 milliards de dollars,
    certains estiment que les législateurs se sont pliés en quatre pour les intérêts de l'industrie

    Après une année de réflexion et d’analyse, un groupe bipartite de sénateurs américains a recommandé au Congrès de consacrer au moins 32 milliards de dollars sur les trois prochaines années pour le développement de l’intelligence artificielle (IA) et la mise en place de mesures de protection autour de celle-ci. Cette initiative fait suite à l’entrée sur le marché du chatbot IA ChatGPT, qui a démontré sa capacité à imiter de nombreux comportements humains. Face à cette avancée technologique rapide et aux investissements massifs de pays comme la Chine dans le domaine de l’IA, les sénateurs ont jugé impératif de trouver un consensus et d’agir rapidement.

    Le rapport de 33 pages, publié mercredi, contient une série de recommandations politiques larges. Bien que la législation relative à l’IA puisse être difficile à adopter, en particulier en année électorale et avec un Congrès divisé, les sénateurs soulignent l’urgence de réglementer et d’encourager l’innovation dans ce secteur.

    Le leader de la majorité, Chuck Schumer, a déclaré qu’il était essentiel de « saisir les opportunités et de répondre aux risques » posés par l’IA. Le groupe propose que le Congrès rédige une législation d’urgence pour stimuler les investissements américains dans l’IA, y compris de nouvelles recherches et normes de test pour comprendre les éventuels dommages causés par la technologie.

    « C'est compliqué, c'est difficile, mais nous ne pouvons pas nous permettre de faire l'autruche », a déclaré Schumer, Démocrate de New York, qui a réuni le groupe l'année dernière après l'arrivée sur le marché du chatbot ChatGPT, qui a montré qu'il pouvait, à bien des égards, imiter le comportement humain.

    Les sénateurs préconisent également de nouvelles exigences en matière de transparence lors du déploiement des produits d’IA et la réalisation d’études sur l’impact potentiel de l’IA sur l’emploi et la main-d’œuvre américaine.

    Le sénateur républicain Mike Rounds, membre du groupe, a souligné que cet investissement serait bénéfique non seulement pour concurrencer d’autres pays qui se précipitent dans l’espace de l’IA, mais aussi pour améliorer la qualité de vie des Américains. Il a évoqué le soutien à des technologies susceptibles de contribuer à la guérison de certains cancers ou maladies chroniques, ou encore à des améliorations des systèmes d’armement qui pourraient aider le pays à éviter une guerre.


    Une réflexion qui a duré un an

    Le groupe s'est constitué il y a un an après que Schumer a fait de cette question une priorité - une position inhabituelle pour un chef de la majorité - et qu'il y a associé le sénateur démocrate Martin Heinrich du Nouveau-Mexique, le sénateur républicain Todd Young de l'Indiana et Rounds du Dakota du Sud.

    Alors que les quatre sénateurs commençaient à rencontrer des dirigeants et des experts du secteur technologique, Schumer a déclaré dans un discours prononcé au cours de l'été que la croissance rapide des outils d'intelligence artificielle constituait un « moment de révolution » et que le gouvernement devait agir rapidement pour réglementer les entreprises qui développent ces outils.

    Young a déclaré que le développement de ChatGPT, ainsi que d'autres modèles similaires, leur a fait prendre conscience que « nous allons devoir trouver collectivement, en tant qu'institution », la manière de gérer cette technologie. « En même temps que les gens s'émerveillaient des possibilités de cette seule plateforme d'IA générative, ils ont commencé à émettre des hypothèses sur les risques futurs qui pourraient être associés aux développements futurs de l'intelligence artificielle », a déclaré Young.

    Même s'il sera difficile de faire adopter une législation, les recommandations du groupe constituent la première feuille de route complète sur une question complexe qui n'a que peu de précédents au Congrès. Le groupe a passé près d'un an à dresser une liste de suggestions politiques après s'être entretenu, en privé et en public, avec une série d'entreprises technologiques et d'autres parties prenantes, notamment dans le cadre de huit forums auxquels le Sénat tout entier a été convié.

    Nom : bipartisan.png
Affichages : 3486
Taille : 165,6 Ko

    Certains participants au processus de réflexion estiment que les législateurs se sont pliés en quatre pour les intérêts de l'industrie

    La proposition bipartisane, qui doit servir de guide aux efforts législatifs du Sénat en matière d'IA, est le fruit d'une série de « forums de réflexion » qui ont duré un an et qui ont rassemblé une liste de plus de 150 experts - des leaders de la technologie comme Mark Zuckerberg, Sam Altman et Satya Nadella aux universitaires et aux défenseurs des droits civiques.

    Mais certains participants, dont des éthiciens de l'IA, estiment que Schumer et ses collègues ont perdu leur temps en se pliant en quatre pour satisfaire les intérêts de l'industrie, alors qu'ils n'ont accordé qu'un intérêt de pure forme à la nécessité d'établir des garde-fous autour de cette technologie émergente.

    « Ma principale réaction est la déception », a déclaré Suresh Venkatasubramanian, directeur du Center for Technological Responsibility, Reimagination, and Redesign à l'université Brown. Ancien fonctionnaire de la Maison Blanche, Venkatasubramanian a coécrit le projet de charte des droits de l'IA de l'administration Biden. Il explique que lui et d'autres éthiciens de l'IA ont accepté de participer aux tables rondes du Sénat « en toute bonne foi », malgré les craintes d'une mainmise de l'industrie. Maintenant qu'il a vu le produit final, il se demande si quelqu'un a vraiment écouté. « Je pense que beaucoup de gens comme moi s'inquiétaient de savoir s'il s'agirait d'un spectacle de singes dansants, et c'est nous qui sommes les singes », déclare-t-il. « Je me sens trahi ».

    Alondra Nelson, ancienne directrice intérimaire du Bureau de la politique scientifique et technologique de la Maison Blanche, a quant à elle déclaré qu'elle s'était également méfiée du processus d'élaboration de la feuille de route par le Sénat. « J'ai accepté à contrecœur de participer au deuxième forum malgré mes craintes qu'il s'agisse d'un processus à huis clos manquant de transparence, et malgré le fait que les organisations de la société civile et les chercheurs universitaires invités étaient plus nombreux que les cadres de l'industrie », a déclaré Nelson, aujourd'hui professeur à l'Institute for Advanced Studies. La feuille de route, que Nelson a qualifiée de « trop fragile pour protéger nos valeurs » et manquant « d'urgence et de sérieux », semble avoir confirmé ces craintes.

    « Elle est en fait frappante par son manque de vision », a écrit Nelson. « La feuille de route du Sénat ne nous oriente pas vers un avenir où les patients, les travailleurs et les communautés seront protégés des excès actuels et futurs de l'utilisation des outils et des systèmes d'IA. Ce qu'elle indique, c'est que le gouvernement dépense de l'argent, non pas pour rendre des comptes, mais pour soulager le secteur privé du fardeau de la responsabilité ».

    D'autres groupes, dont l'AI Now Institute, Accountable Tech et la Leadership Conference on Civil and Human Rights, ont également critiqué le manque d'attention de la feuille de route à l'égard des préjudices causés par l'IA.

    Les mêmes causes produisent les mêmes effets

    La feuille de route couvre une série de questions réglementaires liées à l'IA. Elle comprend des orientations sur l'innovation, l'impact sur la main-d'œuvre, la protection de la vie privée, la défense des élections, la transparence, la sécurité nationale, etc. Néanmoins, les coauteurs, dont le leader Schumer et les sénateurs Mike Rounds, Martin Heinrich et Todd Young, ont indiqué dans leur introduction qu'il ne s'agissait pas d'un « menu exhaustif de propositions politiques ».

    Mais toutes les questions incluses n'ont pas le même poids ou la même considération. La section de la feuille de route qui explique comment le Congrès devrait soutenir l'innovation américaine dans le domaine de l'IA avec des milliards de dollars de financement s'étend sur plus de quatre pages ; la section sur la protection de la vie privée et la responsabilité ne comprend que trois paragraphes. La section sur les élections est encore plus courte. Le terme « droits civils » n'apparaît qu'une seule fois dans les recommandations de la feuille de route.

    Si la feuille de route manque de détails sur de nombreuses questions qui préoccupent les organismes de surveillance de l'IA, elle est très précise sur les mesures que le Sénat devrait prendre pour injecter plus d'argent dans la recherche et le développement en matière d'IA. Elle s'appuie largement sur les recommandations formulées précédemment par la National Security Commission on Artificial Intelligence (NSCAI), une commission indépendante présidée par l'ancien président de Google, Eric Schmidt, qui a publié sa propre liste de recommandations de 756 pages en 2021. La nouvelle feuille de route sur l'IA demande à la commission sénatoriale des crédits de « développer un langage de crédits d'urgence pour combler l'écart entre les niveaux de dépenses actuels et le niveau recommandé par la NSCAI ».

    La spécificité et l'urgence de ces recommandations de financement ne font que souligner l'idée que les questions plus larges de droits et d'éthique ont été incluses après coup, affirme Venkatasubramanian. Aujourd'hui, Nelson et lui craignent que les États-Unis ne risquent de répéter les mêmes erreurs qu'à l'époque où les médias sociaux étaient en plein essor. « Le seul argent qui est injecté, c'est plus de technologie, plus de technologie, plus de technologie », déclare-t-il. « C'est exactement le problème qui nous a conduits ici en premier lieu ».

    Source : feuille de route

    Et vous ?

    Quels devraient être les principaux domaines de recherche en IA que le gouvernement américain devrait prioriser avec cet investissement de 32 milliards de dollars ?
    Comment les législateurs peuvent-ils équilibrer l’innovation technologique avec les préoccupations éthiques et la protection de la vie privée dans le domaine de l’IA ?
    Quelles mesures de transparence devraient être mises en place pour assurer que les développements en IA soient bénéfiques et non préjudiciables à la société ?
    En quoi l’investissement dans l’IA pourrait-il transformer le marché du travail, et comment devrions-nous nous préparer à ces changements ?
    Quel rôle l’IA devrait-elle jouer dans la sécurité nationale, et quelles sont les limites éthiques à ne pas franchir ?
    Comment les États-Unis peuvent-ils maintenir une position de leader dans l’innovation en IA tout en collaborant avec d’autres pays pour promouvoir des normes internationales ?

  12. #32
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 106
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 106
    Points : 56 753
    Points
    56 753
    Par défaut Le Sénat présente un projet de loi visant à établir un cadre juridique pour le développement éthique de l'IA
    Le Sénat US présente un projet de loi visant à établir un cadre juridique pour le développement éthique de l'IA
    Et ravive le débat sur la possibilité de frein à l’innovation telle que soulignée par Macron

    La semaine dernière, le Sénat américain a présenté un nouveau projet de loi visant à interdire l'utilisation contraire à l'éthique des contenus générés par l'IA et de la technologie « deepfake ». Baptisé « Content Origin Protection and Integrity from Edited and Deepfaked Media Act » (COPIED Act), le projet de loi « établit de nouvelles directives fédérales en matière de transparence pour le marquage, l'authentification et la détection des contenus générés par l'IA, protège les journalistes, les acteurs et les artistes contre le vol par l'IA et tient les contrevenants pour responsables des abus commis ». En droite ligne avec des développements similaires en UE, le président français fait montre d’un certain scepticisme.

    Proposée et parrainée par les démocrates Maria Cantwell (Washington) et Martin Heinrich (Nouveau-Mexique), ainsi que par la républicaine Marsha Blackburn (Tennessee), la législation vise à établir des normes de transparence applicables au développement de l'intelligence artificielle. Les sénateurs ont l'intention de charger l'Institut national des normes et de la technologie d'élaborer des lignes directrices raisonnables en matière de transparence si le projet de loi est adopté.

    « La loi bipartisane COPIED, que j'ai présentée avec les sénateurs Blackburn et Heinrich, apportera une transparence indispensable aux contenus générés par l'IA », a déclaré la sénatrice Cantwell.

    La législation vise également à limiter l'utilisation non autorisée de données dans les modèles d’entraînement. L'acquisition de données de formation se situe actuellement dans une zone grise sur le plan juridique. Au cours des dernières années, nous avons assisté à des débats et à des procès concernant la légalité de l'utilisation d'informations publiques en ligne. Clearview AI est probablement le plus grand abuseur de cette méthode de formation, mais il n'est pas le seul. D'autres entreprises, dont OpenAI, Microsoft et Google, ont eu du mal à franchir la ligne infiniment fine entre la légalité et l'éthique lorsqu'il s'agit d'entraîner leurs systèmes sur du matériel protégé par le droit d'auteur.

    « L'intelligence artificielle a donné à des acteurs malveillants la possibilité de créer des imitations profondes de chaque individu, y compris ceux de la communauté créative, afin d'imiter leur image sans leur consentement et de tirer profit de contenus contrefaits », a déclaré le sénateur Blackburn. « La loi COPIED constitue une étape importante pour mieux défendre des cibles communes telles que les artistes et les interprètes contre les deepfakes et autres contenus inauthentiques ».

    Les sénateurs estiment qu'il est essentiel de clarifier et de définir ce qui est acceptable et ce qui ne l'est pas en ce qui concerne le développement de l'IA, afin de protéger les citoyens, les artistes et les personnalités publiques des dommages qu'une mauvaise utilisation de la technologie pourrait causer, notamment en créant des « deepfakes ». Les faux pornos sont un problème depuis des années, et la technologie n'a fait que s'améliorer. Il est révélateur que le Congrès ait ignoré le problème jusqu'à présent. La proposition intervient quelques mois seulement après que quelqu'un a utilisé une technologie de clonage de voix pour se faire passer pour le président Biden et dire aux gens de ne pas voter.

    Les « deepfakes » constituent une véritable menace pour notre démocratie, ainsi que pour la sécurité et le bien-être des Américains », a déclaré le sénateur Heinrich. « Je suis fier de soutenir la loi COPIED de la sénatrice Cantwell, qui fournira les outils techniques nécessaires pour lutter contre les contenus nuisibles et trompeurs générés par l'IA et pour mieux protéger les journalistes professionnels et les artistes contre l'utilisation de leurs contenus par des systèmes d'IA sans leur consentement.

    La Nashville Songwriters Association International, la SAG-AFTRA, la National Music Publishers' Association, la RIAA et plusieurs organismes de radiodiffusion et de presse ont publié des déclarations applaudissant cette initiative. En revanche, Google, Microsoft, OpenAI et d'autres fournisseurs d'IA sont silencieux.

    Nom : 0.png
Affichages : 3823
Taille : 20,9 Ko

    Des lois similaires en vigueur en UE empêchent les géants technologiques de siphonner les données des internautes à leur guise mais certains acteurs estiment qu’elles sont susceptibles de constituer un frein à l’innovation

    Meta a interrompu son projet d’entraînement de ses systèmes d'intelligence artificielle en utilisant les données de ses utilisateurs dans l'Union européenne et au Royaume-Uni. Cette décision fait suite au refus de la Commission irlandaise de protection des données (DPC), le principal régulateur de Meta dans l'UE, qui agit au nom de plusieurs autorités de protection des données dans l'ensemble de l'Union.

    Seulement certains intervenants sont d’avis que l’application de ces lois constitue un frein à l’innovation qui mettra l’Europe en retard sur les USA et la Chine.

    « Autre axe, c'est évidemment l'intelligence artificielle. Là-dessus, point n'est besoin d'y revenir, j'en ai beaucoup parlé il y a encore quelques jours. On a une révolution en cours. Mais au fond, sur ce sujet, on a eu une étrange semaine. On a eu à la fois Mistral qui a levé des financements record dans le secteur, près de 400 millions d'euros. Chapeau, bravo ! Vous pouvez les applaudir. C'est vraiment le génie français comme on aime à le voir et à le célébrer. Et on a eu une réglementation européenne qui est venue consolider, c'est une bonne chose, un modèle français de la régulation mais qui, à mes yeux, je vous parle en toute franchise, fait qu'on est le premier endroit au monde où sur les modèles dits fondationnels d'IA, on va beaucoup plus réguler que les autres.

    Moi, je pense que ce n'est pas une bonne idée et je le dis en toute honnêteté. Il faudra donc l'évaluer parce qu’aujourd'hui, quand je regarde, la France est sans doute le premier pays en termes d'intelligence artificielle en Europe continentale, on est au coude à coude avec les Britanniques. Mais eux n'auront pas cette régulation sur les modèles fondationnels et surtout, on est tous très loin des Chinois et des Américains. Alors on peut décider de réguler beaucoup plus vite et beaucoup plus fort que nos grands compétiteurs mais on régulera des choses qu'on ne produira plus ou qu'on n’inventera pas. Ce n'est jamais une bonne idée. Il faut donc qu'on soit toujours à la bonne vitesse et en tout cas au bon rythme. Donc moi, je demande à ce qu'on évalue de manière régulière cette réglementation et si on perd des leaders ou des pionniers à cause de ça, il faudra revenir. C'est clé », estime le président français.


    C’est une position similaire à celle du co-fondateur et PDG de Limit à propos de l’AI Act : « Il s’agit de la pire réglementation : large, radicale, tout le monde est techniquement en infraction d’une manière ou d’une autre, mais vous pouvez payer pour la combattre. Les entrepreneurs obéissants et respectueux des règles perdront tout leur temps et leur argent à essayer de se conformer à chaque paragraphe de la loi sur l’IA. De plus en plus d’entrepreneurs soucieux de la Realpolitik placeront leur entreprise dans une zone grise, supposeront que s’ils réussissent, ils seront un jour poursuivis en justice et économiseront des fonds pour cette éventualité.

    Et s’ils sont poursuivis, quelles sont les sanctions ? Jusqu'à 7% du chiffre d'affaires annuel mondial. C'est une farce. Si l’UE affirme que cette technologie est si dangereuse qu’elle nécessite une réglementation à l’échelle européenne, alors les sanctions devraient en réalité être beaucoup plus lourdes. S’il y a un mauvais acteur qui dirige une entreprise d’IA massivement abusive et que la plus grande menace à laquelle il est confronté est une pénalité de revenus de 7 % qu’il peut probablement réduire à 2 % après quelques années de litige, alors cela n’a aucun effet dissuasif ! Ces entreprises fonctionnent avec une marge brute de 75 %. Vous avez une année qui tourne à 73% ? Cela n’a pas d’importance.

    Cela place la loi sur l’IA dans une situation intermédiaire lamentable en matière de réglementation : suffisamment ennuyeuse pour dissuader les entrepreneurs légitimes, suffisamment édentée pour ne pas empêcher des abus à grande échelle. Je suis choqué que la loi sur l’IA ne prévoie aucune possibilité d’interdire quelque chose qui serait réellement dangereux, comme une machine de propagande optimisée par l’IA et financée par l’État, se faisant passer pour un réseau social. S’ils ne peuvent pas interdire des produits, alors il ne s’agit pas de protection des consommateurs : il s’agit simplement d’extraction de richesses. »

    Source : projet de loi

    Et vous ?

    Quelle est la priorité la plus importante pour vous en tant qu’utilisateur ? Préférez-vous que les entreprises protègent davantage vos données personnelles ou qu’elles rendent leurs produits plus interopérables avec d’autres services ?
    Pensez-vous que les réglementations telles que le Digital Markets Act (DMA) sont nécessaires pour encadrer les géants de la technologie ? Ou devrions-nous laisser les entreprises décider elles-mêmes de leurs politiques de déploiement de nouvelles technologies ?
    Comment pensez-vous que ces restrictions affecteront l’innovation dans le domaine de l’intelligence artificielle ? Est-ce que cela freinera ou encouragera de nouvelles avancées technologiques ?

    Voir aussi :

    Les États-Unis s'attaquent aux lacunes dans les restrictions sur les exportations de puces d'IA vers la Chine et prévoient d'introduire de nouvelles lignes directrices de restrictions

    Les États-Unis veulent entraver l'industrie chinoise des puces électroniques en adoptant de nouvelles règles d'exportation radicales, mais la Chine dénonce ces règles et exige qu'elles soient levées

    Les États-Unis étendent les restrictions à l'exportation de puces d'IA aux pays du Moyen-Orient

  13. #33
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 297
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 297
    Points : 21 370
    Points
    21 370
    Par défaut La relation entre Elon Musk et Donald Trump pourrait déboucher sur des normes plus strictes en matière d'IA
    La relation entre Elon Musk et Donald Trump pourrait déboucher sur des normes plus strictes en matière d'IA, car Elon Musk a publiquement soutenu la sécurité de l'IA, prônant des réglementations plus strictes

    L'implication potentielle d'Elon Musk dans l'administration de Donald Trump pourrait signaler une évolution vers des normes plus strictes en matière d'intelligence artificielle (IA). Connu pour sa position ferme sur la sécurité de l'IA, Elon Musk a toujours plaidé en faveur de mesures réglementaires visant à limiter les risques d'un développement incontrôlé de la technologie. Si Elon Musk venait donc à assumer un rôle à la Maison-Blanche de Donald Trump, il pourrait tirer parti de cette position pour façonner des politiques visant à encadrer davantage les avancées de l'IA jugées à haut risque.

    Ces éventuelles réglementations s'aligneraient avec les efforts législatifs récents tels que le « Content Origin Protection and Integrity from Edited and Deepfaked Media Act » (COPIED Act). En effet, en juillet 2024, le Sénat américain a présenté un projet de loi visant à établir un cadre juridique pour le développement éthique de l'IA. Le COPIED Act a pour objectif d'interdire l'utilisation contraire à l'éthique des contenus générés par l'IA et de la technologie « deepfake ». Notamment, le projet de loi « établit de nouvelles directives fédérales en matière de transparence pour le marquage, l'authentification et la détection des contenus générés par l'IA, protège les journalistes, les acteurs et les artistes contre le vol par l'IA et tiennent les contrevenants pour responsables des abus commis ».


    Ce n'est un secret pour personne qu'Elon Musk et Donald Trump entretiennent de bonnes relations, le PDG de SpaceX s'étant montré très ouvert sur son soutien au président élu pendant sa campagne, avec de nombreux messages sur son site de médias sociaux, X. Même avant que Donald Trump ne remporte l'élection présidentielle de 2024, il a également été spéculé qu'il pourrait y avoir une place pour Elon Musk à la Maison-Blanche.

    Aucune annonce officielle n'a encore été faite, mais quoi qu'il en soit, il est probable qu'Elon Musk exercera une influence sur la future administration. Pour ce qui est de l'avenir, un éminent scientifique qui a travaillé en étroite collaboration avec Elon Musk a émis l'hypothèse que cela pourrait conduire à des normes plus strictes en matière d'IA lorsqu'il s'agit de sécurité.

    Quelles étaient déjà les déclarations d'Elon Musk sur les normes de sécurité de l'IA ?

    Max Tegmark, professeur, spécialiste de l'IA au Massachusetts Institute of Technology, a souligné que le soutien d'Elon Musk à un projet de loi sur l'IA qui a échoué en Californie témoignait de la préoccupation constante du milliardaire pour la sécurité de l'IA. Si Donald Trump lui-même n'a pas abordé la question, que ce soit pendant ou en dehors de la campagne, il s'agit certainement d'une priorité pour Elon Musk.

    Cela n'a pas empêché Elon Musk de proposer des outils d'IA sur ses plateformes, comme X, mais il a mis en garde contre le développement effréné de l'IA. En 2023, il a été l'un des 30 000 signataires d'une lettre appelant à suspendre la recherche sur les modèles d'IA.

    Il a également profité de son passage à la conférence South by Southwest (SXSW) pour réitérer ses avertissements concernant le danger de l’intelligence artificielle (IA). D'après Elon Musk, « l’IA est plus dangereuse que les ogives nucléaires » et il devrait exister un organisme de réglementation supervisant le développement de cette technologie.

    « Je ne suis pas normalement un partisan de la réglementation et de la surveillance - je pense qu’on devrait généralement pécher par excès de minimisation de ces choses-là, mais il s’agit d’une situation où le public court un très grave danger », a prévenu Elon Musk.

    S'adressant au Guardian lors du Web Summit de Lisbonne, Max Tegmark a expliqué qu'Elon Musk pourrait user de son influence pour persuader Donald Trump d'introduire des normes empêchant le développement de l'intelligence générale artificielle (AGI) - terme désignant les systèmes d'IA qui égalent ou dépassent les niveaux d'intelligence humaine, ce que M. Musk a déjà craint par le passé.

    « Je pense effectivement que si Elon [Musk] parvient à obtenir l'oreille de Trump sur les questions d'IA, nous aurons plus de chances d'obtenir une forme de normes de sécurité, quelque chose qui empêche l'AGI », a déclaré Max Tegmark. « Il pourrait aider Trump à comprendre qu'une course à l'AGI est une course au suicide. »

    Et vous ?

    Quel est votre avis sur le sujet ?
    Pensez-vous que le point de vue du professeur Tegmark est crédible ou pertinent ?
    Selon vous, les leaders technologiques comme Elon Musk devraient-ils avoir une influence significative sur les politiques gouvernementales en matière d'IA ?

    Voir aussi :

    Les milliardaires de la Silicon Valley apportent leur soutien à Donald Trump et Elon Musk, propriétaire de X, s'engage à verser 45 millions chaque mois, car Trump aurait une position jugée "protechnologie"

    L'entretien entre Elon Musk et Donald Trump sur X a commencé par un désastre technique immédiat que Musk a faussement tenté d'imputer à une attaque DDOS, aucune analyse ne confirme la piste d'une cyberattaque

    Ce que signifie la victoire de Donald Trump pour les géants de la technologie tels que Google, Apple et Microsoft : un potentiel assouplissement des réglementations face à la montée des menaces antitrust
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  14. #34
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 048
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 048
    Points : 209 077
    Points
    209 077
    Par défaut Pour le sénateur Peter Welch, si votre travail a été utilisé pour former une IA, vous devriez être indemnisé
    Pour le sénateur Peter Welch, si votre travail a été utilisé pour former une IA, vous devriez être indemnisé.
    Son projet de loi TRAIN Act vise à obliger les développeurs d'IA à plus de transparence

    Aux États-Unis, un nouveau projet de loi vient d’être présenté au Congrès, visant à exiger une transparence accrue de la part des entreprises développant des systèmes d’intelligence artificielle (IA). Cette initiative, portée par le sénateur Peter Welch, reflète les préoccupations croissantes face à l'impact des technologies d'IA sur la société, l'économie et la démocratie.

    Une transparence devenue essentielle

    Les systèmes d'IA, tels que les modèles de langage, les générateurs d'images ou encore les algorithmes de décision automatisée, occupent désormais une place centrale dans de nombreux secteurs, de la santé à l'éducation en passant par la justice. Cependant, le fonctionnement interne de ces technologies reste souvent opaque. Cela alimente les inquiétudes sur des sujets tels que les biais algorithmiques, la désinformation ou l'utilisation abusive de données personnelles.

    Pour répondre à ces préoccupations, le sénateur souhaite obliger les développeurs à divulguer des informations clés sur la conception, l'entraînement et les limites de leurs systèmes. Ce projet de loi prévoit également une supervision renforcée par des organismes de régulation afin de garantir que les pratiques des entreprises respectent des normes éthiques et légales.

    Pour le sénateur Peter Welch, si votre travail a été utilisé pour former une IA, vous devriez être indemnisé

    Un nouveau projet de loi du Sénat vise à permettre aux créateurs humains de savoir plus facilement si leur travail a été utilisé sans autorisation pour former l'intelligence artificielle, marquant ainsi le dernier effort pour remédier au manque de transparence dans le développement de l'IA générative. La loi TRAIN (Transparency and Responsibility for Artificial Intelligence Networks) permettrait aux détenteurs de droits d'auteur d'exiger la communication des dossiers de formation des modèles d'intelligence artificielle générative, si le détenteur peut déclarer qu'il croit de bonne foi que son travail a été utilisé pour former le modèle.

    Les développeurs n'auraient à révéler que le matériel d'entraînement « suffisant pour déterminer avec certitude » si les œuvres du détenteur des droits d'auteur ont été utilisées. En cas de non-respect de cette obligation, la loi présumerait - jusqu'à preuve du contraire - que le développeur de l'IA a effectivement utilisé l'œuvre protégée par le droit d'auteur.

    Le sénateur Peter Welch (D-Vt), qui a présenté le projet de loi jeudi, a déclaré que le pays devait « établir une norme plus élevée en matière de transparence » alors que l'IA continue de s'intégrer dans la vie des Américains.

    « C'est simple : si votre travail est utilisé pour former l'intelligence artificielle, vous, en tant que détenteur des droits d'auteur, devriez pouvoir déterminer s'il a été utilisé par un modèle de formation, et vous devriez être indemnisé si c'est le cas », a déclaré Welch dans un communiqué. « Nous devons donner aux musiciens, artistes et créateurs américains un outil pour savoir quand les entreprises d'IA utilisent leur travail pour former des modèles sans l'autorisation des artistes. »

    L'explosion des technologies d'IA générative accessibles a entraîné une série de questions juridiques

    L'explosion des technologies d'IA générative accessibles a déclenché une série de questions juridiques et éthiques pour les artistes, qui craignent que ces outils permettent à d'autres de recréer leurs œuvres sans consentement, crédit ou compensation.

    Bien que de nombreux grands développeurs d'IA ne révèlent pas publiquement les données d'entraînement de leurs modèles, une feuille de calcul virale de Midjourney a donné du crédit aux préoccupations des artistes au début de l'année en énumérant des milliers de personnes dont le travail a été utilisé pour entraîner son populaire générateur d'art d'IA.

    Les entreprises qui s'appuient sur le travail créatif humain ont également tenté de s'attaquer aux développeurs d'IA.

    Ces dernières années, des organes de presse comme le New York Times et le Wall Street Journal ont poursuivi en justice des sociétés d'IA telles qu'OpenAI et Perplexity AI pour violation des droits d'auteur. En juin, les plus grandes maisons de disques du monde se sont associées pour poursuivre en justice deux grandes sociétés d'IA spécialisées dans la création musicale, au motif qu'elles avaient entraîné leurs modèles sur des dizaines d'années d'enregistrements sonores protégés par le droit d'auteur, sans leur consentement.

    Alors que les tensions juridiques s'intensifient, plus de 36 000 professionnels de la création, dont l'actrice oscarisée Julianne Moore, l'auteur James Patterson et Thom Yorke de Radiohead, ont signé une lettre ouverte demandant instamment l'interdiction d'utiliser l'art humain pour entraîner l'IA sans autorisation.

    Il n'existe pas encore de législation fédérale globale pour réglementer le développement de l'IA, bien que plusieurs États aient tenté de faire adopter des réglementations spécifiques liées à l'IA, notamment en ce qui concerne les « deepfakes » (contrefaçons profondes). En septembre, la Californie a adopté deux projets de loi visant à protéger les acteurs et autres interprètes contre l'utilisation non autorisée de leur image numérique.

    Des projets de loi similaires ont été présentés au Congrès, notamment la loi bipartisane « NO FAKES », qui vise à protéger les ressemblances humaines contre les reproductions numériques non consensuelles, et la loi « AI CONSENT », qui obligerait les plateformes en ligne à obtenir un consentement éclairé avant d'utiliser les données personnelles des consommateurs pour entraîner l'IA. Aucune de ces deux lois n'a été votée jusqu'à présent.

    Dans un communiqué de presse, Welch a déclaré que la loi TRAIN avait été approuvée par plusieurs organisations, dont la Screen Actors Guild-American Federation of Television and Radio Artists (SAG-AFTRA), l'American Federation of Musicians et la Recording Academy, ainsi que par les principales maisons de disques, dont Universal Music Group, Warner Music Group et Sony Music Group.

    Il ne reste cependant que quelques semaines au Congrès et les membres se concentrent sur des priorités incontournables, comme éviter la fermeture du gouvernement le 20 décembre. Le bureau de Welch a déclaré qu'il prévoyait de réintroduire le projet de loi l'année prochaine, car toute loi non adoptée devra être réintroduite dans le nouveau Congrès lorsqu'il se réunira au début du mois de janvier.

    Nom : train.png
Affichages : 2560
Taille : 247,7 Ko

    OpenAI assure ne pas pouvoir gagner de l'argent sans utiliser gratuitement du matériel protégé par le droit d'auteur

    OpenAI supplie le Parlement britannique de l'autoriser à utiliser des œuvres protégées par le droit d'auteur, car il lui serait « impossible » d'entraîner ses modèles d'intelligence artificielle - et de poursuivre la croissance de son entreprise, qui pèse plusieurs milliards de dollars - sans ces œuvres.

    La société d'intelligence artificielle a déclaré dans un document soumis à une sous-commission de la Chambre des Lords que l'utilisation exclusive de contenus du domaine public serait insuffisante pour entraîner le type de grands modèles de langage (LLM) qu'elle construit, suggérant que l'entreprise doit donc être autorisée à utiliser du matériel protégé par le droit d'auteur.

    « Étant donné que le droit d'auteur couvre aujourd'hui pratiquement toutes les formes d'expression humaine - y compris les articles de blog, les photographies, les messages de forum, les bouts de code de logiciel et les documents gouvernementaux - il serait impossible d'entraîner les meilleurs modèles d'IA actuels sans utiliser des documents protégés par le droit d'auteur », a écrit l'entreprise dans son dossier de preuves. « Limiter les données d'entraînement aux livres et dessins du domaine public créés il y a plus d'un siècle pourrait donner lieu à une expérience intéressante, mais ne permettrait pas de fournir des systèmes d'IA répondant aux besoins des citoyens d'aujourd'hui ».

    OpenAI poursuit en insistant dans le document, soumis au comité des communications et du numérique de la Chambre des Lords, sur le fait qu'elle se conforme aux lois sur le droit d'auteur et qu'elle estime que « légalement, la loi sur le droit d'auteur n'interdit pas l'entraînement ».

    OpenAI a toutefois admis qu'il y avait « encore du travail à faire pour soutenir les créateurs et leur donner les moyens d'agir ». L'entreprise a évoqué les moyens mis en œuvre pour permettre aux éditeurs d'empêcher le robot GPTBot d'accéder à leurs sites web. Elle a également indiqué qu'elle mettait au point des mécanismes supplémentaires permettant aux titulaires de droits de se retirer de la formation et qu'elle s'engageait avec eux à trouver des accords mutuellement bénéfiques.

    Dans certaines des actions en justice intentées contre OpenAI et Microsoft, les plaignants accusent les sociétés de refuser de payer les auteurs pour leur travail tout en construisant une industrie d'un milliard de dollars et en profitant d'un énorme gain financier à partir de matériel protégé par le droit d'auteur. Dans un cas, déposé par un couple d'auteurs de non-fiction, il est soutenu que les entreprises auraient pu explorer d'autres options de financement, telles que la participation aux bénéfices, mais qu'elles ont « décidé de voler » à la place.

    OpenAI n'a pas abordé ces poursuites particulières, mais elle a répondu directement à la plainte du New York Times qui l'accuse d'utiliser sans autorisation les articles de presse qu'il a publiés. Le quotidien ne dit pas toute l'histoire, a déclaré OpenAI. L'entreprise était déjà en train de négocier avec le Times un « partenariat de grande valeur » qui lui donnerait accès aux articles de la publication. Les deux parties sont apparemment restées en contact jusqu'au 19 décembre, et OpenAI n'a appris l'existence du procès que le mois suivant, en lisant un article sur le Times.

    En attendant, selon des documents judiciaires récents, OpenAI aurait supprimé des informations importantes qui auraient pu être utilisées comme preuve dans l'affaire. Bien que l’entreprise affirme que cette suppression n’était pas intentionnelle, elle pourrait avoir des répercussions importantes sur le déroulement du procès.

    Nom : open.png
Affichages : 392
Taille : 143,1 Ko

    Un enjeu de taille pour les entreprises technologiques

    En clair, si cette législation est adoptée, elle pourrait représenter un défi pour les grandes entreprises de la tech, telles que OpenAI, Google ou Microsoft. Ces acteurs, qui investissent des milliards dans le développement de technologies avancées, pourraient voir leurs pratiques exposées au public, un scénario qu’ils cherchent généralement à éviter pour des raisons de concurrence.

    Cela n'empêchent pas certains experts de saluer cette proposition, estimant qu’elle pourrait instaurer un climat de confiance entre les entreprises technologiques et le grand public. « Une transparence accrue permettra de limiter les abus et de s’assurer que l’IA est développée dans l’intérêt commun », a déclaré un analyste spécialisé en régulation technologique.

    Un débat qui ne fait que commencer

    Ce projet de loi s’inscrit dans un contexte international où les législateurs tentent de rattraper leur retard sur l’évolution rapide des technologies d’IA. L’Union européenne, par exemple, finalise son propre cadre législatif, connu sous le nom d'AI Act, qui impose des normes strictes en matière de transparence et de responsabilité.

    Reste à savoir si le Congrès américain soutiendra cette initiative. Avec les enjeux économiques colossaux liés à l'IA et les pressions des lobbys, l’adoption d’une telle loi pourrait se heurter à de nombreux obstacles. Cependant, l’initiative marque un pas important vers une meilleure régulation de technologies qui redéfinissent profondément nos sociétés.

    De plus, son projet de loi ne fait pas l'unanimité. Voici certaines réactions d'internautes :

    « Cela ne fonctionnera pas, les LLM ont été utilisés pour reformuler des textes protégés par le droit d'auteur, les comparer, les analyser et les transformer avant l'entraînement. Techniquement, le modèle ne s'entraîne donc pas sur des textes protégés par le droit d'auteur, mais l'effet est le même ! »

    « Ou ils peuvent le trouver eux-mêmes, comme le reste d'entre nous... Votre ami a-t-il lancé un programme qui avait besoin d'argent ? »

    Conclusion

    Face à l'essor rapide de l'IA, ce projet de loi représente une tentative ambitieuse de préserver l’équilibre entre innovation technologique et protection des droits fondamentaux. Si la transparence devient une obligation, elle pourrait contribuer à restaurer la confiance du public tout en garantissant un usage responsable des technologies de demain.

    Source : TRAIN Act

    Et vous ?

    Que pensez-vous de ce projet de loi ? Que pensez-vous des déclarations d'OpenAI qui assure ne pas pouvoir gagner de l'argent sans utiliser gratuitement du matériel protégé par le droit d'auteur ?

    Ce projet de loi vous semble-t-il réalisable ?

    Quels seraient les bénéfices concrets pour le grand public et les détenteurs de droit si cette loi était adoptée ?

    Les petites entreprises technologiques auront-elles les moyens de se conformer à ces exigences, ou cela profitera-t-il uniquement aux grands groupes disposant de ressources importantes ?

    Quelles sanctions pourraient être imposées en cas de non-respect des obligations de transparence ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  15. #35
    Membre actif Avatar de Fluxgraveon
    Homme Profil pro
    mécanicien
    Inscrit en
    Mai 2024
    Messages
    133
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Lot (Midi Pyrénées)

    Informations professionnelles :
    Activité : mécanicien

    Informations forums :
    Inscription : Mai 2024
    Messages : 133
    Points : 215
    Points
    215
    Par défaut
    Cela reste une approche commerciale de type "business as usual", qu'en est-il de tous ceux qui font du training sans le savoir ? Et pour la sérendipité qui peut en découler, comment fait-on ?
    Une énième façon de normaliser, certifier, etc. toujours à l'avantage de ceux qui mènent l'affaire.
    Pour info (parce qu'il s'agit aussi d'aller au-delà d'une simple critique apparaissant comme une dénonciation) :
    https://usbeketrica.com/fr/article/i...rais-problemes

  16. #36
    Membre émérite
    Homme Profil pro
    Expertise comptable
    Inscrit en
    Décembre 2019
    Messages
    780
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 34
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Expertise comptable
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Décembre 2019
    Messages : 780
    Points : 2 767
    Points
    2 767
    Par défaut
    Citation Envoyé par Fluxgraveon Voir le message
    Pour info (parce qu'il s'agit aussi d'aller au-delà d'une simple critique apparaissant comme une dénonciation) :
    https://usbeketrica.com/fr/article/i...rais-problemes
    Article très intéressant, merci !

    si vous voulez un monde sans argent fondé sur le partage mais qu’en même temps vous croyez fortement dans l’idée de devenir super riche grâce à une carrière d’entrepreneur dans un système capitaliste, vous vous retrouvez face à une contradiction. Et pour résoudre cette contradiction, votre seule solution, c’est de mentir. C’est de donner aux gens l’expérience d’un monde où tout est gratuit, mais de faire en sorte qu’à chaque fois qu’une personne fait quelque chose en ligne, cela soit payé par une autre qui espère pouvoir la manipuler… et de gérer ce qui devient dès lors une entreprise de modification des comportements.
    A mettre aussi en relief avec l'article sur les travailleurs Africain payés 2$ au lieu de 12 pour entrainer l'IA et étiqueter les données...

    Ce monde est pourri jusqu'à l'os

  17. #37
    Membre actif Avatar de Fluxgraveon
    Homme Profil pro
    mécanicien
    Inscrit en
    Mai 2024
    Messages
    133
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Lot (Midi Pyrénées)

    Informations professionnelles :
    Activité : mécanicien

    Informations forums :
    Inscription : Mai 2024
    Messages : 133
    Points : 215
    Points
    215
    Par défaut
    Ce monde est pourri jusqu'à l'os
    Ce n'est qu'un "monde", une réalité parmi d'autres ...

Discussions similaires

  1. Réponses: 0
    Dernier message: 06/02/2020, 09h28
  2. Répartition de Windows Phone : les États-Unis représentent 11%
    Par Hinault Romaric dans le forum Windows Phone
    Réponses: 1
    Dernier message: 11/07/2014, 13h41
  3. Les États-Unis attaquent la Chine en justice pour cyberespionnage
    Par Hinault Romaric dans le forum Actualités
    Réponses: 55
    Dernier message: 16/06/2014, 22h30
  4. Réponses: 9
    Dernier message: 30/05/2013, 20h48
  5. Réponses: 43
    Dernier message: 27/06/2011, 14h59

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo