IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Les États-Unis nomment un « détracteur de l'IA » pour gérer la sécurité de l'IA dans un Institut américain


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    938
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 938
    Points : 15 562
    Points
    15 562
    Par défaut Les États-Unis nomment un « détracteur de l'IA » pour gérer la sécurité de l'IA dans un Institut américain
    Les États-Unis commencent à étudier la possibilité de réglementer les systèmes d'IA comme ChatGPT, pour garantir que ces technologies soient légales, efficaces, éthiques, sûres et dignes de confiance

    L'administration Biden a annoncé mardi qu'elle sollicitait les commentaires du public sur d'éventuelles mesures de responsabilité pour les systèmes d'intelligence artificielle (IA), alors que des questions se posent quant à leur impact sur la sécurité nationale et l'éducation.

    ChatGPT, un programme d'intelligence artificielle qui a récemment attiré l'attention du public pour sa capacité à rédiger rapidement des réponses à un large éventail de questions, a notamment attiré l'attention des législateurs américains alors qu'il est devenu l'application grand public à la croissance la plus rapide de l'histoire, avec plus de 100 millions d'utilisateurs actifs mensuels.

    La National Telecommunications and Information Administration (NTIA), une agence du ministère du Commerce qui conseille la Maison Blanche sur la politique des télécommunications et de l'information, souhaite obtenir des informations car il existe un "intérêt réglementaire croissant" pour un "mécanisme de responsabilisation" de l'IA.

    L'agence souhaite savoir s'il existe des mesures qui pourraient être mises en place pour garantir "que les systèmes d'IA sont légaux, efficaces, éthiques, sûrs et dignes de confiance".

    "Les systèmes d'IA responsables pourraient apporter d'énormes avantages, mais seulement si nous nous attaquons à leurs conséquences et inconvénients potentiels. Pour que ces systèmes atteignent leur plein potentiel, les entreprises et les consommateurs doivent pouvoir leur faire confiance", a déclaré Alan Davidson, administrateur de la NTIA.

    Nom : bots-intelligents-relation-client.png
Affichages : 1443
Taille : 115,3 Ko

    La semaine dernière, le président Joe Biden a déclaré qu'il restait à voir si l'IA était dangereuse. "Les entreprises technologiques ont la responsabilité, à mon avis, de s'assurer que leurs produits sont sûrs avant de les rendre publics", a-t-il déclaré.

    ChatGPT, qui a séduit certains utilisateurs par la rapidité de ses réponses et en a gêné d'autres par ses inexactitudes, est fabriqué par la société californienne OpenAI et soutenu par Microsoft Corp.

    La NTIA prévoit de rédiger un rapport sur les "efforts visant à garantir que les systèmes d'IA fonctionnent comme prévu - et sans causer de dommages". Elle a déclaré que ces efforts contribueraient aux travaux en cours de l'administration Biden visant à "garantir une approche cohérente et globale du gouvernement fédéral à l'égard des risques et des opportunités liés à l'IA".

    Un groupe d'éthique technologique, le Center for Artificial Intelligence and Digital Policy, a demandé à la Commission fédérale du commerce des États-Unis d'empêcher OpenAI de publier de nouvelles versions commerciales de GPT-4, estimant qu'elle était "biaisée, trompeuse et qu'elle représentait un risque pour la vie privée et la sécurité publique".

    Source : L'administration Biden

    Et vous ?

    Qu'en pensez-vous ?

    Selon vous, la réglementation des systèmes d'IA, à l'instar de ChatGPT, est-elle une bonne initiative pour encourager l'innovation dans ce secteur ?

    D'après vous, le développement rapide de l'IA représente-t-il un risque ou une opportunité ?

    Voir aussi

    « Le développement de l'IA sans réglementation induit une menace existentielle pour l'humanité », d'après Elon Musk dont une société développe des puces à insérer dans le cerveau pour contrer l'IA

    La loi européenne sur l'intelligence artificielle est retardée, les législateurs n'ayant pas réussi à se mettre d'accord sur un ensemble de propositions de base

    La Chambre de commerce des États-Unis demande une réglementation de l'IA, pour que l'IA ne nuise pas à la croissance ou ne devienne pas un risque pour la sécurité

    La Maison Blanche dévoile la "déclaration des droits" de l'IA, des directives nationales non contraignantes qui pourraient éclairer les décisions politiques et commerciales futures

    L'outil d'IA ChatGPT aurait brisé le plan de l'UE pour réglementer l'IA, le plan initial de l'Europe visant à encadrer l'IA ne suffit pas pour faire face au nouvel outil d'OpenAI
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 259
    Points
    66 259
    Par défaut La Maison Blanche lance un plan pour promouvoir l'IA éthique et demande de l'aide aux hackers pour y arriver
    La Maison Blanche lance un plan pour promouvoir l'IA éthique et demande l'aide des hackers pour détecter les failles des chatbots d'IA
    elle prendra également l'avis des PDG des entreprises d'IA

    La Maison Blanche a annoncé jeudi une batterie de mesures visant à promouvoir le développement d'une IA responsable. Elles comprennent un investissement de 140 millions de dollars de la National Science Foundation pour lancer sept nouveaux instituts nationaux de recherche sur l'IA (NAIR), ce qui portera à 25 le nombre total d'installations dédiées à l'IA dans le pays. La Maison Blanche soutiendra également un événement lors de la conférence Defcon cet été, qui mettra les experts au défi de découvrir les failles des systèmes d'IA génératifs. L'annonce a été faite quelques heures avant une réunion de la Maison Blanche avec des PDG de l'industrie.

    Les chatbots d'IA - tels que ChatGPT, Bard et Claude - ont suscité de nouveaux espoirs quant au potentiel de l'IA, mais aussi de nouvelles craintes. L'IA générative peut potentiellement produire une série de nouveaux risques commerciaux tels que la désinformation, le plagiat, les violations de droits d'auteur et les contenus toxiques. Le manque de transparence et le risque de déplacement des travailleurs sont d'autres problèmes que les entreprises pourraient avoir à résoudre. Jeudi, l'administration Biden a décidé de se joindre au concert d'inquiétudes en annonçant qu'elle soutiendra un exercice de piratage de masse lors de la conférence sur la sécurité Defcon.

    La conférence se tiendra cet été et l'initiative permettra de sonder les systèmes d'IA générative de Google, Microsoft, Nvidia, OpenAI et d'autres entreprises. Le bureau de la politique scientifique et technologique de la Maison-Blanche a également indiqué que 140 millions de dollars seraient consacrés au lancement de sept nouveaux instituts nationaux de recherche sur l'IA, axés sur le développement d'une IA éthique et transformatrice pour le bien public. L'Office of Management and Budget (OMB) a également indiqué jeudi qu'il publierait cet été un ensemble de règles sur la manière dont le gouvernement fédéral devrait utiliser la technologie de l'IA.

    Nom : erfg.png
Affichages : 1290
Taille : 447,0 Ko

    « Ces mesures s'appuient sur les solides antécédents de l'administration en matière de leadership pour garantir que la technologie améliore la vie du peuple américain, et ouvrent de nouvelles voies dans les efforts continus du gouvernement fédéral pour promouvoir une approche cohérente et complète des risques et des opportunités liés à l'IA », indique le communiqué de presse de l'administration. Le communiqué de la Maison Blanche ne précise pas les détails sur l'étude des chatbots d'IA cet été, mais indique que "cela permettra à ces modèles d'être évalués de manière approfondie par des milliers de partenaires communautaires et d'experts en IA".

    Des points seront attribués pour encourager les participants à rechercher un large éventail de bogues ou de comportements répréhensibles de la part des systèmes d'IA. L'événement sera organisé en collaboration avec Microsoft, l'organisation à but non lucratif SeedAI, AI Vulnerability Database et Humane Intelligence, une association à but non lucratif créée par Rumman Chowdhury, spécialiste des données et des sciences sociales. Elle a auparavant dirigé un groupe de Twitter travaillant sur l'éthique et l'apprentissage automatique, et a organisé un concours qui a permis de découvrir des biais dans le recadrage automatique des photos sur le réseau social.

    L'annonce a précédé une réunion de la Maison Blanche, dirigée par la vice-présidente Kamala Harris, avec les directeurs généraux d'Alphabet, d'Anthropic, de Microsoft et d'OpenAI pour discuter des risques de l'IA. « La réunion s'inscrit dans le cadre d'un effort plus large et continu pour s'engager avec les défenseurs, les entreprises, les chercheurs, les organisations de défense des droits civils, les organisations à but non lucratif, les communautés, les partenaires internationaux et d'autres sur les questions critiques liées à l'IA », indique le communiqué. La Maison Blanche estime que les entreprises ont le devoir d'aider à réduire les risques liés à l'IA.

    L'intervention de la Maison Blanche dans le domaine de l'IA intervient alors que l'appétit pour une réglementation de cette technologie s'accroît dans le monde entier. Au sein du Parlement de l'Union européenne (UE), les législateurs négocient les dernières mises à jour d'une vaste loi sur l'IA qui restreindra, voire interdira, certaines utilisations de l'IA, en ajoutant notamment la couverture de l'IA générative. Les législateurs brésiliens envisagent également une réglementation visant à protéger les droits de l'homme à l'ère de l'IA générative. Le mois dernier, le gouvernement chinois a annoncé un projet de réglementation de l'IA générative.

    L'UE pourrait introduire prochainement une réglementation très stricte en ce qui concerne le développement et le déploiement des chatbots d'IA. Selon des sources au fait du projet de loi, les nouvelles règles proposeraient d'obliger les fabricants de chatbots d'IA à révéler s'ils utilisent du matériel protégé par des droits d'auteur. Cela pourrait permettre aux créateurs de contenu de jouir d'une redevance de droit d'auteur. L'IA générative a donné lieu à de nombreuses plaintes en matière de violation de droit d'auteur et l'UE veut y mettre un terme. À mesure que la loi sur l'IA évolue, les chatbots pourraient faire l'objet d'une surveillance accrue par l'UE.

    À Washington, la semaine dernière, le sénateur démocrate Michael Bennett a présenté un projet de loi visant à créer un groupe de travail sur l'IA chargé de protéger la vie privée et les droits civils des citoyens. Quatre agences américaines de régulation, dont la Federal Trade Commission et le ministère de la Justice, se sont engagées conjointement à utiliser les lois existantes pour protéger les droits des citoyens américains à l'ère de l'IA. Cette semaine, le bureau du sénateur démocrate Ron Wyden a confirmé son intention de tenter à nouveau de faire passer une loi appelée Algorithmic Accountability Act (loi sur la responsabilité des algorithmes).

    Elle obligerait les entreprises à évaluer leurs algorithmes et à divulguer l'utilisation d'un système automatisé. Outre les entreprises qui développent l'IA à des fins lucratives, les agences fédérales des États-Unis ont du pain sur la planche en ce qui concerne leur propre utilisation de l'IA. Une étude réalisée en décembre 2022 par l'université de Stanford a révélé que pratiquement aucune agence fédérale n'a répondu favorablement à un décret de l'ancienne administration Trump visant à rendre publics les plans en matière d'IA et que seule la moitié d'entre elles ont partagé un inventaire de la manière dont elles utilisent l'IA.

    Source : la Maison Blanche

    Et vous ?

    Quel est votre avis sur le sujet ?

    Voir aussi

    Les États-Unis commencent à étudier la possibilité de réglementer les systèmes d'IA comme ChatGPT pour garantir que ces technologies soient légales, efficaces, éthiques, sûres et dignes de confiance

    Les États-Unis lancent une initiative sur l'utilisation de l'IA à des fins militaire, dans un contexte où la Chine ambitionne de devenir la super puissance du monde en matière d'IA

    L'UE envisagerait des règles très strictes pour les chatbots dans le cadre de son projet de loi sur l'IA, elle devrait exiger la divulgation de l'utilisation du matériel protégé par le droit d'auteur
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  3. #3
    Membre extrêmement actif
    Homme Profil pro
    Graphic Programmer
    Inscrit en
    Mars 2006
    Messages
    1 549
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Graphic Programmer
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Mars 2006
    Messages : 1 549
    Points : 3 950
    Points
    3 950
    Par défaut
    la maison blanche qui s'inquiete alors que son armée developpe les pire arme dopée a l'IA... l'hyocrysie us a encore de beau jours devant elle

  4. #4
    Membre expert
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 125
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 125
    Points : 3 458
    Points
    3 458
    Par défaut
    L'éthique est culturelle et subjective, donc que penser du fait que le gouvernement de "gendarme du monde" se lance dans une IA éthique?
    Surtout quand il va consulter les PDG d'entreprise IA (dont Microsoft, Google par exemple).
    Qu'est ce qui pourrait mal se passer?
    « Ces mesures s'appuient sur les solides antécédents de l'administration en matière de leadership pour garantir que la technologie améliore la vie du peuple américain, et ouvrent de nouvelles voies dans les efforts continus du gouvernement fédéral pour promouvoir une approche cohérente et complète des risques et des opportunités liés à l'IA »
    Cette phrase est tellement vague que pas grand monde peut s'y opposer, mais elle est aussi tellement vague qu'elle laisee la porte ouverte à tellement de dérives.

  5. #5
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 259
    Points
    66 259
    Par défaut La présidente de la FTC affirme que les États-Unis peuvent réglementer l'IA avec les lois existantes
    La présidente de la FTC, Lina Khan, affirme que les États-Unis doivent réglementer l'IA et met en garde contre la domination du marché de l'IA par les Big Tech
    et d'autres risques liés à l'IA

    Les appels à réglementer l'IA se font de plus en plus entendre dans l'Union européenne et aux États-Unis. Dans un article d'opinion publié mercredi, la présidente de la Federal Trade Commission (FTC), Lina Khan, s'est engagée à utiliser les lois existantes pour réglementer l'IA. Elle a mis en garde contre les risques liés à l'IA, tels que la domination du marché par les grandes entreprises technologiques, la collusion et le potentiel d'augmentation des fraudes et des violations de la vie privée. Elle a ajouté que la FTC était très bien équipée pour gérer ces problèmes. L'article de Khan a été publié un jour avant la publication par la Maison Blanche d'un plan pour promouvoir l'IA éthique.

    L'IA générative peut contribuer à transformer les projets d'entreprise en donnant aux équipes de science des données la possibilité de créer des données synthétiques et de produire des modèles algorithmiques performants. Elle peut être utilisée pour créer des artefacts de grande valeur tels que des images, des vidéos, du texte, du code et même des conceptions et des schémas. En gros, l'IA générative a le potentiel de changer la façon dont nous créons et consommons du contenu à l'avenir. Mais ces différentes possibilités qu'offre l'IA générative cachent également de nombreuses préoccupations liées au droit d'auteur et à la vie privée et d'ordre éthiques.

    La présidente de la FTC se refuse de laisser les États-Unis refaire la même qu'au milieu des années 2000 qui fait en sorte qu'une poignée d'entreprises privées contrôle aujourd'hui tout Internet. « La dernière fois que nous avons été confrontés à un changement social d'une telle ampleur provoqué par la technologie, c'était au début de l'ère du Web 2.0, au milieu des années 2000. De nouvelles entreprises innovantes, notamment Facebook et Google, ont révolutionné les communications et fourni des services populaires à une base d'utilisateurs en plein essor », a écrit la présidente de la FTC dans son article d'opinion publié mercredi dans le New York Times.


    Khan a fait remarquer que la croissance de ces entreprises a conduit à une surveillance envahissante et à la perte de la vie privée : « ces services innovants ont toutefois eu un coût élevé. Ce que nous considérions au départ comme des services gratuits a été monétisé grâce à une surveillance étendue des personnes et des entreprises qui les utilisaient. Il en est résulté une économie en ligne où l'accès à des services de plus en plus essentiels est conditionné par l'accumulation et la vente à grande échelle de nos données personnelles. Ces modèles commerciaux ont poussé les entreprises à développer des moyens sans cesse plus invasifs de nous suivre à la trace ».

    Selon Khan, la FTC a plus tard trouvé des raisons de croire que plusieurs de ces entreprises avaient enfreint la loi. « Associées à des stratégies agressives d'acquisition ou de verrouillage des entreprises qui menaçaient leur position, ces tactiques ont consolidé la domination d'une poignée d'entreprises. Ce qui avait commencé comme un ensemble de technologies révolutionnaires a fini par concentrer un énorme pouvoir privé sur des services clés et par verrouiller des modèles commerciaux qui ont un coût extraordinaire pour notre vie privée et notre sécurité », a-t-elle ajouté, notant qu'il n'est pas question que la même chose se reproduise avec l'IA.

    « Bien que la technologie évolue rapide, nous pouvons d'ores et déjà déceler plusieurs risques. L'adoption croissante de l'IA risque d'accentuer la domination du marché par les Big Tech en place. Une poignée d'entreprises puissantes contrôlent les matières premières nécessaires aux startups pour développer et déployer des outils d'IA. Il s'agit notamment des services cloud et de la puissance de calcul, ainsi que de grandes quantités de données. Ces entreprises pourraient utiliser leur contrôle sur ces intrants clés pour exclure ou discriminer les rivaux en aval, en choisissant les gagnants et les perdants de manière à renforcer leur position dominante », a-t-elle écrit.

    Khan affirme que la trajectoire de l'ère du Web 2.0 n'était pas inévitable ; elle aurait été façonnée par un large éventail de choix politiques. Pour Khan, le monde est à nouveau confronté à un moment de choix. Alors que l'utilisation de l'IA se généralise, Khan estime que les responsables publics doivent veiller à ce que l'histoire ne se répète pas avec l'IA, mais sans restreindre indûment l'innovation. L'article affirme que la FTC observe avec beaucoup d'attention la course à l'IA et cherche une façon de remplir son double mandat, à savoir promouvoir une concurrence loyale et protéger les Américains contre les pratiques déloyales ou trompeuses.

    « À mesure que ces technologies évoluent, nous nous engageons à faire notre part pour préserver la longue tradition américaine de maintien des marchés ouverts, équitables et concurrentiels qui ont été à l'origine d'innovations révolutionnaires et de la réussite économique de notre pays, sans tolérer les modèles commerciaux ou les pratiques impliquant l'exploitation massive de leurs utilisateurs », a-t-elle déclaré. Khan a relevé au moins quatre domaines clés de préoccupation :

    • garantir une concurrence loyale : empêcher les grandes entreprises technologiques d'exploiter leur position dominante sur le marché et de recourir à la collusion pour étouffer l'innovation et les petits concurrents dans le paysage de l'IA ;
    • renforcer la protection des consommateurs : protéger les utilisateurs contre les pratiques trompeuses et frauduleuses rendues possibles par l'IA, telles que les escroqueries par hameçonnage, les vidéos "deepfake" et le clonage de voix ;
    • promouvoir la confidentialité des données : contrôler les systèmes d'IA pour s'assurer qu'ils respectent les lois sur la protection des données et empêcher la collecte ou l'utilisation abusive de données, afin de protéger les informations personnelles des utilisateurs ;
    • lutter contre les pratiques discriminatoires : veiller à ce que les systèmes d'IA ne perpétuent pas ou n'amplifient pas les préjugés et la discrimination, ce qui peut conduire à un traitement inéquitable dans des domaines tels que l'emploi, le logement ou l'accès aux services essentiels.


    En outre, Khan affirme que l'IA générative risque de donner un coup de fouet à la fraude. Elle n'est peut-être pas prête à remplacer les rédacteurs professionnels, mais elle est déjà capable de rédiger un message apparemment authentique beaucoup mieux que l'escroc moyen, ce qui pourrait aider les fraudeurs à générer du contenu rapidement et à peu de frais. Les chatbots sont déjà utilisés pour générer des courriels de spear-phishing conçus pour escroquer les gens, de faux sites Web et de faux avis de consommateurs - les robots reçoivent même l'instruction d'utiliser des mots ou des phrases ciblant des groupes et des communautés spécifiques.

    Selon la présidente de la FTC, bien que ces outils soient nouveaux, ils ne sont pas exemptés des règles existantes, et la FTC appliquera vigoureusement les lois qu'elle est chargée d'appliquer, même sur ce nouveau marché. Certains des éléments cités par Khan ont déjà été exposés dans les lignes directrices de la "Charte des droits de l'IA" publiées par l'administration Biden en octobre. Elles n'ont pas force de loi, mais la FTC a la latitude pour interpréter les lois existantes et les appliquer à l'IA. « La FTC est bien équipée en termes de compétences juridiques pour traiter les questions soulevées par le développement rapide du secteur de l'IA », a déclaré Khan.

    Jeudi, la Maison Blanche a publié une batterie de mesures visant à promouvoir le développement d'une IA responsable. Elles comprennent un investissement de 140 millions de dollars de la National Science Foundation pour lancer sept nouveaux instituts nationaux de recherche sur l'IA (NAIR), ce qui portera à 25 le nombre total d'installations dédiées à l'IA dans le pays. La Maison Blanche soutiendra également un événement lors de la conférence Defcon cet été, qui mettra les experts au défi de découvrir les failles des systèmes d'IA génératifs. L'annonce a été faite quelques heures avant une réunion de la Maison Blanche avec des PDG de l'industrie.

    De son côté, L'UE pourrait introduire une réglementation très stricte en ce qui concerne le développement et le déploiement des chatbots d'IA. Selon des sources au fait du projet de loi, les nouvelles règles proposeraient d'obliger les fabricants de chatbots d'IA à révéler s'ils utilisent du matériel protégé par des droits d'auteur. Cela pourrait permettre aux créateurs de contenu de jouir d'une redevance de droit d'auteur. L'IA générative a donné lieu à de nombreuses plaintes en matière de violation de droit d'auteur et l'UE veut y mettre un terme. À mesure que la loi sur l'IA évolue, les chatbots pourraient faire l'objet d'une surveillance accrue par l'UE.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des déclarations de la présidente de la FTC des États-Unis ?
    Les lois en place peuvent-elles permettre de faire face aux préoccupations qu'elle a soulevées ?
    Peut-on éviter que le marché de l'IA soit dominé par une poignée d'entreprises puissantes ?
    Si oui, comment peut-on y arriver selon vous ? Quel rôle l'UE doit-elle jouer pour éviter une telle chose ?

    Voir aussi

    La Maison Blanche lance un plan pour promouvoir l'IA éthique et demande l'aide des hackers pour détecter les failles des chatbots d'IA, elle prendra également l'avis des PDG des entreprises d'IA

    L'UE envisagerait des règles très strictes pour les chatbots dans le cadre de son projet de loi sur l'IA, elle devrait exiger la divulgation de l'utilisation du matériel protégé par le droit d'auteur

    « Nous nous dirigeons à grands pas vers un Internet fortement influencé par l'IA, bourré de pépins, de spams et d'escroqueries », affirme un journaliste senior du MIT Technology Review
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  6. #6
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    938
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 938
    Points : 15 562
    Points
    15 562
    Par défaut La Maison Blanche prend de nouvelles mesures pour étudier les risques liés à l'IA
    La Maison Blanche prend de nouvelles mesures pour étudier les risques liés à l'IA, et déterminer les impacts de la technologie sur les travailleurs

    La Maison Blanche a déclaré le mardi 23 mai qu'elle demanderait aux salariés comment leurs employeurs utilisent l'intelligence artificielle (IA) pour les surveiller, alors qu'elle alloue des investissements fédéraux dans la technologie, qui est censée changer la nature du travail.

    La Maison Blanche organisera une session d'écoute avec les travailleurs pour comprendre leur expérience de l'utilisation par les employeurs de technologies automatisées pour la surveillance, le contrôle et l'évaluation. Cet appel inclura des experts du travail à la demande, des chercheurs et des décideurs politiques.

    Des millions d'utilisateurs ont essayé des applications et des outils d'IA, qui selon leurs partisans peuvent établir des diagnostics médicaux, écrire des scénarios, créer des mémoires juridiques et déboguer des logiciels, ce qui a suscité des inquiétudes croissantes quant à la manière dont la technologie pourrait entraîner des violations de la vie privée, fausser les décisions en matière d'emploi et favoriser les escroqueries et les campagnes de désinformation.

    Nom : AI head.png
Affichages : 2198
Taille : 257,4 Ko

    Dans le cadre de son évaluation de la technologie, l'administration annoncera également de nouvelles mesures, notamment une feuille de route actualisée pour les investissements fédéraux dans la recherche sur l'IA, une demande de contribution publique sur les risques liés à l'IA et un nouveau rapport du ministère de l'éducation sur la manière dont l'IA affecte l'enseignement, l'apprentissage et la recherche.

    La séance d'écoute et les nouvelles mesures font suite à une réunion organisée ce mois-ci par le président Joe Biden avec les dirigeants des principales entreprises d'intelligence artificielle, notamment Microsoft et Google, propriété d'Alphabet.

    Cette réunion a mis l'accent sur la nécessité pour les entreprises d'être plus transparentes au sujet de leurs systèmes d'intelligence artificielle et sur l'importance d'évaluer la sécurité de ces produits.

    Le président Biden a également utilisé la technologie et l'a expérimentée, a déclaré la Maison Blanche.

    Peu après que M. Biden a annoncé sa candidature à la réélection, le Comité national républicain a produit une vidéo présentant un avenir dystopique au cours d'un second mandat de M. Biden, entièrement construit à l'aide d'images d'IA.

    De telles publicités politiques devraient se multiplier à mesure que la technologie de l'IA prolifère.

    Source : La Maison Blanche, États-Unis

    Et vous ?

    Quel est votre avis sur le sujet ?

    Que pensez-vous de cette démarche de l'administration Biden ? Trouvez-vous qu'elle est pertinente ?

    Quel est votre avis sur le fait que le gouvernement américain prévoit d'allouer des investissements fédéraux dans la recherche sur l'IA ?

    Voir aussi

    La Maison Blanche lance un plan pour promouvoir l'IA éthique et demande l'aide des hackers pour détecter les failles des chatbots d'IA, elle prendra également l'avis des PDG des entreprises d'IA

    La Maison Blanche dévoile la "déclaration des droits" de l'IA, des directives nationales non contraignantes qui pourraient éclairer les décisions politiques et commerciales futures

    Les États-Unis commencent à étudier la possibilité de réglementer les systèmes d'IA comme ChatGPT, pour garantir que ces technologies soient légales, efficaces, éthiques, sûres et dignes de confiance

    La Maison Blanche met les hackers au défi de casser les meilleurs modèles d'IA, lors de la conférence DEF CON 31
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  7. #7
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    938
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 938
    Points : 15 562
    Points
    15 562
    Par défaut Le Congrès américain va examiner deux nouveaux projets de loi sur l'intelligence artificielle
    Le Congrès américain va examiner deux nouveaux projets de loi sur l'intelligence artificielle, afin de rendre l'utilisation de l'IA plus transparente et assurer que les États-Unis restent compétitifs

    Les sénateurs américains ont présenté le jeudi 8 juin deux projets de loi bipartisans distincts sur l'intelligence artificielle, dans un contexte d'intérêt croissant pour les questions liées à cette technologie.

    L'une d'entre elles obligerait le gouvernement américain à faire preuve de transparence lorsqu'il utilise l'intelligence artificielle pour interagir avec les gens, et l'autre créerait un bureau chargé de déterminer si les États-Unis restent compétitifs dans le domaine des technologies de pointe.

    Les législateurs commencent à réfléchir aux nouvelles règles qui pourraient être nécessaires en raison de l'essor de l'IA. Cette technologie a fait les gros titres au début de l'année lorsque ChatGPT, un programme d'IA capable de répondre à des questions sous forme écrite, est devenu accessible à tous.


    Le sénateur Gary Peters, un démocrate qui préside la commission de la sécurité intérieure, a présenté un projet de loi avec les sénateurs Mike Braun et James Lankford, tous deux républicains, qui exigerait des agences gouvernementales américaines qu'elles informent les citoyens lorsqu'elles utilisent l'IA pour interagir avec eux.

    Le projet de loi exige également que les agences créent un moyen pour les personnes de faire appel de toute décision prise par l'IA.

    "Le gouvernement fédéral doit être proactif et transparent en ce qui concerne l'utilisation de l'IA et veiller à ce que les décisions ne soient pas prises sans que des humains soient aux commandes", a déclaré M. Braun dans un communiqué.

    Les sénateurs Michael Bennet et Mark Warner, tous deux démocrates, ont présenté, avec le sénateur républicain Todd Young, une mesure visant à créer un bureau d'analyse de la concurrence mondiale qui s'assurerait que les États-Unis restent dans le peloton de tête en matière de développement de l'intelligence artificielle.

    "Nous ne pouvons pas nous permettre de perdre notre avantage concurrentiel dans des technologies stratégiques telles que les semi-conducteurs, l'informatique quantique et l'intelligence artificielle au profit de concurrents comme la Chine", a déclaré M. Bennet.

    Peu auparavant, le chef de la majorité au Sénat, Chuck Schumer, a déclaré qu'il avait prévu trois séances d'information sur l'intelligence artificielle à l'intention des sénateurs, dont la première séance d'information classifiée sur le sujet, afin que les législateurs puissent s'informer sur la question.

    Les séances d'information comprennent une présentation générale de l'IA, un examen de la manière dont les États-Unis peuvent devenir des leaders dans le domaine de l'IA et une séance confidentielle sur les questions et les implications en matière de défense et de renseignement.

    Source : Congrès américain

    Et vous ?

    Qu'en pensez-vous ?

    Trouvez-vous que la démarche menée par le Congrès américain est pertinente ?

    Voir aussi

    Les États-Unis commencent à étudier la possibilité de réglementer les systèmes d'IA comme ChatGPT, pour garantir que ces technologies soient légales, efficaces, éthiques, sûres et dignes de confiance

    Les États-Unis lancent une initiative sur l'utilisation de l'IA à des fins militaire, dans un contexte où la Chine ambitionne de devenir la super puissance du monde en matière d'IA

    Un projet de loi bipartisan américain vise à empêcher l'IA de lancer des armes nucléaires sans véritable contrôle humain, il affirme que l'IA ne devrait pas trancher les questions de vie ou de mort

    La Maison Blanche dévoile la "déclaration des droits" de l'IA, des directives nationales non contraignantes qui pourraient éclairer les décisions politiques et commerciales futures

    Le Congrès américain s'équipe de 40 licences de ChatGPT Plus pour expérimenter l'IA générative, principalement pour la « synthèse et la création de contenu », ce qui soulève des questions éthiques
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  8. #8
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    542
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 542
    Points : 9 921
    Points
    9 921
    Par défaut Un général de l'armée américaine affirme que l'IA du Pentagone est plus éthique que celle des adversaires
    « L'IA du Pentagone est plus éthique que celle de ses adversaires en raison du fait que les États-Unis sont une "société judéo-chrétienne" »
    affirme un général de l'armée de l'air américaine

    Un général trois étoiles de l'armée de l'air américaine a déclaré que l'approche adoptée par le Pentagone en matière d'IA est beaucoup plus conforme à l'éthique que celle des pays adversaires des États-Unis. Il a déclaré que l'IA du Pentagone est basée sur un fondement "judéo-chrétien", en particulier les valeurs morales issues du christianisme et du judaïsme. Le général estime que cette approche permet aux États-Unis de développer une IA éthique et responsable qu'ils peuvent utiliser en toute quiétude dans le domaine militaire. Mais sa position fait l'objet de critiques. La question de l'IA éthique est largement débattue et il n'existe actuellement aucun consensus dans l'industrie.

    Jeudi dernier, le lieutenant-général Richard G. Moore Jr., chef d'état-major adjoint de l'armée de l'air des États-Unis pour les plans et les programmes, s'est exprimé sur la manière dont le ministère américain de la Défense (DOD) envisage la guerre autonome, c'est-à-dire une guerre impliquant les systèmes d'armes létales autonomes. Moore a expliqué qu'il s'agit d'une discussion très importante qui se tient aux "plus hauts niveaux" du DOD, mais a également ajouté : « l'avenir de l'IA dans la guerre dépend de ceux qui respectent les règles de la guerre et ceux qui ne les respectent pas. Certaines sociétés ont des fondements très différents des nôtres ».

    À ce propos, le général a déclaré que l'approche des États-Unis en matière d'IA était plus éthique que celle de leurs adversaires parce qu'il s'agit d'une "société judéo-chrétienne". « Quelles que soient vos croyances, notre société est une société judéo-chrétienne et nous avons une boussole morale, mais ce n'est pas le cas de tout le monde. Ce n'est pas le cas de tout le monde. Et il y a ceux qui sont prêts à aller jusqu'au bout, quels que soient les moyens employés », a déclaré Moore. Il n'a pas cité un pays spécifique, mais les États-Unis critiquent régulièrement l'approche de la Chine en matière d'IA. Ils la considèrent comme leur principal adversaire.


    Les commentaires de Moore ont suscité de vives critiques dans la communauté, y compris de l'indignation chez certaines personnes. Ils ont attiré l'attention d'experts qui affirment que "des personnes issues d'un large éventail de traditions religieuses et éthiques peuvent travailler à la résolution des dilemmes posés par l'IA". « "Plus éthique" suggère que seules ses croyances [judéo-chrétiennes] sont supérieures. Ce type ne devrait pas occuper ce poste », a écrit un critique. Un autre affirme : « il vient de priver de leur droit de vote tous les membres du service qui ne sont pas judéo-chrétiens. Une mauvaise représentation du Pentagone et des États-Unis ».

    Les propos du général Moore ont également rouvert les discussions sur le sens même du terme "judéo-chrétien". Pour certains, cette doctrine n'existe tout simplement pas et constitue une invention. Par ailleurs, selon certaines sources, le DOD a adopté une politique en matière de liberté religieuse, reconnaissant que les militaires ont le droit d'observer les principes de leur religion, ou de n'observer aucune religion. Cette politique autoriserait largement le personnel à exprimer ses croyances sincères tant que ces actions n'ont pas un impact négatif sur la préparation militaire, la cohésion de l'unité, le bon ordre et la discipline, ou la santé et la sécurité.

    Dans une déclaration envoyée plus tard par courriel au Washington Post, le général Moore aurait déclaré que si l'éthique de l'IA n'était pas l'apanage des États-Unis, il était peu probable que ses adversaires se basent sur les mêmes valeurs. « Le fondement de mes commentaires était d'expliquer que l'armée de l'air ne permettra pas à l'IA de prendre des mesures ni de prendre des mesures sur la base d'informations fournies par l'IA, à moins que nous puissions garantir que ces informations sont conformes à nos valeurs. Bien que cette position ne soit pas unique à notre société, elle ne devrait pas être celle d'un adversaire potentiel », a déclaré Moore.

    Le général Moore n'a pas précisé à qui il faisait référence en parlant des adversaires des États-Unis, mais une grande partie de l'industrie de la défense américaine s'est concentrée sur les progrès rapides du secteur chinois de l'IA. Des experts américains ont déclaré ce mois-ci à une sous-commission des forces armées de la Chambre des représentants que les États-Unis risquaient de se laisser distancer par la Chine s'ils n'investissaient pas beaucoup plus dans l'IA militaire. Éric Schmidt, ancien PDG de Google, a également mis en garde le DOD. Toutefois, selon les critiques, les valeurs morales varient d'une culture à une autre et ne sauraient donc être comparées.

    « L'approche de l'armée chinoise en matière d'éthique de l'IA est "différente dans ses racines" de celle des États-Unis, mais elle reste attentive aux dilemmes éthiques. Comparer les politiques éthiques des États-Unis et de la Chine revient à comparer des pommes et des oranges, car leur histoire est différente. Les textes sur l'éthique aux États-Unis s'inspirent de penseurs tels qu'Augustin d'Hippone. Les fonctionnaires chinois se réfèrent au marxisme et au léninisme, et le [parti communiste] guide l'éthique », note Mark Metcalf, conférencier à l'université de Virginie et officier de la marine américaine à la retraite. Selon lui, il s'agit d'une approche "très théiste".

    Metcalf précise en outre que cela ne signifie pas pour autant que la Chine ignore les dilemmes éthiques lorsqu'elle envisage l'IA militaire. « L'Armée populaire de libération de la Chine souhaite utiliser la technologie sans porter atteinte au contrôle du Parti communiste. Les objectifs politiques semblent guider les politiques de la Chine. Une fois que le contrôle d'un système d'armement est confié à un algorithme, dans le pire des cas, le parti en perd le contrôle », a écrit Metcalf dans un article analysant les déclarations publiques sur l'approche de la Chine en matière d'utilisation militaire de l'IA. Moore a également été critiqué en dehors des États-Unis.

    Selon Alex John London, professeur d'éthique et de technologies informatiques à l'université Carnegie Mellon, les questions éthiques soulevées par l'IA, y compris en temps de guerre, sont communes à de nombreuses traditions religieuses et philosophiques. « Il y a beaucoup de travaux dans le domaine de l'éthique qui ne sont liés à aucune perspective religieuse et qui se concentrent sur l'importance de la valorisation du bien-être humain, de l'autonomie humaine et des systèmes sociaux justes et équitables. Les préoccupations reflétées dans l'éthique de l'IA sont plus larges que n'importe quelle tradition », a déclaré le professeur John London.

    Enfin, les commentaires de Moore interviennent alors que des représentants du gouvernement américain affirment qu'ils travaillent à l'élaboration de lignes directrices concernant l'utilisation de l'IA dans la guerre. Le département d'État a publié en février une déclaration sur "l'utilisation militaire responsable de l'IA et de l'autonomie". Le DOD a adopté des normes pour l'utilisation éthique de l'IA en 2020 et continue d'appeler à une utilisation éthique et responsable de l'IA dans le domaine militaire.

    Source : billet de blogue

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des déclarations du général américain Richard G. Moore Jr. ?
    Sont-elles fondées ? L'éthique de l'IA dépend-elle d'une doctrine religieuse ?
    Selon vous, peut-on parvenir à un consensus sur l'IA éthique ? Pourquoi ?
    Comment peut-on développer une IA éthique ? Sur quelles valeurs doit-elle être fondée ?

    Voir aussi

    La Maison Blanche lance un plan pour promouvoir l'IA éthique et demande l'aide des hackers pour détecter les failles des chatbots d'IA, elle prendra également l'avis des PDG des entreprises d'IA

    L'Intelligence artificielle chinoise est soumise pour la première fois à des directives éthiques, conformément à l'objectif de Pékin de maîtriser l'influence des grandes entreprises technologiques

    L'UE envisagerait des règles très strictes pour les chatbots dans le cadre de son projet de loi sur l'IA elle devrait exiger la divulgation de l'utilisation du matériel protégé par le droit d'auteur

    Les USA, la Chine et une soixantaine d'autres pays appellent à une utilisation « responsable » de l'IA militaire. Les critiques notent que cette déclaration n'est pas juridiquement contraignante

  9. #9
    Membre éprouvé
    Homme Profil pro
    Consultant informatique
    Inscrit en
    Décembre 2008
    Messages
    106
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 51
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Consultant informatique
    Secteur : Finance

    Informations forums :
    Inscription : Décembre 2008
    Messages : 106
    Points : 907
    Points
    907
    Par défaut
    Associer "armée", "américain" et "éthique" dans la même phrase est du délire. L'armée américaine a tué plus de gens depuis la fin de la seconde guerre mondiale que quiconque: ils ont même déclenché la guerre en Irak sur la base d'un mensonge. Et y mêler la religion c'est du délire *: les religions ont de tout temps servi d'excuses aux pires comportements: pour le christianisme on peut mettre les conversions forcées, les guerres saintes pour délivrer Jérusalem, les guerres contre les protestants, l'inquisition, etc...
    Une IA développée par l'armée américaine c'est le loup dans la bergerie. La dernière en date pour détruire les radars ennemis a choisi de "tuer" le pilote humain qui l'empêchait d'accomplir sa mission et ça a été rapporté par un colonel américain...

    L'enfer est pavé de bonnes intentions Et les armées (américaines ou non) ne sont pas animées par de bonnes intentions...

  10. #10
    Expert éminent Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 565
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 565
    Points : 7 291
    Points
    7 291
    Par défaut
    Citation Envoyé par pboulanger Voir le message
    Associer "armée", "américain" et "éthique" dans la même phrase est du délire. L'armée américaine a tué plus de gens depuis la fin de la seconde guerre mondiale que quiconque: ils ont même déclenché la guerre en Irak sur la base d'un mensonge. Et y mêler la religion c'est du délire *: les religions ont de tout temps servi d'excuses aux pires comportements: pour le christianisme on peut mettre les conversions forcées, les guerres saintes pour délivrer Jérusalem, les guerres contre les protestants, l'inquisition, etc...
    Une IA développée par l'armée américaine c'est le loup dans la bergerie. La dernière en date pour détruire les radars ennemis a choisi de "tuer" le pilote humain qui l'empêchait d'accomplir sa mission et ça a été rapporté par un colonel américain...

    L'enfer est pavé de bonnes intentions Et les armées (américaines ou non) ne sont pas animées par de bonnes intentions...
    En même temps, ils ont dit "plus éthique que les autres", ce qui ne veux pas dire "éthique" (au royaume des aveugles, les borgnes sont rois).

    De toutes les façons, la question n'est pas de savoir si une IA est éthique ou non mais si celui qui s'en sert, l'est. Et je ne connaît aucune armée au monde qui le soit...
    Copier c'est copier; voler c'est vendre un CD une vingtaine d'euros!


    Code C : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    #include <stdio.h>
     
    int main(int argc, char **argv) {
     
        printf("So long, and thanks for the fish, Dennis...\n");
        return 0;
    }

  11. #11
    Invité
    Invité(e)
    Par défaut
    Nul doute que "l'éthique judéo-chrétienne" a fait toute la différence à Hiroshima et Nagasaki.

  12. #12
    Membre éclairé
    Homme Profil pro
    Développeur .NET
    Inscrit en
    Septembre 2014
    Messages
    208
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Développeur .NET
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Septembre 2014
    Messages : 208
    Points : 727
    Points
    727
    Par défaut
    Les dirigeants de Lockheed Martin pensent la même chose j'imagine ?

  13. #13
    Membre expert
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 125
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 125
    Points : 3 458
    Points
    3 458
    Par défaut
    Citation Envoyé par Mathis Lucas Voir le message
    Un général trois étoiles de l'armée de l'air américaine a déclaré que l'approche adoptée par le Pentagone en matière d'IA est beaucoup plus conforme à l'éthique que celle des pays adversaires des États-Unis.
    Je traduis : "notre IA est plus éthique parce qu'on est les gentils, CQFD".
    Je suis fasciné, les guignols de l'info n'auraient pas osé le faire, l'armée US si.

    Honnetement j'aimerais vivre dans leur monde, il est si simple.
    Mon filleul de 4 ans sais construire un raisonnement plus complet que ces gens. Et ils se prétendent les sheriff du monde. Au secours.
    « l'avenir de l'IA dans la guerre dépend de ceux qui respectent les règles de la guerre et ceux qui ne les respectent pas. Certaines sociétés ont des fondements très différents des nôtres ».
    Et vous respectez les regles de la guerre?
    En passant les pays adverses au napalm ou en déclarant la guerre à un pays sur base d'un mensonge que vous avez constuit de toute pièce.
    Pardon j'oublais "Ce napalm et ce mensonge étaient éthiques parce que nous sommes les gentils, CQFD"
    « Quelles que soient vos croyances, notre société est une société judéo-chrétienne et nous avons une boussole morale, mais ce n'est pas le cas de tout le monde. Ce n'est pas le cas de tout le monde. Et il y a ceux qui sont prêts à aller jusqu'au bout, quels que soient les moyens employés », a déclaré Moore.
    Quelle belle autocritique, je suis ému.
    Comment ils ne parlaient pas d'eux?
    Ah bon ils parlaient des méchants Chinois et des méchants Russes (Bienvenue dans les vieux James Bond)? Pardon j'avais pas compris.

  14. #14
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    1 791
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 1 791
    Points : 5 758
    Points
    5 758
    Par défaut
    Ce qu'il y a de magnifique avec les USA, c'est qu'ils se donnent tous les droits qu'ils refusent aux autres:

    • Les Russes n'ont pas le droit de faire une guerre en Ukraine, mais les USA peuvent la faire en Afghanistan, en Irak, en Syrie, etc..
    • Le monde entier doit être soumis au tribunal international de la Haye qui condamne les crimes de guerre, mais pas les USA qui n'ont jamais reconnu cette institution pour eux et n'y ont jamais envoyé un criminel de guerre américain
    • Les USA condamnent les violations des droits humains dans les pays non-démocratiques, mais leur centre de détention de Guantánamo est devenu le symbole des violations de droits humains telles que la torture et la détention illégale
    • Les USA livrent pour des centaines de milliards des armes à l'Ukraine mais reprochent à la Chine de faire commerce avec la Russie
    • Les USA font pression sur les pays qu'ils considèrent être des paradis fiscaux, mais accueillent dans leur propres frontières les paradis fiscaux les plus efficaces du monde avec des états tels que le Delaware ou le Nevada, etc, etc, etc...




    C'est tout même super d'être un pays avec une grande "éthique" morale...

  15. #15
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 605
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 605
    Points : 18 523
    Points
    18 523
    Par défaut
    Citation Envoyé par Mathis Lucas Voir le message
    À ce propos, le général a déclaré que l'approche des États-Unis en matière d'IA était plus éthique que celle de leurs adversaires parce qu'il s'agit d'une "société judéo-chrétienne".
    L'expression judéo-chrétien est un oxymore.
    Pierre Saba – Judéo-Chrétien? !
    Plus qu’un double adjectif, « judéo-chrétien » est un oxymore. Cet assemblage que tout oppose ne résiste ni à la synthèse, ni à l’analyse.

    Il n’est d’élément historique, sociologique, géographique, qui soit « judéo-chrétien ».
    Pour la blague j'ai envie de dire "elle était où l'influence juive quand ils étaient expulsés ?".
    Expulsion des Juifs
    Les expulsions de Juifs sont un élément récurrent et caractéristique de leur histoire.
    Citation Envoyé par Mathis Lucas Voir le message
    Quel est votre avis sur le sujet ?
    Beaucoup d'individus pensent que leur société est la plus éthique.
    Si tu demandes à quelqu'un qui a du pouvoir en Arabie Saoudite, il va dire que la charia c'est tip top, que sa civilisation est la meilleure.
    Si tu demandes à Benyamin Netanyahou, il va dire que les juifs sont supérieurs aux autres humains.

    Dans l'histoire des USA la religion chrétienne a eu beaucoup d'influence.
    Le président élu n'est pas obligé de jurer sur la bible, pourtant certains le font.

    Bon après c'est n'importe d'utiliser la religion pour justifier des guerres, comme ça par exemple :
    George W. Bush parle avec Dieu
    “C’est Dieu qui m’a ordonné de mettre fin à la tyrannie en Irak”, aurait déclaré en 2003 George W. Bush, quatre mois après l’invasion. Selon la BBC, le président américain s’exprimait devant une délégation palestinienne lors d’un sommet israélo-palestinien en Egypte. Lors de ce discours, George W. Bush annonçait aussi : “Dieu m’a dit : ‘George, va combattre ces terroristes en Afghanistan’.” Et Dieu aurait ajouté : “Va donner aux Palestiniens un Etat et la paix aux Israéliens, et donne la paix au Proche-Orient.”
    Keith Flint 1969 - 2019

  16. #16
    Nouveau membre du Club
    Homme Profil pro
    Backend lover
    Inscrit en
    Mai 2023
    Messages
    5
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Ain (Rhône Alpes)

    Informations professionnelles :
    Activité : Backend lover
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Mai 2023
    Messages : 5
    Points : 26
    Points
    26
    Par défaut
    Dormez braves gens, les USA sont les protecteurs de la liberté, la paix c'est la guerre.

  17. #17
    Expert confirmé Avatar de sergio_is_back
    Homme Profil pro
    Responsable informatique, développeur tout-terrain
    Inscrit en
    Juin 2004
    Messages
    1 086
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 55
    Localisation : France, Puy de Dôme (Auvergne)

    Informations professionnelles :
    Activité : Responsable informatique, développeur tout-terrain
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Juin 2004
    Messages : 1 086
    Points : 5 606
    Points
    5 606
    Par défaut
    Visiblement être général n'empêche pas d'être un con !!!

  18. #18
    Membre émérite
    Homme Profil pro
    Étudiant
    Inscrit en
    Novembre 2021
    Messages
    1 061
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Novembre 2021
    Messages : 1 061
    Points : 2 855
    Points
    2 855
    Par défaut
    Cette analyse, en plus d'être pourri, est ridicule : depuis quand les Russes ne sont pas issus d'une culture judéo-chrétienne ?

    Ah oui mais ce ne sont probablement pas des "bon chrétiens"

    De plus, cet argumentaire, en plus d'être parfaitement ridicule, est dangereux, car il peut aussi servir à excuser des crimes de guerres. On fait la guerre dans un pays qui n'est pas judéo-chrétien ? Pas de problème, la vie humaine vaut moins dans ce cas. D'ailleurs ce n'était pas très loin de ça avec Bush.

  19. #19
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    1 791
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 1 791
    Points : 5 758
    Points
    5 758
    Par défaut
    Citation Envoyé par OrthodoxWindows Voir le message
    De plus, cet argumentaire, en plus d'être parfaitement ridicule, est dangereux, car il peut aussi servir à excuser des crimes de guerres.
    Trouver des excuses à ses crimes de guerre? Là, vous faites erreur, les USA ne s'excusent jamais, surtout pas pour les crimes de guerres qu'ils ont commis.

    Vous avez entendu parlé des bombes nucléaires américaines sur les villes d’Hiroshima et Nagasaki? De l'épandage à grande échelle de l'agent orange lors de la guerre du Vietnam? Du bombardement de la Serbie pendant 78 jours par l'OTAN sans l'accord de l'ONU en prenant pour cible les infrastructure civiles tels que les ponts, les usines électriques, etc? Du déclenchement de la 2ème guerre contre l'Irak en inventant de toute pièce l'existence d'armes de destruction massives? De l'invasion de l'Afghanistan en prenant pour excuse l'attentat des Tours Jumelles de New York alors que les terroristes étaient issus d'Arabie Saoudite, d'Egypte, du Pakistan mais pas un seul d'Afghanistan?

    Est-ce que depuis ces exemples, vous avez entendu une seule fois un début d'excuse des USA?

  20. #20
    Membre confirmé
    Inscrit en
    Mai 2008
    Messages
    177
    Détails du profil
    Informations forums :
    Inscription : Mai 2008
    Messages : 177
    Points : 488
    Points
    488
    Par défaut
    « L'IA du Pentagone est plus éthique que celle de ses adversaires en raison du fait que les États-Unis sont une "société judéo-chrétienne" »
    Rien de neuf, et ce n'est pas valable que pour les US. On entends ça tous les jours sur CNews...

    Citation Envoyé par Anselme45 Voir le message
    Trouver des excuses à ses crimes de guerre? Là, vous faites erreur, les USA ne s'excusent jamais, surtout pas pour les crimes de guerres qu'ils ont commis.

    Vous avez entendu parlé des bombes nucléaires américaines sur les villes d’Hiroshima et Nagasaki? De l'épandage à grande échelle de l'agent orange lors de la guerre du Vietnam? Du bombardement de la Serbie pendant 78 jours par l'OTAN sans l'accord de l'ONU en prenant pour cible les infrastructure civiles tels que les ponts, les usines électriques, etc? Du déclenchement de la 2ème guerre contre l'Irak en inventant de toute pièce l'existence d'armes de destruction massives? De l'invasion de l'Afghanistan en prenant pour excuse l'attentat des Tours Jumelles de New York alors que les terroristes étaient issus d'Arabie Saoudite, d'Egypte, du Pakistan mais pas un seul d'Afghanistan?

    Est-ce que depuis ces exemples, vous avez entendu une seule fois un début d'excuse des USA?
    Un peu d'ojectivité ne fait pas de mal. Ils ont une quand même une société civile et un semblant de justice comparé à d'autres.

Discussions similaires

  1. Réponses: 0
    Dernier message: 06/02/2020, 08h28
  2. Répartition de Windows Phone : les États-Unis représentent 11%
    Par Hinault Romaric dans le forum Windows Phone
    Réponses: 1
    Dernier message: 11/07/2014, 12h41
  3. Les États-Unis attaquent la Chine en justice pour cyberespionnage
    Par Hinault Romaric dans le forum Actualités
    Réponses: 55
    Dernier message: 16/06/2014, 21h30
  4. Réponses: 9
    Dernier message: 30/05/2013, 19h48
  5. Réponses: 43
    Dernier message: 27/06/2011, 13h59

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo