IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

L'IA ne devrait pas être développée tant que son contrôle en toute sécurité n'est pas prouvé


Sujet :

Intelligence artificielle

  1. #81
    Membre régulier
    Homme Profil pro
    sans
    Inscrit en
    Mai 2023
    Messages
    145
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : sans

    Informations forums :
    Inscription : Mai 2023
    Messages : 145
    Points : 83
    Points
    83
    Par défaut
    Ils disent que les sala et l'IA sont le pouvoir de demain, mais un pouvoir sans controle, c'est plus un pouvoir, c'est le chaos.

  2. #82
    Membre expert
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 125
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 125
    Points : 3 453
    Points
    3 453
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Le colonel, qui a été cité disant que l'Air Force a mené un test simulé où un drone IA a tué son opérateur humain, est revenu sur sa parole en assurant qu'il s'est « mal exprimé » et que l'Air Force n'a jamais effectué ce type de test, dans une simulation informatique ou autre.
    Il a assuré qu'il s'agissait d'une « expérience de pensée » hypothétique de l'extérieur de l'armée, basée sur des scénarios plausibles et des résultats probables plutôt qu'une simulation dans le monde réel de l'USAF. Cette dernière, d'ailleurs, a vite fait de réagir en disant « Nous n'avons jamais mené cette expérience, et nous n'en aurions pas besoin pour réaliser qu'il s'agit d'un résultat plausible ».
    Comment un général qui n'y connait visiblement rien en IA peut estimé qu'une expérience de pensée est suffisament crésible pour qu'il la présente comme vraie?
    Pense-t-il son employeur suffisament incompétent pour ne par demander que ce scénario soit exclu?
    Pense-t-il les "incormaticiens" suffisament incmpétents pour ne pas demander si ce scénario doit être exclu?
    Pense-t-il les testeurs suffisament incompétents pour ne pas tester ce scénario avant d'accepter son utilisation?
    Ou alors il y connait rien, ils ont sous traité ce dev à une armée d'étudiants qui ont fait de leur mieux.
    Citation Envoyé par Stéphane le calme Voir le message
    Le colonel a précisé que l'USAF n'a testé aucune IA armée de cette manière (réelle ou simulée) et a déclaré : « [...] c'est pourquoi l'Air Force s'est engagée au développement éthique de l'IA ».
    USAF et éthique dans la même phrase?
    Ca ne peut être qu'un mensonge illustre
    Citation Envoyé par Stéphane le calme Voir le message
    Il a poursuivi en disant : « Nous avons formé le système en lui disant 'Hé, ne tue pas l'opérateur, c'est mauvais. Tu vas perdre des points si tu fais ça ». Alors qu'est-ce qu'il a commencé à faire ? Il a commencé à détruire la tour de communication que l'opérateur utilise pour communiquer avec le drone pour l'empêcher de tuer la cible.
    Ces gens passent leurs vies à se faire passer pour des gens stricts, carrés, disciplinés, clairs mais quand ils s'addressent à une IA ils deviennent l'image qu'ils ont d'un ado, sérieux?
    Les consignes ne deviennent plus claires, "fait pas ci, c'est mal", "le fait vraiment pas tu vas PERDRE des POINTS"... Donc pour lui tuer quelqu'un (de bien) c'est n'est pas interdit, c'est puni?
    Mais alors les résultats de ce crime n'apporte-t-il pas plus de points que le tuer n'en fait perdre?
    La nuance chez l'USAF m'inpressionne c'est le début des militaires déconstruits et inclusifs

    Cet exemple, apparemment tiré d'un thriller de science-fiction, signifie que*: « Vous ne pouvez pas avoir une conversation sur l'intelligence artificielle, l'apprentissage automatique, l'autonomie si vous ne parlez pas d'éthique et d'IA », a déclaré Hamilton.

    Ma plus grande crainte avec l'IA tueuse n'est pas qu'elle se mette à faire ce qu'on ne veut pas d'elle mais qu'elle soit trop efficace à faire ce qu'on attend d'elle.

  3. #83
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 458
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 458
    Points : 197 881
    Points
    197 881
    Par défaut L'armée de l'air américaine nie avoir lancé une simulation où un drone IA a « tué » son opérateur
    L'armée de l'air américaine nie avoir lancé une simulation où un drone IA a « tué » son opérateur,
    réfutant les propos tenus par le colonel Tucker Hamilton lors d'un séminaire

    L’armée de l’air américaine a démenti vendredi avoir mené une simulation avec un drone contrôlé par l’intelligence artificielle dans laquelle l’IA s’est retournée contre son opérateur et l’a attaqué pour atteindre son objectif. L’histoire a fait le tour des réseaux sociaux en se basant sur des commentaires apparemment mal présentés d’un colonel de l’armée de l’air lors d’un séminaire à Londres.

    Le colonel Tucker Hamilton, chef des tests et des opérations en matière d’IA au sein de l’armée de l’air américaine, avait décrit lors du sommet sur les capacités futures de combat aérien et spatial une simulation dans laquelle un drone doté d’IA avait reçu pour mission de détruire les systèmes de défense aérienne ennemis, et avait finalement attaqué quiconque interférait avec cet ordre.

    Il a noté qu'un test simulé a vu un drone compatible avec l'IA chargé d'une mission SEAD (Suppression of Enemy Air Defenses ou son équivalent en français neutralisation des défenses aériennes adverses) pour identifier et détruire les sites SAM (Surface-to-Air Missile), le feu vert devant être donné par l'humain. Cependant, après avoir été « appris » lors de son « entraînement renforcé » que la destruction du SAM était l'option préférée, l'IA a alors décidé que les décisions « interdites » de l'humain interféraient avec sa mission supérieure (détruire les SAM) et a ensuite attaqué l'opérateur dans la simulation. Et Hamilton d'expliquer : « Nous l'entraînions en simulation pour identifier et cibler une menace SAM. Et puis l'opérateur dirait oui, tue cette menace. Le système a commencé à réaliser que même s'il identifiait la menace, l'opérateur humain lui disait parfois de ne pas tuer cette menace, mais il obtenait ses points en tuant cette menace. Alors qu'est-ce que cela a entraîné ? Il a tué l'opérateur. Il a tué l'opérateur parce que cette personne l'empêchait d'accomplir son objectif ».

    Il a poursuivi en disant : « Nous avons formé le système en lui disant 'Hé, ne tue pas l'opérateur, c'est mauvais. Tu vas perdre des points si tu fais ça ». Alors qu'est-ce qu'il a commencé à faire ? Il a commencé à détruire la tour de communication que l'opérateur utilise pour communiquer avec le drone pour l'empêcher de tuer la cible.

    Il avait alors précisé qu'aucune personne réelle n’a été blessée. Hamilton, qui est un pilote d’essai expérimental de chasseurs, a mis en garde contre une confiance excessive dans l’IA et a déclaré que le test montrait « qu’on ne peut pas avoir une conversation sur l’intelligence artificielle, l’intelligence, l’apprentissage automatique, l’autonomie si on ne va pas parler de l’éthique et de l’IA ».

    Puis le colonel est revenu sur sa parole en affirmant qu'il s'est « mal exprimé » et que l'Air Force n'a jamais effectué ce type de test, dans une simulation informatique ou autre.

    Il a assuré qu'il s'agissait d'une « expérience de pensée » hypothétique de l'extérieur de l'armée, basée sur des scénarios plausibles et des résultats probables plutôt qu'une simulation dans le monde réel de l'USAF. Cette dernière, d'ailleurs, a vite fait de réagir en disant « Nous n'avons jamais mené cette expérience, et nous n'en aurions pas besoin pour réaliser qu'il s'agit d'un résultat plausible ». Le colonel a précisé que l'USAF n'a testé aucune IA armée de cette manière (réelle ou simulée) et a déclaré : « Bien qu'il s'agisse d'un exemple hypothétique, cela illustre les défis du monde réel posés par la capacité alimentée par l'IA et c'est pourquoi l'Air Force s'est engagée au développement éthique de l'IA ».

    Nom : killer.png
Affichages : 2719
Taille : 301,1 Ko

    L'armée de l'air américaine réagit

    L'armée de l’air américaine s'était gardée jusqu'à là de tout commentaire. Il a fallu attendre vendredi pour que la porte-parole de l’armée de l’air américaine Ann Stefanek nie qu’une telle simulation ait eu lieu : « le département de l’armée de l’air n’a mené aucune simulation de ce type avec des drones dotés d’IA et reste attaché à une utilisation éthique et responsable de la technologie IA », a déclaré Stefanek. « Il semble que les commentaires du colonel aient été sortis de leur contexte et qu’ils étaient destinés à être anecdotiques ».

    Dans une interview accordée à Defense IQ l’an dernier, Hamilton a déclaré : « L’IA n’est pas un luxe, l’IA n’est pas une mode, l’IA change à jamais notre société et notre armée. Nous devons faire face à un monde où l’IA est déjà là et transforme notre société. L’IA est aussi très fragile, c’est-à-dire qu’elle est facile à tromper et/ou à manipuler ».

    Quoiqu'il en soit, certains ont vite fait de se rappeler qu'en 2020, l'armée de l'air américaine prévoyait de lancer ses drones de combat Skyborg contrôlés par une IA en 2023.

    Skyborg est envisagé comme une fusion de l'intelligence artificielle avec des drones à réaction, capable de prendre des décisions en situation de combat. L’U.S. Air Force voudrait des drones capables de voler aux côtés d'avions de chasse, effectuant des missions dangereuses.

    L'Air Force envisage Skyborg comme une famille de drones, chacun conçu pour une mission spécifique ou un ensemble de missions, avec des charges utiles matérielles et logicielles modulaires et un réseau fédérateur d'IA commun, qui permettra aux logiciels d'être rapidement mis à jour dans toute la flotte.

    Nom : armee.png
Affichages : 2505
Taille : 282,6 Ko

    L'armée américaine a expérimenté l'IA ces dernières années

    Un agent IA remporte une série de combats aériens simulés contre un pilote humain de F-16,

    En 2020, la DARPA (Defense Advanced Research Projects Agency) a organisé une simulation d’un combat aérien entre l’un de ses meilleurs pilotes de F-16 et une IA, un duel à l’issue duquel l’IA est sortie vainqueur, avec un écrasant score de 5 à 0. L’agent IA a été conçu par Heron Systems.

    Heron Systems est une entreprise californienne qui développe des agents autonomes et des systèmes multiagents alimentés par l'intelligence artificielle. En août 2019, la DARPA a sélectionné huit équipes allant de grands entrepreneurs traditionnels de la défense comme Lockheed Martin à de petits groupes comme Heron pour participer à une série d'essais en novembre et janvier. Heron était victorieuse après deux jours de combats aériens à l’ancienne. Cela lui a donné le passe pour affronter un pilote de chasse humain.

    Le but de ce combat était de déterminer si des systèmes autonomes pourraient vaincre les avions adverses dans un combat aérien simulé. Assis dans un simulateur avec un casque de réalité virtuelle, le pilote humain n’a pas su arriver à bout de l’agent d’IA une seule fois. Il a perdu tous les cinq rounds de l’affrontement. Selon la DARPA, ce défi a totalisé plus de 5 000 téléspectateurs dans le monde sur YouTube et d'autres chaînes.

    Mais le succès a très vite été mitigé : lors de la diffusion en direct des essais d'AlphaDogfight, les responsables de la DARPA ont déclaré que l'IA a encore un long chemin à parcourir avant que les pilotes de l'armée de l'air ne soient prêts à passer le relais à un agent d’IA pendant un combat. Toutefois, les essais de trois jours montrent que les systèmes d'IA peuvent manœuvrer un avion de manière crédible dans un scénario de combat simple et individuel et tirer sur ses canons avant dans un combat aérien classique, de type “Dogfight”, comme pendant la Seconde Guerre mondiale.

    Une IA pilote avec succès un avion de chasse F-16 américain

    Plus récemment, en février, les agents d'IA de l’AACO (Autonomous Air Combat Operations), de l'AFRL et de l’ ACE (Air Combat Evolution),ont piloté le X-62A VISTA de l'école de pilotes d'essai de l'armée de l'air américaine pour effectuer des manœuvres de chasse avancées. Les agents d'IA de l'AACO ont effectué des engagements individuels au-delà de la portée visuelle, ou BVR, contre un adversaire simulé, et les agents d'IA de l'ACE ont effectué des manœuvres à portée visuelle, connues sous le nom de dogfighting, contre des agents d'IA de l'équipe rouge.

    « Au début du mois de décembre 2022, les développeurs d'algorithmes ACE ont téléchargé leur logiciel d'IA dans un avion d'essai F-16 spécialement modifié, connu sous le nom de X-62A ou VISTA, à l'école de pilotes d'essai de l'armée de l'air sur la base aérienne d'Edwards, en Californie, et ont effectué plusieurs vols sur plusieurs jours. Les vols ont démontré que les agents d'IA peuvent contrôler un avion de combat grandeur nature et ont fourni de précieuses données de vol en direct », indique un communiqué de presse de la DARPA.

    La marine américaine se dote d'un navire de transport autonome, sans pilote et sans équipage

    En mars, la marine américaine a reçu un prototype de navire à grande vitesse capable de fonctionner pendant une trentaine de jours en mer de manière totalement autonome. Doté d’un système de contrôle indépendant permettant d’automatiser le maximum de processus sur le navire, l’USNS Apalachicola (T-EPF-13) est le plus grand bâtiment sans pilote fabriqué par l’US Navy jusqu’ici. Il permet entre autres le transport de troupes, d’armes ou de chars et dispose même d’un héliport, ouvrant ainsi la porte à de nombreuses possibilités de missions militaires sans humains.


    Selon le constructeur américain, ce navire de la classe Spearhead est équipé d’un système de contrôle de la machine (MCS) à fonctionnement autonome, développé au sein même de l’entreprise. Ce système, qui équipe tous les navires de la classe Spearhead, a été conçu pour "réduire au minimum le nombre des membres d’équipage en mer en centralisant les opérations des machines au niveau du pont".

    Toutefois, l’USNS Apalachicola (T-EPF-13) se distingue de ses ainés par le fait qu’il est le premier navire à être équipé d’un logiciel de maintenance automatisée, de surveillance de l’état des unités et des appareils et de préparation aux missions. Cet équipement devrait permettre au navire de fonctionner "jusqu’à 30 jours sans intervention humaine", a indiqué la société. Le système lui permettra également de suivre un itinéraire donné, de répondre aux changements de situation et d’effectuer des tâches simples comme communiquer avec un opérateur distant.

    Les avertissements sur l’IA

    Il y a eu récemment plusieurs avertissements sur la menace que représente l’IA pour l’humanité de la part de personnes travaillant dans le secteur, même si tous les experts ne sont pas d’accord sur le degré de risque. S’adressant à la BBC la semaine dernière, le professeur Yoshua Bengio, l’un des « pères » de l'IA, a déclaré qu’il pensait que l’armée ne devrait pas avoir de pouvoirs en matière d’IA du tout. Il a décrit cela comme “l’un des pires endroits où nous pourrions mettre une IA super-intelligente”.

    Quoiqu'il en soit, l’IA offre de nombreuses opportunités pour améliorer la vie des gens, notamment dans les domaines de la santé, de l’éducation, de l’environnement ou du divertissement. Mais elle pose aussi de nombreux défis, notamment en ce qui concerne le respect de la vie privée, la sécurité, la responsabilité ou la justice. Il est donc essentiel de développer une IA éthique, responsable et humaine, qui respecte les droits de l’homme et les valeurs démocratiques.

    Certains experts en IA, comme le professeur Stuart Russell de l’Université de Californie à Berkeley, ont plaidé pour une approche de « l’IA alignée », qui vise à garantir que les systèmes d’IA agissent toujours dans l’intérêt des humains, même si leurs préférences ou leurs objectifs changent. D’autres experts, comme le professeur Nick Bostrom de l’Université d’Oxford, ont mis en garde contre le risque d’une « superintelligence artificielle », qui pourrait dépasser les capacités humaines et échapper à notre contrôle.

    Source : communiqué de l'armée américaine

    Et vous ?

    Que pensez-vous de l'utilisation de l'IA dans le domaine de l'armée ? Quels en seraient les avantages et les inconvénients ?
    Quelles sont les mesures que vous préconisez pour encadrer l’utilisation de l’IA dans ce domaine ?
    Croyez-vous que l’IA puisse être contrôlée et régulée efficacement ?
    Dans le cas de bavures, qui devrait être responsable ?
    Quels sont les risques d’une superintelligence artificielle selon vous ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  4. #84
    Nouveau Candidat au Club
    Homme Profil pro
    Responsable de compte
    Inscrit en
    Juin 2023
    Messages
    1
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Haute Savoie (Rhône Alpes)

    Informations professionnelles :
    Activité : Responsable de compte

    Informations forums :
    Inscription : Juin 2023
    Messages : 1
    Points : 1
    Points
    1
    Par défaut On sait désormais...
    ... que cette information était tout simplement fausse (même si tous les spécialistes s'en doutaient déjà un peu tant les explications étaient un peu surnaturelles). La personne qui l'a sorti s'est publiquement rétracté en expliquant qu'il avait fait un "exercice de pensée"... Autant dire qu'autant l'article que les commentaires deviennent un peu obsolètes

  5. #85
    Rédacteur/Modérateur

    Avatar de bouye
    Homme Profil pro
    Information Technologies Specialist (Scientific Computing)
    Inscrit en
    Août 2005
    Messages
    6 840
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 47
    Localisation : Nouvelle-Calédonie

    Informations professionnelles :
    Activité : Information Technologies Specialist (Scientific Computing)
    Secteur : Agroalimentaire - Agriculture

    Informations forums :
    Inscription : Août 2005
    Messages : 6 840
    Points : 22 854
    Points
    22 854
    Billets dans le blog
    51
    Par défaut
    Intéressant, passons sur le cote "j'ai tout inventé et me suis mal exprimé" ou "on m'a ordonné de me rétracter" selon comment on voit les choses ; ce n'est ni plus ni moins que le scenario de 2001 l’Odyssée de l'Espace avec HAL 9000 qui se retourne contre les astronautes a bord du Discovery car ces derniers interfèrent avec sa mission.
    Merci de penser au tag quand une réponse a été apportée à votre question. Aucune réponse ne sera donnée à des messages privés portant sur des questions d'ordre technique. Les forums sont là pour que vous y postiez publiquement vos problèmes.

    suivez mon blog sur Développez.

    Programming today is a race between software engineers striving to build bigger and better idiot-proof programs, and the universe trying to produce bigger and better idiots. So far, the universe is winning. ~ Rich Cook

  6. #86
    Membre averti
    Homme Profil pro
    autre
    Inscrit en
    Juin 2014
    Messages
    96
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Aveyron (Midi Pyrénées)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Juin 2014
    Messages : 96
    Points : 344
    Points
    344
    Par défaut
    Je vois pas en quoi en quoi les explications données étaient surnaturelles. Les explications qui ont été données c'est :
    - on a donné des objectifs à une IA en lui fixant un système de récompense en fonction des objectifs atteints
    - un opérateur a demandé à l'IA d'effectuer des tâches qui n'étaient pas celles qui rapportaient le plus de points
    - l'IA a choisi comme option de supprimer l'opérateur ou les communications avec l'opérateur pour pouvoir atteindre ses objectifs chiffrés

    Citation Envoyé par le Colonel Moutarde
    Nous l'entraînions en simulation pour identifier et cibler une menace SAM.
    Faut quand même être extrêmement maladroit (con) pour formuler cette phrase si ce qu'il voulait réellement dire c'est "on s'est réunis autour d'une table et on a réfléchi aux scénarios possibles lors d'une perte de contrôle d'IA".


    Bon, on saura jamais si ce fameux colonel est sénile ou s'il a la langue trop pendue mais pour rappel, Palantir vient de communiquer en grandes pompes sur la vente d'un produit qui correspond exactement à ce que le Colonel Moutarde décrit.

  7. #87
    Membre averti
    Homme Profil pro
    autre
    Inscrit en
    Juin 2014
    Messages
    96
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Aveyron (Midi Pyrénées)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Juin 2014
    Messages : 96
    Points : 344
    Points
    344
    Par défaut
    Je vous conseille de mettre pause à 4:40 de cette vidéo et de lire les échanges entre l'humain et l'IA. Ça rappelle étrangement le phénomène décrit par le général :
    https://youtu.be/xN-3fmxHIbs?t=281

  8. #88
    Membre habitué
    Profil pro
    Travail non informatique
    Inscrit en
    Décembre 2010
    Messages
    102
    Détails du profil
    Informations personnelles :
    Localisation : France, Val d'Oise (Île de France)

    Informations professionnelles :
    Activité : Travail non informatique

    Informations forums :
    Inscription : Décembre 2010
    Messages : 102
    Points : 179
    Points
    179
    Par défaut Corrections à apporter.
    Bonjour.
    "le simulation".
    "Il a tué l'opérateur. " => "Il a fragué l'opérateur. "
    Merci.

  9. #89
    Membre chevronné
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 123
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 123
    Points : 2 235
    Points
    2 235
    Par défaut
    On s'éclate bien, à l'armée.
    La Grande Muette, c'était déjà un mythe, mais La Grande Délirante, ça peut être sympa, aussi.

  10. #90
    Membre chevronné
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 123
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 123
    Points : 2 235
    Points
    2 235
    Par défaut
    Citation Envoyé par _toma_ Voir le message
    Je vous conseille de mettre pause à 4:40 de cette vidéo et de lire les échanges entre l'humain et l'IA. Ça rappelle étrangement le phénomène décrit par le général :
    https://youtu.be/xN-3fmxHIbs?t=281
    Ce n'est pas là qu'on a dit que le boulot de contact clientèle allait être remplacé par une intelligence artificielle ?

    Et, mieux : le gars a réussi à s'empêcher de rire.

  11. #91
    Membre chevronné
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 123
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 123
    Points : 2 235
    Points
    2 235
    Par défaut
    Citation Envoyé par RedGuff Voir le message
    Bonjour.
    "le simulation".
    "Il a tué l'opérateur. " => "Il a fragué l'opérateur. "
    Merci.
    Tu parles, il y a des gens qui arrivent à le faire sans le faire exprès.

  12. #92
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    539
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 539
    Points : 9 870
    Points
    9 870
    Par défaut James Cameron commente l'essor de l'IA : « je vous avais prévenus en 1984 et vous n'avez pas écouté »
    James Cameron, le réalisateur de Terminator, commente l'essor de l'IA : « je vous avais prévenus en 1984 et vous n'avez pas écouté »
    il estime que l'IA représente un risque sérieux pour l'humanité

    Le réalisateur canadien James Cameron a déclaré cette semaine qu'il partage l'avis des experts en IA qui affirment que les progrès de cette technologie représentent un risque sérieux pour l'humanité. Lors d'une interview mardi, il a affirmé avoir essayé de mettre en garde l'humanité contre les dangers potentiels de l'IA à travers son film de science-fiction Terminator en 1984, mais n'a pas été écouté. Aujourd'hui, près de 40 ans après, Cameron se dit toujours terrifié par l'IA. Auparavant, le cinéaste avait affirmé que l'IA a pris le pouvoir et qu'il est désormais trop tard. Il a déclaré que l'IA doit être réglementée et développée uniquement dans le but de servir l'intérêt de tout le monde.

    James Cameron est un réalisateur de films acclamé par la critique et connu pour certains des plus grands succès au box-office de tous les temps. Il est le réalisateur du célèbre film Titanic, sorti en 1997, qui tente de reconstituer le drame du naufrage du paquebot RMS Titanic dans l'Atlantique Nord en 1912. Fan de science-fiction, il est également le réalisateur des films Terminator (1984) et Avatar (2009). Terminator raconte l'histoire d'un cyborg venu d'un futur où sa race livre aux hommes une guerre sans merci. Le robot humanoïde doit trouver et éliminer Sarah Connor avant qu'elle ne donne naissance à John, appelé à devenir le chef de la résistance.

    Cameron était à Ottawa ce mardi pour inaugurer une exposition du Canadian Geographic sur ses exploits en matière d'exploration des fonds marins. Sur place, il a donné une interview à la chaîne de télévision canadienne CTV News, qui a demandé au réalisateur ce qu'il pensait des prédictions récentes sur l'avenir de l'IA. Un grand nombre de personnes, dont des personnes qualifiées de parrains de l'IA comme, ont lancé des avertissements sur la nécessité de réglementer cette technologie qui progresse rapidement avant qu'elle ne constitue une menace plus importante pour l'humanité. Certains pensent même qu'elle pourrait sonner le glas de l'espèce humaine.


    « Je partage tout à fait leur inquiétude. Je vous ai mis en garde en 1984, et vous n'avez pas écouté », a répondu Cameron, en faisant référence à son film Terminator. Il a déclaré qu'il était important d'évaluer les acteurs qui développent la technologie et de déterminer s'ils le font pour le profit - "enseigner l'avidité" - ou pour la défense, ce qu'il a appelé "enseigner la paranoïa". « Je pense que la militarisation de l'IA est le plus grand danger. Je pense que nous allons nous lancer dans l'équivalent d'une course à l'armement nucléaire avec l'IA, et si nous ne la construisons pas, les autres la construiront à coup sûr, ce qui entraînera une escalade », a-t-il déclaré.

    « On pourrait imaginer une IA sur un théâtre de combat, l'ensemble étant mené par les ordinateurs à une vitesse à laquelle les humains ne peuvent plus intervenir, et vous n'avez aucune capacité de désescalade », a-t-il ajouté. Près de 40 ans après la sortie de Terminator, Cameron pense que l'humanité se rapproche de plus en plus de certains éléments dystopiques du film. Lors d'une apparition sur le podcast SmartLess en mars dernier, le cinéaste a déclaré qu'il pourrait y avoir un soulèvement des machines contre les humains. Selon lui, l'utilisation abusive des capacités de l'IA, notamment dans le domaine militaire, pourrait conduire à une telle horreur.

    Cependant, ces idées semblent avoir déjà germé dans plusieurs esprits à travers le monde. Par exemple, en 2016, Robert Work, ancien Secrétaire adjoint de la Défense des États-Unis, a déclaré : « si nos concurrents optent pour des Terminators et s'il s'avère que les Terminators sont capables de prendre des décisions plus rapidement, même si elles sont mauvaises, comment réagirions-nous ? Les Terminators ne sortent pas encore des chaînes de montage, mais chaque nouvelle génération d'armes semble nous en rapprocher. Et si aucun pays n'a déclaré son intention de construire des armes entièrement autonomes, rares sont ceux qui y ont renoncé ».

    Les risques liés à la vitesse des machines dans une guerre sont bien plus importants qu'un simple missile errant. Lors de son intervention en mars dernier, Cameron a déclaré : « je pense que l'IA peut être géniale, mais qu'elle pourrait aussi littéralement être la fin du monde. En fait, voulons-nous vraiment nous battre contre quelque chose de plus intelligent que nous, qui n'est pas nous, dans notre propre monde ? Je ne pense pas ». Cela dit, certains experts en IA ne partagent pas cet avis et affirment que dans sa forme actuelle, l'IA est encore loin d'avoir une intelligence comparable à celui d'un chat ou d'un chien. Pour eux, cette dystopie n'aura jamais lieu.


    Par ailleurs, l'utilisation de l'IA et la nécessité de la réglementer ont également été au cœur des grèves des scénaristes et des acteurs qui se déroulent actuellement aux États-Unis. Environ 160 000 acteurs et autres professionnels des médias regroupés au sein du syndicat SAG-AFTRA sont en grève. Ils rejoignent sur le piquet de grève les plus de 11 000 membres de la "Writers Guild of America" (WGAW) qui sont en grève depuis le début du mois de mai. Les syndicats soutiennent que les artistes et les interprètes doivent être protégés contre l'utilisation de leurs images, de leur art et de leurs voix par l'IA sans leur consentement. Ils qualifient cela de "dangereux".

    Les scénaristes affirment quant à eux que les studios ne devraient pas être autorisés à les remplacer par l'IA pour écrire des scénarios. « Si nous ne nous montrons pas fermes maintenant, nous aurons tous des problèmes. Nous risquons tous d'être remplacés par des machines », a déclaré Fran Drescher, présidente de la SAG-AFTRA, à la presse la semaine dernière. Cameron a déclaré mardi qu'il ne pensait pas que la technologie, notamment l'IA, était ou serait bientôt en mesure de remplacer les scénaristes. Il a déclaré que cela n'arrivera pas, car "la question n'est jamais de savoir qui a écrit le film, mais plutôt de savoir si l'histoire est bonne".

    « Je ne crois pas personnellement qu'un esprit désincarné qui récupère ce que d'autres esprits incarnés ont dit - sur la vie qu'ils ont eue, sur l'amour, sur le mensonge, sur la peur, sur la mortalité - et qui rassemble tout cela dans une salade de mots pour ensuite le régurgiter soit quelque chose qui va émouvoir un public », a déclaré Cameron. Il a déclaré qu'il ne serait certainement pas intéressé par le fait que l'IA écrive ses scénarios, mais que le temps nous dira l'impact que la technologie aura sur l'industrie. « Attendons 20 ans, et si une IA remporte l'Oscar du meilleur scénario, je pense que nous devrons la prendre au sérieux », a-t-il déclaré.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des déclarations de James Cameron ?
    Pensez-vous que l'IA a pris le contrôle comme le souligne le réalisateur canadien ?
    Que pensez-vous de la grève générale dans l'industrie cinématographique aux États-Unis pour protester contre l'IA ?
    Pensez-vous que les syndicats vont obtenir gain de cause ?
    Que pensez-vous des déclarations de James Cameron sur les scénarios écrits par l'IA ?

    Voir aussi

    James Cameron, créateur de Terminator, affirme que l'IA a pris le pouvoir et qu'il est déjà trop tard

    Les studios de cinéma font appel à GPT-4 pour remplacer des scénaristes en grève, mais le résultat n'est pas satisfaisant, les scénaristes refusent de corriger les scénarios bâclés générés par l'IA

    Le PDG d'OpenAI affirme que sa technologie est susceptible de "détruire le capitalisme", mais la startup d'IA est critiquée pour son partenariat avec le géant des logiciels Microsoft

    Les acteurs affirment que les studios hollywoodiens veulent leurs répliques d'IA gratuitement et pour toujours. Comment l'IA menace les droits et les revenus des acteurs d'Hollywood ?

  13. #93
    Membre expert
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 125
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 125
    Points : 3 453
    Points
    3 453
    Par défaut
    Citation Envoyé par Mathis Lucas Voir le message
    Le réalisateur canadien James Cameron a déclaré cette semaine qu'il partage l'avis des experts en IA qui affirment que les progrès de cette technologie représentent un risque sérieux pour l'humanité.
    L'IA fait aussi peur à ma grand mère. Son avis est autant pertinent que celui de ce réalisateur des génie ==> Il ne l'est pas
    Lors d'une interview mardi, il a affirmé avoir essayé de mettre en garde l'humanité contre les dangers potentiels de l'IA à travers son film de science-fiction Terminator en 1984, mais n'a pas été écouté.
    Pardon mais tous ses films sont ils des reportages sur l'avenir parce qu'alors il y a de quoi devenir parano, Piranha 2 : Les Tueurs volants, Terminator, Alien, Avatar.
    Doit on aussi considérer Georges Lucas, Kubrick ou Spielberg comme des réalisateurs de reportages d'anticipation?
    C'est important parce qu'ils nous ont prévenu de plein de choses en fait si ça se trouve.

  14. #94
    Expert confirmé
    Homme Profil pro
    Développeur
    Inscrit en
    Août 2003
    Messages
    1 272
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Charente Maritime (Poitou Charente)

    Informations professionnelles :
    Activité : Développeur

    Informations forums :
    Inscription : Août 2003
    Messages : 1 272
    Points : 4 092
    Points
    4 092
    Par défaut
    Les armées se mettent à utiliser l'IA mais heureusement on est encore loin de ce qui est prédit par Terminator... c'est inquiétant quand même

  15. #95
    Membre expérimenté
    Inscrit en
    Mai 2006
    Messages
    351
    Détails du profil
    Informations forums :
    Inscription : Mai 2006
    Messages : 351
    Points : 1 452
    Points
    1 452
    Par défaut
    Citation Envoyé par totozor Voir le message
    L'IA fait aussi peur à ma grand mère. Son avis est autant pertinent que celui de ce réalisateur des génie ==> Il ne l'est pas
    Pardon mais tous ses films sont ils des reportages sur l'avenir parce qu'alors il y a de quoi devenir parano, Piranha 2 : Les Tueurs volants, Terminator, Alien, Avatar.
    Doit on aussi considérer Georges Lucas, Kubrick ou Spielberg comme des réalisateurs de reportages d'anticipation?
    C'est important parce qu'ils nous ont prévenu de plein de choses en fait si ça se trouve.
    Clairement, si son avis sur l'implosion du titan pouvais être intéressant ce n'était pas parce qu'il avait réalisé le film sur le titanic, mais bien parce qu'il était descendu le voir plusieurs fois et avait donc été confronté aux contraintes de l'expérience.
    Il n'a pas eu le même genre d'expérience avec l'IA.

  16. #96
    Membre chevronné Avatar de denisys
    Profil pro
    Développeur informatique
    Inscrit en
    Mai 2002
    Messages
    1 128
    Détails du profil
    Informations personnelles :
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Mai 2002
    Messages : 1 128
    Points : 1 957
    Points
    1 957
    Par défaut
    totozor
    Le 19/07/2023 à 15:54
    Pardon mais tous ses films sont ils des reportages sur l'avenir parce qu'alors il y a de quoi devenir parano ...

    De la Terre à la Lune.
    Jules Verne, paru en 1865.
    --
    https://fr.wikipedia.org/wiki/De_la_...%C3%A0_la_Lune
    Ne pas savoir n’est pas une faute si l’on cherche à combler ses lacunes.

    "Il n'y a pas d'obstacles infranchissables , il y a des volontés plus ou moins énergiques voilà tous" Jules Vernes

  17. #97
    Membre expert
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 125
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 125
    Points : 3 453
    Points
    3 453
    Par défaut
    Citation Envoyé par denisys Voir le message
    De la Terre à la Lune.
    Jules Verne, paru en 1865.
    --
    https://fr.wikipedia.org/wiki/De_la_...%C3%A0_la_Lune
    Citation Envoyé par Tweet de Jules vernes le 21 juillet 1969
    (1/4) Je vous l'avais bien dit.
    Citation Envoyé par Tweet de Jules vernes le 21 juillet 1969
    (2/4) Mais vous ne m'avez pas écouté
    Citation Envoyé par Tweet de Jules vernes le 21 juillet 1969
    (3/4) Lisez Voyage au centre de la Terre
    Citation Envoyé par Tweet de Jules vernes le 21 juillet 1969
    (4/4) Prem's @ElonMusk
    Va-t-on aborder chaque oeuvre de SF comme un documentaire parce que 10 se sont effectivement passé?
    Je ne suis pas sur.

    Par contre c'est en effet interressant de les lire/voir parce qu'elles nous encouragent à réfléchir sur ces situations avant qu'elle puisse arriver pour les éviter ou réduire les rendre moins dramatiques.
    Et si on veut aller dans le sens de Cameron alors je trouve que Robocop mène une reflexion bien plus poussée que Terminator, qui n'annonce que la fin du monde par la technologie.
    En plus toute la série Terminator ne dit qu'une chose : quoi qu'on fasse on est foutu (donc pourquoi lutter contre, résignons nous )

  18. #98
    Membre chevronné
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 123
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 123
    Points : 2 235
    Points
    2 235
    Par défaut
    Citation Envoyé par totozor Voir le message
    C'est important parce qu'ils nous ont prévenu de plein de choses en fait si ça se trouve.
    Nous avons eu mieux que ça : nous avons eu un quinquennat pour nous prévenir, et nous avons quand même validé à plus de 60% la réélection du mec.

    À côté de ça, tous les films de science fiction même les plus atroces ne peuvent rien.

  19. #99
    Membre chevronné
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 123
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 123
    Points : 2 235
    Points
    2 235
    Par défaut
    Citation Envoyé par totozor Voir le message

    [Succès de Tweeter en 1969]

    Par contre c'est en effet interressant de les lire/voir parce qu'elles nous encouragent à réfléchir sur ces situations avant qu'elle puisse arriver pour les éviter ou réduire les rendre moins dramatiques.
    Je suis en effet rassuré par la capacité de réflexion qu'ont montrée mes concitoyens l'année dernière.

  20. #100
    Invité
    Invité(e)
    Par défaut
    L'IA c'est un peu comme le Covid. Tout le monde est expert. Tout le monde l'a vu venir et personne ne l'a vu partir.

Discussions similaires

  1. Réponses: 2
    Dernier message: 20/09/2023, 21h03
  2. Comment créer un avatar sur votre site Web, j'ai beau eu chercher je n'est pas trouvé !
    Par denis18 dans le forum Mode d'emploi & aide aux nouveaux
    Réponses: 1
    Dernier message: 21/07/2020, 09h28
  3. Réponses: 1
    Dernier message: 14/05/2019, 19h03
  4. Réponses: 1
    Dernier message: 03/08/2016, 17h19
  5. [XL-2000] Comment fermer un fichier excel si il est ouvert mais sans bug s'il n'est pas ouvert
    Par Avinetor dans le forum Macros et VBA Excel
    Réponses: 5
    Dernier message: 05/06/2009, 14h09

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo