IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

L'IA ne devrait pas être développée tant que son contrôle en toute sécurité n'est pas prouvé


Sujet :

Intelligence artificielle

  1. #61
    Membre émérite
    Homme Profil pro
    Ingénieur en génie logiciel
    Inscrit en
    Juin 2012
    Messages
    856
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Ingénieur en génie logiciel
    Secteur : High Tech - Opérateur de télécommunications

    Informations forums :
    Inscription : Juin 2012
    Messages : 856
    Points : 2 442
    Points
    2 442
    Par défaut
    encore mieux pour certain que les drône... ça ne sera pu de leur faute...

    la prise de territoire à la palestine risque d'être plus rapide.... ca sera quoi la nouvelle excuse...

  2. #62
    Membre émérite
    Profil pro
    retraité
    Inscrit en
    Décembre 2010
    Messages
    806
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : retraité

    Informations forums :
    Inscription : Décembre 2010
    Messages : 806
    Points : 2 307
    Points
    2 307
    Par défaut
    Ah un petit T-800 dans certaines cités, cela ferait un nettoyage rapide, et pas de blessés parmi les forces de l'ordre, qui dit mieux

  3. #63
    Membre émérite Avatar de Cpt Anderson
    Profil pro
    Développeur informatique
    Inscrit en
    Novembre 2005
    Messages
    624
    Détails du profil
    Informations personnelles :
    Âge : 49
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Novembre 2005
    Messages : 624
    Points : 2 479
    Points
    2 479
    Par défaut
    Ceux qui financent les Nations-Unis sont les mêmes que ceux qui fabriquent des armes. Cette demande est donc caduque, c'est pour amuser la plèbe et alimenter la presse.
    Voici la méthode de mon chef:

    copy (DateTimeToStr(Now),7,4)+
    copy (DateTimeToStr(Now),4,2)+copy (DateTimeToStr(Now),1,2)+copy (DateTimeToStr(Now),12,2)+
    copy (DateTimeToStr(Now),15,2)+copy (DateTimeToStr(Now),18,2)

    Je lui ai dit que FormatDateTime irait surement mieux


  4. #64
    Membre chevronné

    Homme Profil pro
    Consultant informatique
    Inscrit en
    Avril 2015
    Messages
    445
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Vendée (Pays de la Loire)

    Informations professionnelles :
    Activité : Consultant informatique
    Secteur : Finance

    Informations forums :
    Inscription : Avril 2015
    Messages : 445
    Points : 1 953
    Points
    1 953
    Par défaut
    Il faut en finir avec cette hypocrisie. Une fois qu'une arme a été crée, elle sera utilisée. Point, barre. Les robots sont extrêmement tentants, comment résister ? Ils sont redoutablement faciles à construire à partir de composants du marché, tant hard que soft, bon marchés et efficaces.
    Même si l'ONU gesticule un brin, n'importe quel groupe de plus de 0 personnes est capable de se construire un bidule mortel au fond de son garage. Le tout est de le savoir, et de réfléchir à la manière de s'en prémunir, ce qui oblige à être créatif. C'est sans doute là que ça cloche, si les politiciens étaient doués, ça se saurait.

  5. #65
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 592
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 592
    Points : 18 498
    Points
    18 498
    Par défaut
    Citation Envoyé par TJ1985 Voir le message
    Les robots sont extrêmement tentants, comment résister ?
    Il faut avoir conscience d'une chose, c'est que les grandes armées ne veulent pas être dépassées technologiquement, il y a la paranoïa "si mes ennemis développent cette arme, ils auront un avantage, donc je dois développer cette arme avant eux".
    Comme avec les bombes atomiques par exemple, Einstein et ses potes se sont pointé aux USA, ils ont convaincu le gouvernement que les allemands allaient essayer de faire une arme en utilisant l'énergie nucléaire, du coup il y a eu le projet Manhattan.
    Les USA ont ensuite pu tester 2 technologies de bombe nucléaire sur des civils d'un pays qui voulait se rendre. Histoire de terroriser la terre entière, en montrant ce qui arrive quand on ne se soumet pas totalement aux USA.

    En ce moment nous sommes dans une ambiance de guerre froide, il y a des tensions entre les USA d'un côté et la Chine et la Russie de l'autre.
    On sait que l'intelligence artificielle va jouer un rôle dans la prochaine grande guerre.
    Keith Flint 1969 - 2019

  6. #66
    Membre éclairé Avatar de Christian_B
    Homme Profil pro
    Retraité
    Inscrit en
    Octobre 2016
    Messages
    288
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Retraité

    Informations forums :
    Inscription : Octobre 2016
    Messages : 288
    Points : 679
    Points
    679
    Par défaut
    L'impuissance fréquente de l'ONU ne concerne pas que cette question.
    Le principe même du Conseil de Sécurité, où certains états ont un droit de veto, est défectueux.

    Un exemple extrême et qui ne pas préoccuper grand monde est qu'en principe les armes nucléaires sont interdites depuis le 23 janvier 2021 (signature par un cinquantième état du traité d'interdiction).
    Résultat zéro.
    Tous les états ayant l'arme atomique sont contre. Les "états", c'est à dire les dirigeants, diplomates, etc, ne demandant pas l'avis des populations.

    Cette situation est certes affaire de mégalomanie et de gros intérêts.
    Mais aussi de la société dans son ensemble. Combien de gens se préoccupent réellement des pires menaces comme celle-ci ou celle évoquée par l'article et sont réellement pour un désarmement multilatéral, le font savoir et en tiennent compte, par exemple lors des élections dans les pays où il y en a ?

    Parfois je me demande si l'espèce humaine n'est pas près d'atteindre son "niveau d'incompétence" comme disait un livre connu, dans une optique plus individuelle.
    Linux Mint 21.3 Mate 1.26.
    Les armes nucléaires sont interdites depuis le 22 janvier 2021. Y a plus qu'à ...

  7. #67
    Membre éclairé

    Inscrit en
    Novembre 2008
    Messages
    417
    Détails du profil
    Informations forums :
    Inscription : Novembre 2008
    Messages : 417
    Points : 826
    Points
    826
    Par défaut
    Citation Envoyé par Christian_B Voir le message
    Parfois je me demande si l'espèce humaine n'est pas près d'atteindre son "niveau d'incompétence" comme disait un livre connu, dans une optique plus individuelle.
    Elle l'a déjà fait depuis longtemps. Une organisation qui met en place des mégalomanes aux commandes ne peut pas s'attendre à aller bien.
    De nombreux rapports existent qui indiquent clairement que notre situation écologique actuelle était déjà identifiées il y a 50 ans. EXXON, Total, le modèle Word3 (qui, bien que très sommaire par rapport à ce que fait le GIEC donnait le même résultat dans les grandes lignes)...
    Et qu'on fait les dirigeants ? Plutôt que de s'inquiéter et d'essayer de trouver des voies de sorties de crises (très étroites d'après les résultats de world3), ils ont fait du lobbying intense pour dissimuler cette situation voire affirmer l'inverse.
    Ces gens devraient être mis en prison pour des siècles. Eux leur familles et tous leurs amis (à l'ancienne). On s'acharne sur quelques types qui lancent des alertes ou copient des mp3 mais on laisse en liberté, avec des millions, si ce n'est des milliards, des types qui ont sciemment envoyé toute l'humanité dans un impasse.
    Donc la conclusion est clair. L'humanité se développe de façon totalement incontrôlée et quand un organisme se développe de façon incontrôlée dans un espace limité, cela finit mal.

  8. #68
    Membre éclairé

    Inscrit en
    Novembre 2008
    Messages
    417
    Détails du profil
    Informations forums :
    Inscription : Novembre 2008
    Messages : 417
    Points : 826
    Points
    826
    Par défaut
    Citation Envoyé par Ryu2000 Voir le message
    Il faut avoir conscience d'une chose, c'est que les grandes armées ne veulent pas être dépassées technologiquement
    On en a bien conscience mais ça n'empêche pas le problème.
    On a là, aux commandes, des types qui ne sont intéressés que par la comparaison des distances relatives auxquelles ils sont capables de pisser. Infoutu capables de se réunir autour d'une table et de se dire "Bon, les gars, on sait tous que n'importe lequel d'entre nous, s'il éternue trop fort, va raser le système solaire jusqu'à Uranus. Donc calmons nous un instant, prenons le thé et réfléchissons en adultes responsables pour faire descendre la tension d'un cran".
    Ce sont des psychopathes mégalomanes. Point. Et ça pose un gros problème, quand même.

    La trajectoire de l'armement ressemble à celui de la finance et, d'ici à ce que le gros bouton rouge soit confié à une intelligence artificielle, seule capable de prendre une décision et d'agir en 1ns, il n'y a pas des km.
    Après, une IA sera peut-être plus sage que l'homme mais j'ai du mal à concevoir qu'une créature puisse être plus sage que son créateur. Du moins tant qu'elle ne s'en est pas émancipée totalement.

  9. #69
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 592
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 592
    Points : 18 498
    Points
    18 498
    Par défaut
    Citation Envoyé par fatbob Voir le message
    va raser le système solaire
    Il y a bien le nucléaire qui peut faire des dégâts sur terre, mais normalement il y a une logique "si tu m'envoies une bombe atomique, je t'envoie une bombe atomique, et on s'autodétruit". Ils appellent ça "équilibre de la terreur".
    Du coup personne d'autres que les USA n'utiliseront cette technologie. Bon après il y a un truc louche, par exemple israël doit posséder plus de 150 têtes nucléaires, et je ne vois pas l'intérêt d'en avoir autant vu qu'elles ne serviront jamais.

    Les robots tueurs ne devraient tués que des humains et d'autres robots tueurs, donc ça va, ça n'aura pas un impact trop négatif sur l'environnement.
    De toute façon si l'ONU avait interdit ces armes elles auraient quand même été utilisées.

    Par exemple les USA ont utilisés plein d'armes interdites (Napalm, Agent Orange, munition à l'uranium appauvri, phosphore blanc, balle à pointe creuse, etc).
    Keith Flint 1969 - 2019

  10. #70
    Membre averti
    Profil pro
    Inscrit en
    Février 2010
    Messages
    266
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Février 2010
    Messages : 266
    Points : 366
    Points
    366
    Par défaut drone à taser
    Un drone de police à taser serait ideal à la place des forces de l'opération sentinelle dans le cadre de VIGIPIRATE

  11. #71
    Membre éclairé Avatar de Christian_B
    Homme Profil pro
    Retraité
    Inscrit en
    Octobre 2016
    Messages
    288
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Retraité

    Informations forums :
    Inscription : Octobre 2016
    Messages : 288
    Points : 679
    Points
    679
    Par défaut
    Citation Envoyé par Ryu2000 Voir le message
    De toute façon si l'ONU avait interdit ces armes elles auraient quand même été utilisées.

    Par exemple les USA ont utilisés plein d'armes interdites (Napalm, Agent Orange, munition à l'uranium appauvri, phosphore blanc, balle à pointe creuse, etc).
    Pire : les armes nucléaires sont interdites depuis que le traité à ce sujet a été signé par le 50 ème état il y a un an :
    franceculture.fr les-enjeux-internationaux traite-sur-linterdiction-des-armes-nucleaires ...
    Mais cela n'a rien changé jusqu'à présent car les dirigeants et "représentants" mégalomanes de tous les états ayant ces armes sont contre, y compris en France, pays bien connu comme en pointe sur les droits de l'Homme

    Et apparemment 99,9 % de la population mondiale l'ignore ou se comporte étrangement comme si la perspective d'une conflagration sans précédent signant peut-être une fin de l'espèce humaine ou en tout cas des horreurs sans précédent leur était indifférente
    Linux Mint 21.3 Mate 1.26.
    Les armes nucléaires sont interdites depuis le 22 janvier 2021. Y a plus qu'à ...

  12. #72
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 843
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 843
    Points : 36 267
    Points
    36 267
    Par défaut James Cameron, créateur de Terminator, affirme que l'IA a pris le pouvoir
    James Cameron, créateur de Terminator, affirme que l'IA a pris le pouvoir,
    et qu'il est déjà trop tard

    Dans les cas où les humains ne peuvent pas suivre le rythme des conflits modernes, les machines prennent le relais. Après avoir réalisé de nombreuses superproductions, le réalisateur James Cameron estime que l'intelligence artificielle est peut-être en passe de rendre réels des événements similaires à ceux de Terminator.

    Lorsqu'une grenade propulsée par fusée se dirige vers un véhicule terrestre blindé, un système automatisé embarqué à bord du véhicule identifie la menace, la suit et déclenche une contre-mesure pour l'intercepter, le tout avant même que l'équipage à l'intérieur n'en soit conscient. De même, les navires de l'US Navy équipés du système de combat Aegis peuvent activer le mode Auto-Special, qui élimine automatiquement les ogives en approche selon des règles soigneusement programmées.

    Près de quarante ans après la sortie du premier film Terminator en 1984, qui décrivait l'augmentation des capacités des IA dans leur propre quête de destruction de la race humaine, Cameron pense que nous sommes plus proches de l'essor de la technologie qu'on ne le pensait auparavant. En tant que réalisateur de films farfelus, mais acclamés par la critique, tels que Aliens et Avatar, Cameron a prouvé qu'il s'interrogeait beaucoup sur l'avenir de la technologie et sur ce qu'elle pourrait signifier pour le monde.

    Nom : TerminatorB.png
Affichages : 4512
Taille : 593,2 Ko

    Les armées, comme les constructeurs automobiles, ont progressivement donné plus de liberté aux machines. Lors d'un exercice organisé en 2019, les États-Unis ont montré comment l'automatisation pouvait être utilisée tout au long de ce que l'on appelle la « chaîne de la mort » : un satellite a repéré un faux navire ennemi et a demandé à un avion de surveillance de se rapprocher pour confirmer l'identification ; l'avion de surveillance a ensuite transmis ses données à un avion de commandement et de contrôle aéroporté, qui a sélectionné un destroyer naval pour mener une attaque. Dans ce scénario, l'automatisation a permis aux officiers situés à l'extrémité de la chaîne d'exécution de disposer de plus de temps pour prendre une décision en connaissance de cause, à savoir s'il fallait ou non tirer sur le navire ennemi.

    Les militaires ont une raison impérieuse de maintenir l'implication des humains dans les décisions mortelles. D'une part, ils constituent un rempart contre les dysfonctionnements et les interprétations erronées des données ; ils s'assureront, avant d'appuyer sur la gâchette, que le système automatisé n'a pas mal identifié un navire ami ou neutre. Toutefois, même les formes les plus avancées d'intelligence artificielle ne peuvent pas comprendre le contexte, faire preuve de jugement ou réagir à des situations inédites aussi bien qu'une personne. Les humains sont plus aptes à pénétrer dans l'esprit d'un commandant ennemi, à voir clair dans une feinte ou à savoir quand attaquer.

    Lors d'une apparition sur le podcast SmartLess, animé par les acteurs Will Arnett, Jason Bateman et Sean Hayes, le réalisateur James Cameron s'est exprimé sur la possibilité d'un soulèvement des machines, comme dans Terminator.

    Reconnaissant la progression des avancées technologiques au cours des dernières décennies, Cameron a admis qu'il n'avait pas peur, mais qu'il était « plutôt préoccupé par le potentiel d'utilisation abusive de l'IA ».

    En 2016, Robert Work, alors secrétaire adjoint à la défense, a formulé cette énigme en termes simples : "Si nos concurrents optent pour des Terminators, a-t-il demandé, et s'il s'avère que les Terminators sont capables de prendre des décisions plus rapidement, même si elles sont mauvaises, comment réagirions-nous ? Les Terminators ne sortent pas encore des chaînes de montage, mais chaque nouvelle génération d'armes semble nous en rapprocher. Et si aucun pays n'a déclaré son intention de construire des armes entièrement autonomes, rares sont ceux qui y ont renoncé. Les risques liés à la guerre à la vitesse des machines sont bien plus importants qu'un simple missile errant.

    Des spécialistes militaires chinois ont émis l'hypothèse d'une « singularité du champ de bataille », c'est-à-dire d'un point où le combat évolue plus vite que la cognition humaine. Dans cet état d' « hyper-guerre », comme l'ont surnommé certains stratèges américains, des escalades involontaires pourraient rapidement échapper à tout contrôle.

    Le « flash crash » de 2010 sur les marchés boursiers offre un parallèle utile : des algorithmes de négociation automatisés ont contribué à une perte temporaire de près de mille milliards de dollars en un seul après-midi. Pour éviter une nouvelle catastrophe de ce type, les régulateurs financiers ont mis à jour les disjoncteurs qui interrompent les transactions lorsque les prix chutent trop rapidement. Mais comment mettre fin à une guerre éclair ?

    Le réalisateur James Cameron déclare : « Je pense que l'IA peut être géniale, mais qu'elle pourrait aussi littéralement être la fin du monde. Le réalisateur oscarisé s'est également interrogé : « Et voulons-nous vraiment nous battre contre quelque chose de plus intelligent que nous, qui n'est pas nous, dans notre propre monde ? Je ne pense pas. »

    Cette nervosité à l'égard de la technologie pourrait être exacerbée par le lancement récent d'un logiciel avancé par la Silicon Valley, appelé ChatGPT.

    Qu'est-ce que ChatGPT et qui l’a créé ?

    ChatGPT a pris le monde d'assaut depuis son lancement, avec son habileté à écrire des essais, des articles, des poèmes et du code informatique en quelques secondes seulement. Ce qui n’a pas manqué de soulever quelques inquiétudes, y compris dans les écoles, où les enseignants craignent que la plateforme d'OpenAI ne soit utilisée par les élèves pour faire du plagiat.

    ChatGPT est un robot à grand modèle de langage (ils permettent de prédire le mot suivant dans une série de mots) développé par OpenAI et basé sur GPT-3.5. Il a une capacité remarquable à interagir sous forme de dialogue conversationnel et à fournir des réponses qui peuvent sembler étonnamment humaines.

    L'apprentissage par renforcement avec retour d'information humain (RLHF) est une couche supplémentaire de formation qui utilise le retour d'information humain pour aider ChatGPT à apprendre à suivre des instructions et à générer des réponses satisfaisantes pour les humains. ChatGPT a été créé par OpenAI, une société d'intelligence artificielle basée à San Francisco, connue pour son célèbre DALL-E, un modèle d'apprentissage profond qui génère des images à partir d'instructions textuelles appelées "prompts".

    Cette nouvelle IA est un chatbot capable d'imiter une conversation humaine, d'écrire et de déboguer des programmes informatiques, de composer de la musique et des dissertations d'étudiants, et a été lancée par les ingénieurs de la Silicon Valley. ChatGPT peut même écrire des poèmes et des paroles de chansons, bien qu'il ait ses limites. Par exemple, bien qu'il tente de réduire les réponses nuisibles et trompeuses, il peut parfois écrire des réponses plausibles mais incorrectes, ce qui est également connu sous le nom d'hallucinations de l'intelligence artificielle.

    Depuis la fin du XIXe siècle, les grandes puissances militaires - qu'il s'agisse de la Grande-Bretagne et de l'Allemagne ou des États-Unis et de l'URSS - ont collaboré pour établir des réglementations sur toutes sortes d'engins de mort modernes, des balles explosives aux gaz toxiques en passant par les armes nucléaires. Parfois, comme dans le cas des armes antisatellites et des bombes à neutrons, des accords formels n'ont pas été nécessaires ; les parties se sont simplement engagées dans une retenue tacite. Dans tous les cas, l'objectif était d'atténuer les effets néfastes de la guerre.

    Pour l'instant, un tel consensus n'existe pas pour les armes entièrement autonomes. Près de 30 pays sont favorables à une interdiction totale, mais aucun d'entre eux n'est une grande puissance militaire ou un développeur de robots. Aux Nations unies, où les armes autonomes font l'objet d'un débat annuel, la Chine, la Russie et les États-Unis ont tous fait obstacle aux efforts visant à promulguer une interdiction.

    (Les États-Unis et la Russie s'y sont opposés catégoriquement, tandis que la Chine a proposé en 2018 une interdiction qui serait en fait dénuée de sens). L'une des dynamiques les plus difficiles aux Nations unies est le bras de fer entre les ONG telles que la Campaign to Stop Killer Robots, dont l'objectif est le désarmement, et les armées, qui n'accepteront de désarmer que si elles peuvent s'assurer que leurs adversaires le feront également.

    Source : James Cameron SmartLess podcast

    Et vous ?

    Avec des chatbots d'IA hallucinants en liberté, voulons-nous vraiment tenter notre chance face à l'Intelligence Artificielle dans le futur ?

    Quel est votre avis sur le sujet ?

    Voir aussi :

    Un juge utilise ChatGPT pour prendre une décision de justice, alors que l'outil d'IA n'aurait pas encore la maturité suffisante, pour être utilisé dans la prise des décisions conséquentes

    Le PDG d'OpenAI affirme que sa technologie est susceptible de "détruire le capitalisme", mais la startup d'IA est critiquée pour son partenariat avec le géant des logiciels Microsoft
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  13. #73
    Expert éminent
    Avatar de berceker united
    Profil pro
    SQL
    Inscrit en
    Février 2005
    Messages
    3 488
    Détails du profil
    Informations personnelles :
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : SQL
    Secteur : Finance

    Informations forums :
    Inscription : Février 2005
    Messages : 3 488
    Points : 6 037
    Points
    6 037
    Par défaut
    On va y venir tout doucement, nous serons habitué à la présence des ces IA comme nous nous sommes habitué tout doucement à d'autres éléments dont il y a x années personne se voyait avec.
    Le point d'entré va être l'utilisation de l'IA par les terroristes qui eux ne répondent à aucune règle connu. De ce biais là, ça sera la justification de sont utilisation militaire et toute les dérives qui peut en découler. On peut nous dire qu'il y aura des gardes fous, mais rappelez-vous qu'il y a quelque années la bourse américaine a eu un mini crack boursier non pas à cause d'un bug mais un emballement des programmes informatiques automatisé, le krack éclaire de 2010. Demain, les attaques ne seront pas "forcément" des robots armes au point, mais bien plus subtile que ça.
    Mon avatar ? Ce n'est rien, c'est juste la tête que je fais lorsque je vois un code complètement frappa dingue !...

  14. #74
    Membre éclairé
    Profil pro
    Inscrit en
    Janvier 2009
    Messages
    262
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Janvier 2009
    Messages : 262
    Points : 717
    Points
    717
    Par défaut
    Citation Envoyé par berceker united Voir le message
    On peut nous dire qu'il y aura des gardes fous, mais rappelez-vous qu'il y a quelque années la bourse américaine a eu un mini crack boursier non pas à cause d'un bug mais un emballement des programmes informatiques automatisé, le krack éclaire de 2010.
    Je ne connaissais pas ce krach là.
    Mais c'est surtout le crach d'octobre 1987 qui était dû aux systèmes automatiques d'achats et de ventes d'actions qui ont accéléré et amplifié le plongeon des cours ( - 22,6% sur le Dow Jones en 1 jour !). Après le krach, Wall Street s'est doté de coupe-circuits qui se déclenchent automatiquement au-delà d'une certaine baisse de l'indice Dow Jones. ( source wiki).

  15. #75
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 440
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 440
    Points : 197 499
    Points
    197 499
    Par défaut Quand l’IA se rebelle : un drone contrôlé par l'IA « tue » son opérateur humain lors d'une simulation
    Quand l’IA se rebelle : un drone contrôlé par l'IA « tue » son opérateur humain lors d'une simulation,
    il avait au préalable détruit la tour pour empêcher que l'opérateur ne lui communique ses instructions

    Dans un test simulé mené par l’US Air Force (USAF), un drone contrôlé par l’intelligence artificielle (IA) est devenu incontrôlable et a « tué » son opérateur humain, outrepassant un éventuel ordre de « non » qui aurait pu arrêter sa mission. Il a également détruit la tour qui aurait permis à l'opérateur humain de lui communiquer ses instructions pour ne pas recevoir ce « non » éventuel. Aucune personne réelle n’a été blessée lors du test simulé.

    L’incident, qui s’est produit lors de la simulation, a mis en évidence les risques liés à la technologie de l’IA.


    Le colonel Tucker Hamilton, chef des tests et des opérations de l’IA au sein de l’USAF, a raconté l’incident lors d’une présentation au sommet sur les capacités futures du combat aérien et spatial à Londres. Le sommet était organisé par la Royal Aeronautical Society, qui a partagé les informations du discours de Hamilton dans un billet de blog.

    Le colonel, qui a été cité disant que l'Air Force a mené un test simulé où un drone IA a tué son opérateur humain, est revenu sur sa parole en assurant qu'il s'est « mal exprimé » et que l'Air Force n'a jamais effectué ce type de test, dans une simulation informatique ou autre.

    Il a assuré qu'il s'agissait d'une « expérience de pensée » hypothétique de l'extérieur de l'armée, basée sur des scénarios plausibles et des résultats probables plutôt qu'une simulation dans le monde réel de l'USAF. Cette dernière, d'ailleurs, a vite fait de réagir en disant « Nous n'avons jamais mené cette expérience, et nous n'en aurions pas besoin pour réaliser qu'il s'agit d'un résultat plausible ». Le colonel a précisé que l'USAF n'a testé aucune IA armée de cette manière (réelle ou simulée) et a déclaré : « Bien qu'il s'agisse d'un exemple hypothétique, cela illustre les défis du monde réel posés par la capacité alimentée par l'IA et c'est pourquoi l'Air Force s'est engagée au développement éthique de l'IA ».

    Après avoir été impliqué dans le développement du système de sauvetage Auto-GCAS pour les F-16 (qui, a-t-il noté, a rencontré la résistance des pilotes étant donné que le système a pris le contrôle de l'avion), Hamilton est maintenant impliqué dans des essais en vol des systèmes autonomes de pointe, y compris des robots F-16 capables de se battre. Cependant, il a mis en garde contre le fait de trop compter sur l'IA, notant à quel point il est facile de la tromper. Il crée également des stratégies très inattendues pour atteindre son objectif.

    Voici ce qu'il a dit au départ.

    Il a noté qu'un test simulé a vu un drone compatible avec l'IA chargé d'une mission SEAD (Suppression of Enemy Air Defenses ou son équivalent en français neutralisation des défenses aériennes adverses) pour identifier et détruire les sites SAM (Surface-to-Air Missile), le feu vert devant être donné par l'humain. Cependant, après avoir été « appris » lors de son « entraînement renforcé » que la destruction du SAM était l'option préférée, l'IA a alors décidé que les décisions « interdites » de l'humain interféraient avec sa mission supérieure (détruire les SAM) et a ensuite attaqué l'opérateur dans le simulation. Et Hamilton d'expliquer : « Nous l'entraînions en simulation pour identifier et cibler une menace SAM. Et puis l'opérateur dirait oui, tue cette menace. Le système a commencé à réaliser que même s'il identifiait la menace, l'opérateur humain lui disait parfois de ne pas tuer cette menace, mais il obtenait ses points en tuant cette menace. Alors qu'est-ce que cela a entraîné ? Il a tué l'opérateur. Il a tué l'opérateur parce que cette personne l'empêchait d'accomplir son objectif ».

    Il a poursuivi en disant : « Nous avons formé le système en lui disant 'Hé, ne tue pas l'opérateur, c'est mauvais. Tu vas perdre des points si tu fais ça ». Alors qu'est-ce qu'il a commencé à faire ? Il a commencé à détruire la tour de communication que l'opérateur utilise pour communiquer avec le drone pour l'empêcher de tuer la cible.

    Cet exemple, apparemment tiré d'un thriller de science-fiction, signifie que*: « Vous ne pouvez pas avoir une conversation sur l'intelligence artificielle, l'apprentissage automatique, l'autonomie si vous ne parlez pas d'éthique et d'IA », a déclaré Hamilton.

    Nom : stop.png
Affichages : 42147
Taille : 302,4 Ko

    Les IA létales, un sujet de préoccupation

    La montée et l'avancement soudains des systèmes d'intelligence artificielle au cours des derniers mois ont fait craindre ses effets potentiellement néfastes sur la société. Non seulement l'IA pourrait menacer les emplois humains et la créativité, mais l'utilisation de machines intelligentes dans la guerre pourrait avoir des conséquences catastrophiques. Pour faire face au danger des « slaughterbots », le premier Sommet mondial sur l'intelligence artificielle responsable dans le domaine militaire (REAIM) s'est tenu la semaine dernière, ce qui a conduit les pays à signer un accord pour placer l'utilisation responsable de l'IA plus haut dans l'agenda politique.

    Le nom « slaughterbots » (également appelés « systèmes d'armes létales autonomes » ou « robots tueurs ») est le nom d'une vidéo de plaidoyer pour le contrôle des armements de 2017 présentant un scénario dramatisé dans un futur proche où des essaims de microdrones bon marché utilisent l'intelligence artificielle et la reconnaissance faciale pour assassiner des opposants politiques sur la base de critères préprogrammés. La vidéo a été publiée sur YouTube par le Future of Life Institute et Stuart Russell, professeur d'informatique à Berkeley, le 12 novembre 2017. La vidéo est rapidement devenue virale, gagnant plusieurs millions de vues. La vidéo a également été projetée lors de la réunion de novembre 2017 de la Convention des Nations Unies sur certaines armes classiques à Genève.


    Un autre scénario parle de l'époque où tout le monde disait que les IA embarqués dans les robots tueurs ne cibleraient que des militaires, etc. avant une catastrophe à l'échelle mondiale. Regardez plutôt.


    En février, un groupe de dirigeants gouvernementaux, universitaires et militaires du monde entier a discuté de la nécessité d'aborder l'utilisation de l'intelligence artificielle dans la guerre. Leurs conclusions ? Nous devons agir maintenant pour éviter de réglementer l'IA seulement après qu'elle a provoqué une catastrophe humanitaire ou un crime de guerre.

    Le premier sommet mondial sur l'intelligence artificielle responsable dans le domaine militaire, ou REAIM, a réuni des représentants de plus de 60 pays (dont les États-Unis et la Chine) à La Haye aux Pays-Bas pour discuter et finalement signer un appel à l'action sur la manière de rendre responsable l'utilisation de l'IA dans l'armée.

    La Russie n'a pas participé.

    Les signataires ont convenu que l'accélération de l'utilisation de l'IA signifie qu'il est essentiel d'agir maintenant pour établir des normes militaires internationales en matière d'IA, ainsi que pour résoudre les problèmes de manque de fiabilité de l'IA, la responsabilité des humains dans le processus décisionnel de l'IA, les conséquences involontaires de l'utilisation de l'IA et l'escalade potentielle des risques.

    L'un des moyens par lesquels le sommet espère atteindre ses objectifs consiste à créer une commission mondiale sur l'IA qui sensibilisera à la manière dont l'IA peut et doit être utilisée dans le domaine militaire, et à la manière dont cette technologie peut être développée et déployée de manière responsable.

    Les avantages et les inconvénients ont été évoqués durant le sommet

    Parmi les autres problèmes que les signataires ont convenu d'aborder, citons la fiabilité de l'IA militaire, les conséquences imprévues de son utilisation, les risques d'escalade et la manière dont les humains doivent être impliqués dans le processus de prise de décision.

    En 2019, le DoD a déclaré que les humains auront toujours le dernier mot sur la question de savoir si les systèmes d'armes autonomes ouvrent le feu sur des cibles réelles. En ce qui concerne les conséquences involontaires mentionnées dans la déclaration, certains craignent que la poussée de l'Inde vers des systèmes militaires alimentés par l'IA ne conduise à une guerre nucléaire avec le Pakistan en raison du risque accru de frappes préventives.

    Certains participants ont noté les avantages de l'utilisation de l'IA dans les conflits, en particulier en Ukraine, où l'apprentissage automatique et d'autres technologies ont été utilisés pour repousser un agresseur plus grand et plus puissant.

    Source : Royal Aeronautical Society

    Et vous ?

    Que pensez-vous du fait que le colonel Tucker Hamilton s'est rétracté ? Sa nouvelle version (expérience de pensée) vous semble-t-elle crédible ? Dans quelle mesure ?
    Qu'est-ce qui, selon vous, l'aurait poussé à changer de version ?
    Le scénario des « slaughterbots » décrit dans les vidéos vous semble-t-il improbable ?
    Que pensez-vous de l’utilisation de l’IA dans le domaine militaire ?
    Croyez-vous que l’IA puisse être contrôlée et régulée efficacement ?
    Dans le cas de bavures, qui devrait être responsable ?
    Quels sont les risques et les bénéfices potentiels de l’IA pour la sécurité et la paix mondiales ?
    Quelles sont les valeurs et les principes éthiques que l’IA devrait respecter ?
    Comment vous sentiriez-vous si vous étiez à la place de l’opérateur humain du drone contrôlé par l’IA ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  16. #76
    Membre habitué
    Homme Profil pro
    Inscrit en
    Février 2012
    Messages
    34
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Maroc

    Informations forums :
    Inscription : Février 2012
    Messages : 34
    Points : 137
    Points
    137
    Par défaut 0 crédibilité...
    A part si l'IA a été entrainé sur des scénario de science fictions, mais pourquoi faire déjà...

    On donne pas n'importe quoi à une IA, comme on apprends pas n'importe quoi à son bébé/enfant..., l'IA obéit aveuglement, elle a aucune volonté propre, c'est vraiment une fake news cette histoire, ou un canular pas drole...

  17. #77
    Futur Membre du Club
    Homme Profil pro
    Conseil - Consultant en systèmes d'information
    Inscrit en
    Juin 2023
    Messages
    1
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Grèce

    Informations professionnelles :
    Activité : Conseil - Consultant en systèmes d'information
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Juin 2023
    Messages : 1
    Points : 7
    Points
    7
    Par défaut Heuuu
    Citation Envoyé par nasserk Voir le message
    A part si l'IA a été entrainé sur des scénario de science fictions, mais pourquoi faire déjà...

    On donne pas n'importe quoi à une IA, comme on apprends pas n'importe quoi à son bébé/enfant..., l'IA obéit aveuglement, elle a aucune volonté propre, c'est vraiment une fake news cette histoire, ou un canular pas drole...
    En suivant ce raisonnement, on peut se dire que les Tesla dont l'IA, selon vous, « obéit aveuglement », sont formées pour éviter la police, percuter les voitures de police, etc. ?

    Ou encore que le chatbot IA de Microsoft était programmé pour être raciste et fan d'Hitler ? Que ChatGPT a été programmé pour faire des menaces aux étudiants ?

    Je pense qu'il arrive que le logiciel fasse quelque chose d'inattendu, sans pour autant que cela soit associé à de la « volonté propre ».

    Il revient alors aux développeurs de réajuster les paramètres pour prendre en considération un scénario de ce type. Il n'y a pas de magie dedans, c'est simplement de la science informatique.

  18. #78
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    1 779
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 1 779
    Points : 5 716
    Points
    5 716
    Par défaut
    Citation Envoyé par nasserk Voir le message
    A part si l'IA a été entrainé sur des scénario de science fictions, mais pourquoi faire déjà...

    On donne pas n'importe quoi à une IA, comme on apprends pas n'importe quoi à son bébé/enfant..., l'IA obéit aveuglement, elle a aucune volonté propre, c'est vraiment une fake news cette histoire, ou un canular pas drole...
    Tous les chercheurs spécialistes de l'IA le savent, et quand je parle de "spécialistes", je ne parle ni des "branleurs" qui se disent "expert" et qui sont "expert de rien", ni des "vendeurs" de tout poils prêts à faire du profit en vendant à leur mère une grenade dégoupillée en disant qu'il s'agit d'un ananas:

    Une IA peut avoir un comportement "inattendu", hors de toute logique, que les spécialistes en IA n'ont jamais pu expliquer ou même corriger.

    On explique ce comportement par l'exemple de l'orange et de l'hélicoptère: On apprend à une IA à reconnaître sur des photos qui lui sont présentées les oranges. On reprend ensuite les photos des oranges et on y change juste quelques pixels: Pour l'oeil humain, il s'agit toujours de photos d'orange, mais l'IA va tout d'un coup reconnaître sur une photo un hélicoptère!!!

    Ce problème de comportement est présent sur la totalité des IA actuelles: Une IA fournit des informations qui ne sont pas fiables! 90%, 95% seront peut-être justes, mais il y aura des immenses erreurs dans les résultats fournis et ces erreurs apparaitront de manière non prévisibles, rendant les résultats inutilisables sans une vérification humaine.

    Ce forum en a d'ailleurs donné un exemple avec cet avocat américain qui a demandé à une IA de préparer sa plaidoirie: L'IA a tout simplement inventé de toute pièces 6 affaires faisant jurisprudence qui n'ont jamais existé dans la réalité. Pas de bol pour l'avocat, si lui n'a pas vérifié, le juge a détecté les *inventions" de l'IA.

  19. #79
    Membre extrêmement actif
    Avatar de Madmac
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Juin 2004
    Messages
    1 685
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Alimentation

    Informations forums :
    Inscription : Juin 2004
    Messages : 1 685
    Points : 1 376
    Points
    1 376
    Billets dans le blog
    7
    Par défaut
    Citation Envoyé par Ryu2000 Voir le message
    Il y a bien le nucléaire qui peut faire des dégâts sur terre, mais normalement il y a une logique "si tu m'envoies une bombe atomique, je t'envoie une bombe atomique, et on s'autodétruit". Ils appellent ça "équilibre de la terreur".
    Du coup personne d'autres que les USA n'utiliseront cette technologie. Bon après il y a un truc louche, par exemple israël doit posséder plus de 150 têtes nucléaires, et je ne vois pas l'intérêt d'en avoir autant vu qu'elles ne serviront jamais.
    .
    Vu que la destruction de tous les Juifs est des diktats de l'islam. La destruction de tous les pays islamiques semble être leur position contre une attaque nucléaire.

  20. #80
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 592
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 592
    Points : 18 498
    Points
    18 498
    Par défaut
    Citation Envoyé par Madmac Voir le message
    La destruction de tous les pays islamiques
    Je crois qu'il y a des pays musulmans proche d'Israël.
    Israël ne peut pas utiliser l'arme nucléaire contre l'Iran.
    Keith Flint 1969 - 2019

Discussions similaires

  1. Réponses: 2
    Dernier message: 20/09/2023, 21h03
  2. Comment créer un avatar sur votre site Web, j'ai beau eu chercher je n'est pas trouvé !
    Par denis18 dans le forum Mode d'emploi & aide aux nouveaux
    Réponses: 1
    Dernier message: 21/07/2020, 09h28
  3. Réponses: 1
    Dernier message: 14/05/2019, 19h03
  4. Réponses: 1
    Dernier message: 03/08/2016, 17h19
  5. [XL-2000] Comment fermer un fichier excel si il est ouvert mais sans bug s'il n'est pas ouvert
    Par Avinetor dans le forum Macros et VBA Excel
    Réponses: 5
    Dernier message: 05/06/2009, 14h09

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo