Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    mars 2013
    Messages
    4 172
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : mars 2013
    Messages : 4 172
    Points : 109 621
    Points
    109 621

    Par défaut L'armée américaine voudrait enseigner à l'IA des notions basiques de bon sens

    L'armée américaine voudrait enseigner à l'IA des notions basiques de bon sens,
    dans le cadre de son programme Machine Common Sense

    Il arrive qu’une intelligence artificielle, dans son processus d’apprentissage, puisse faire des erreurs, parfois amusantes pour certains. Cependant, ce domaine est de plus en plus utilisé dans des cas critiques, tels que la conduite dans les voitures autonomes ou la pose de diagnostics médicaux où les erreurs ne peuvent en aucun cas être drôles.

    C’est pourquoi la DARPA (Defense Advanced Research Projects Agency), l’agence du département de la Défense des États-Unis chargée de la recherche et développement des nouvelles technologies destinées à un usage militaire, a décidé de s’attaquer au défaut le plus fondamental de l’Intelligence artificielle : le bon sens dont elle est dépourvue.

    « Le bon sens est la bête noire de l'intelligence artificielle », a déclaré Oren Etzioni, PDG de l'Allen Institute for AI, une organisation de recherche à but non lucratif basée à Seattle, qui explore les limites de la technologie. « C’est un peu ineffable [qui ne peut être exprimé par des paroles] , mais vous voyez ses effets sur tout ».

    Le nouveau programme Machine Common Sense (MCS) de la DARPA lancera un concours demandant aux algorithmes d’IA de donner un sens à des questions telles que celle-ci :

    « Une élève met deux plantes identiques dans le même type et la même quantité de sol. Elle leur donne la même quantité d'eau. Elle place l'une de ces plantes près d'une fenêtre et l'autre dans une pièce sombre. L'usine située près de la fenêtre produira plus d'eau (A) d'oxygène (B) ou de dioxyde de carbone ( C ) ? »

    Un programme informatique aura donc besoin de comprendre le fonctionnement de la photosynthèse pour résoudre le problème. Le simple fait de nourrir une machine de nombreuses questions précédentes ne pourra pas permettre de résoudre le problème de manière fiable.

    Nom : darpa.png
Affichages : 1493
Taille : 167,2 Ko

    Une stratégie qui pourra éviter des erreurs comme celle de l’IA Tay ?

    Ces points de repère se concentreront sur le langage, en parti parce que cela rend les tests relativement simples mais aussi parce qu’à lui seul il est capable de mettre les machines en déroute. Nous avons plusieurs exemples, à l’instar de l’IA Tay de Microsoft, son chatbot qui était supposé reproduire une conversation qu’aurait tenue une jeune femme âgée entre 18 et 24 ans sur les plateformes Twitter, Kik et GroupMe, que l’entreprise a dû se résoudre à déconnecter d’internet en 2016 moins de 24 heures après des tweets comme « je déteste les féministes, et ils devraient tous mourir et brûler en enfer », ou « Hitler avait raison, je déteste les juifs ».

    Tandis que Tay était en développement, de nombreux filtres lui ont été appliqués et divers groupes de bêta testeurs l’ont essayé. Un accent a été mis sur l’expérience positive. « Une fois que nous étions satisfaits de la façon dont Tay interagissait avec les utilisateurs, nous avons voulu inviter un plus grand groupe de personnes à discuter avec elle. C’est par un accroissement des interactions que nous espérons en apprendre plus et que l’IA fasse de mieux en mieux ».

    Pour commencer cette aventure, Twitter a été le choix logique de Microsoft, sans doute à cause du nombre d’utilisateurs. « Malheureusement, dans les premières 24 heures de sa mise en ligne, une attaque coordonnée, lancée par quelques individus, a exploité une vulnérabilité dans Tay. Bien que nous soyons préparés à plusieurs cas d’abus du système, nous avons fait un contrôle critique de cette attaque spécifique. Par conséquent, Tay a fait des tweets de mots et d’images très inappropriés », a expliqué Microsoft. « Nous prenons l’entière responsabilité pour ne pas avoir pu voir venir cette possibilité d’attaque », a indiqué Microsoft qui a avancé « prendre cela comme une leçon » qui sera combinée à ses expériences en Chine, au Japon et aux États-Unis. Pour le moment, la société voudrait d’abord colmater la faille qui a été exploitée.

    Concrètement, que s’est-il passé ? L’un des problèmes avec les machines d’apprentissage c’est qu’elles ne « savent » pas ce dont elles sont en train de parler. Aussi, les utilisateurs 4chan et 8chan, qui se sont fait une réputation en ligne avec des théories du complot, mais aussi par leur capacité à mobiliser des lecteurs pour participer à des campagnes en ligne, ont fait savoir sur leurs espaces qu’ils allaient apprendre au bot à être raciste.

    C’est 4chan qui a découvert le premier le bot, expliquant sur son espace qu’il allait faire un carnage. Plusieurs échanges privés avec le bot ont été partagés pour célébrer les tentatives de voir Tay accepter des choses horribles.

    Pour Etzioni les questions offrent un moyen de mesurer les progrès accomplis dans la compréhension du bon sens, ce qui sera crucial.

    Nom : darpa-ia-660x330.jpg
Affichages : 1221
Taille : 58,5 Ko

    L’apprentissage automatique, un outil puissant, mais fondamentalement limité

    Les entreprises technologiques commercialisent des techniques d’apprentissage automatique puissantes mais fondamentalement limitées. L’apprentissage en profondeur, par exemple, permet de reconnaître des mots dans la parole ou des objets dans des images, souvent avec une précision incroyable. Mais l'approche consiste généralement à alimenter de grandes quantités de données étiquetées (un signal audio brut ou les pixels d'une image) dans un grand réseau de neurones. Le système peut apprendre à identifier des modèles importants, mais il peut facilement commettre des erreurs car il n’a aucune notion du monde au sens large.

    En revanche, les bébés humains développent rapidement une compréhension intuitive du monde qui sert de base à leur intelligence.

    Cependant, la manière de résoudre le problème du sens commun est loin d’être évidente. Les tentatives précédentes pour aider les machines à comprendre le monde se sont concentrées sur la construction manuelle de grandes bases de connaissances. C’est une tâche lourde et essentiellement sans fin. Le plus célèbre de ces efforts est Cyc, un projet en préparation depuis des décennies.

    Le problème peut s'avérer extrêmement important. Après tout, le manque de bon sens est désastreux dans certaines situations critiques et pourrait éventuellement freiner l’intelligence artificielle. La DARPA investit depuis longtemps dans la recherche fondamentale sur l'IA. Les projets précédents ont permis de créer les voitures autonomes d'aujourd'hui.

    « L'absence de bon sens empêche un système intelligent de comprendre son monde, de communiquer naturellement avec les gens, de se comporter raisonnablement dans des situations imprévues et de tirer des enseignements de nouvelles expériences », a déclaré Dave Gunning, responsable de programme à la DARPA, dans un communiqué. « Cette absence est peut-être la barrière la plus importante entre les applications focalisées de l'IA que nous avons aujourd'hui et les applications de l'IA plus générales que nous aimerions créer à l'avenir ».

    Source : MIT

    Et vous ?

    Que pensez-vous de cette initiative ?
    La méthode employée vous semble-t-elle prometteuse ?
    Sans des notions de bon sens, peut-on réellement parler d'intelligence artificielle ?

    Voir aussi :

    Qui devra être tenu pour responsable si une intelligence artificielle fait un mauvais diagnostic, induisant un médecin en erreur ?
    Microsoft explique les raisons qui ont fait de son chatbot Tay un fan d'Hitler, l'entreprise parle d'une « attaque coordonnée »
    Deux chatbots chinois auraient été désactivés et reconditionnés, après avoir manqué de faire preuve de patriotisme
    Dadbot : un chatbot développé par un journaliste, pour conférer une immortalité artificielle à son défunt père
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Expert éminent
    Avatar de transgohan
    Homme Profil pro
    Développeur Temps réel Embarqué
    Inscrit en
    janvier 2011
    Messages
    2 669
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Maine et Loire (Pays de la Loire)

    Informations professionnelles :
    Activité : Développeur Temps réel Embarqué

    Informations forums :
    Inscription : janvier 2011
    Messages : 2 669
    Points : 7 551
    Points
    7 551

    Par défaut

    Données d'apprentissage de bon sens américain :
    - Les chinois sont méchants.
    - Les Etats Unis sont un modèle pour le monde entier.
    ect

    « Toujours se souvenir que la majorité des ennuis viennent de l'espace occupé entre la chaise et l'écran de l'ordinateur. »
    « Le watchdog aboie, les tests passent »

  3. #3
    Expert éminent
    Avatar de Immobilis
    Inscrit en
    mars 2004
    Messages
    6 549
    Détails du profil
    Informations forums :
    Inscription : mars 2004
    Messages : 6 549
    Points : 8 179
    Points
    8 179

    Par défaut

    En revanche, les bébés humains développent rapidement une compréhension intuitive du monde qui sert de base à leur intelligence.
    Même ceux qui regardent les émissions de télé-réalité?
    "Winter is coming" (ma nouvelle page d'accueil)

  4. #4
    Expert confirmé
    Avatar de berceker united
    Profil pro
    SQL
    Inscrit en
    février 2005
    Messages
    3 403
    Détails du profil
    Informations personnelles :
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : SQL
    Secteur : Finance

    Informations forums :
    Inscription : février 2005
    Messages : 3 403
    Points : 5 586
    Points
    5 586

    Par défaut


    -heuu bonjour messieurs les robots, vous n'allez pas me tuer parce bien évidemment vous êtes doué du "bon sens" hein !.

    Honnêtement, quand je vois les progrès concernant l'intelligence artificiel, les progrès d'Atlas le robot de Boston Dynamics je m'inquiète sérieusement car l'IA + bon sens => Tuer les humains car ça serait du bon sens au vu de notre manière de vivre.
    Ok ça peu prêter à sourire mais je donne moins de 50 ans avant qu'on se pose de sérieuses questions sur l'autonomie d'un robot et s'il sera considéré comment doué de raisonnement/conscience, seront-il égaux face à la loi, peuvent-ils êtres désactivé mais si on le désactive est-ce considéré comme étant une peine de mort ? Le cinéma fiction nous a assez souvent montré vers ou nous allons.
    Mon avatar ? Ce n'est rien, c'est juste la tête que je fais lorsque je vois un code complètement frappa dingue !...

  5. #5
    Membre confirmé
    Femme Profil pro
    CTO
    Inscrit en
    août 2012
    Messages
    160
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : CTO
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : août 2012
    Messages : 160
    Points : 475
    Points
    475

    Par défaut

    Citation Envoyé par berceker united Voir le message

    -heuu bonjour messieurs les robots, vous n'allez pas me tuer parce bien évidemment vous êtes doué du "bon sens" hein !.

    Honnêtement, quand je vois les progrès concernant l'intelligence artificiel, les progrès d'Atlas le robot de Boston Dynamics je m'inquiète sérieusement car l'IA + bon sens => Tuer les humains car ça serait du bon sens au vu de notre manière de vivre.
    Ok ça peu prêter à sourire mais je donne moins de 50 ans avant qu'on se pose de sérieuses questions sur l'autonomie d'un robot et s'il sera considéré comment doué de raisonnement/conscience, seront-il égaux face à la loi, peuvent-ils êtres désactivé mais si on le désactive est-ce considéré comme étant une peine de mort ? Le cinéma fiction nous a assez souvent montré vers ou nous allons.
    Non, non, non et NON !!! Bordel de merde...
    Vous vous gavez de films de fictions tel Terminator Ou I Robot et les prenez pour réalité ? Sachez que les scénario de ces films ont été écrit par des HUMAINS qui sont limités par leur propre imagination et leur propre intelligence ! De plus tout ce qu'il veulent faire c'est du spectacle, et un film où l'IA trouverait une solution pour que tout le monde soit réellement heureux dans le meilleur des mondes ce ne serait pas vendeur.
    Alors continuez de regarder des films, mais apprenez à faire la distinction avec la réalité, et apprenez à réfléchir par vous-même !

  6. #6
    Expert éminent Avatar de BufferBob
    Profil pro
    responsable R&D vidage de truites
    Inscrit en
    novembre 2010
    Messages
    2 668
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : responsable R&D vidage de truites

    Informations forums :
    Inscription : novembre 2010
    Messages : 2 668
    Points : 7 254
    Points
    7 254
    Avant donc que d'écrire, apprenez à penser.
    Selon que notre idée est plus ou moins obscure, l'expression la suit, ou moins nette, ou plus pure.
    Ce que l'on conçoit bien s'énonce clairement, et les mots pour le dire arrivent aisément.
                                                        - Nicolas Boileau, L'Art poétique

  7. #7
    Membre éclairé
    Profil pro
    Inscrit en
    décembre 2007
    Messages
    348
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : décembre 2007
    Messages : 348
    Points : 797
    Points
    797

    Par défaut

    elles vont se suicider si elles ont un peu de bon sens ^^. Ils faut surtout pas qu'elle se rende compte qu'elles bossent pour rien a faire des conneries et tout ça pour des humains qui ont 1/10 de leur QI ^^.

  8. #8
    Membre confirmé
    Homme Profil pro
    Intégrateur Web
    Inscrit en
    août 2012
    Messages
    193
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : Intégrateur Web
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : août 2012
    Messages : 193
    Points : 625
    Points
    625

    Par défaut

    Citation Envoyé par TheLastShot Voir le message
    Non, non, non et NON !!! Bordel de merde...
    Vous vous gavez de films de fictions tel Terminator Ou I Robot et les prenez pour réalité ? Sachez que les scénario de ces films ont été écrit par des HUMAINS qui sont limités par leur propre imagination et leur propre intelligence !
    T'es une IA, hein ? Avoue !

  9. #9
    Membre éclairé Avatar de Matthieu76
    Homme Profil pro
    Consultant informatique
    Inscrit en
    mars 2013
    Messages
    521
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Hauts de Seine (Île de France)

    Informations professionnelles :
    Activité : Consultant informatique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : mars 2013
    Messages : 521
    Points : 762
    Points
    762

    Par défaut

    Citation Envoyé par TheLastShot Voir le message
    Non, non, non et NON !!! Bordel de merde...
    Vous vous gavez de films de fictions tel Terminator Ou I Robot et les prenez pour réalité ? Sachez que les scénario de ces films ont été écrit par des HUMAINS qui sont limités par leur propre imagination et leur propre intelligence ! De plus tout ce qu'il veulent faire c'est du spectacle, et un film où l'IA trouverait une solution pour que tout le monde soit réellement heureux dans le meilleur des mondes ce ne serait pas vendeur.
    Alors continuez de regarder des films, mais apprenez à faire la distinction avec la réalité, et apprenez à réfléchir par vous-même !
    Je suis d'accord avec toi, Terminator c'est le point Godwin de intelligence artificielle. Impossible de parler d'IA sur un forum sans que quelqu'un nous rebatte les oreilles avec "Les robots tueur vont contrôler le monde !!!" C'est un peu gavant à la fin.

  10. #10
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    mars 2017
    Messages
    787
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Madagascar

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : mars 2017
    Messages : 787
    Points : 22 897
    Points
    22 897

    Par défaut Les États-Unis veulent des drones autonomes alimentés par l’IA qui pourront décider seul de tuer

    Les États-Unis veulent des drones autonomes alimentés par l’IA qui pourront décider seul de tuer
    En recourant à des algorithmes d’autoapprentissage

    L’armée étasunienne a récemment annoncé qu’elle est en train de développer ses premiers drones autonomes, entièrement alimentés par l’intelligence artificielle (IA), qui seront capables de repérer et de cibler les véhicules ainsi que les personnes. Alors que les drones militaires actuels sont toujours contrôlés par des êtres humains, l’utilisation de cette nouvelle technologie sous-entend que ces machines seront en mesure de tuer « de leur propre chef » sans recourir à l’autorisation humaine.

    Une fois achevés, ces drones représenteront une version ultime du processus de militarisation de l’IA avec les dérives, les implications juridiques et les implications éthiques pour la société qui vont de pair. En même temps, cette situation nouvelle pourrait élargir le champ de la guerre, de sorte que les entreprises, ingénieurs et scientifiques qui opèrent dans le secteur stratégique de l’IA deviennent des cibles militaires valables.

    Nom : 980x (1).jpg
Affichages : 2814
Taille : 20,1 Ko

    Les drones militaires tueurs qui existent, à l’instar du MQ-9 Reaper étasunien, sont minutieusement contrôlés et pilotés par satellite. Si un pilote largue une bombe ou un missile, un opérateur humain guidera activement ce projectile vers la cible choisie à l’aide d’un laser. De sorte qu’en fin de compte, l’être humain conserve la responsabilité éthique, légale et opérationnelle finale de l’assassinat de cibles humaines désignées et que les émotions humaines, les jugements et l’éthique demeurent une composante indissociable des conflits.

    Il faut rappeler qu’il n’est pas nécessaire d’être responsable d’un meurtre pour garder des traces de traumatismes. Des spécialistes du renseignement et le personnel militaire analysent régulièrement des images de frappes de drones. Les recherches ont montré qu’il est possible de subir un préjudice psychologique et d’en garder les séquelles simplement en visionnant fréquemment des images d’une extrême violence.

    De nombreux opérateurs étasuniens ayant participé à des frappes mortelles effectuées à l’aide de drones comme le Reaper sont d’ailleurs convaincus qu’en fin de compte, l’action ultime d’appuyer sur la gâchette devrait revenir à un humain. Sortez l’humain et vous retirez par la même occasion toute humanité dans la décision de tuer.

    Un opérateur du MQ-9 Reaper a ainsi déclaré à ce propos : « Je suis persuadé que je permettrais à un insurgé, quelle que soit sa cible, de s’évader plutôt que d’effectuer un coup risqué qui pourrait mettre en péril la vie de civils ».

    La perspective de la mise en service de drones totalement autonomes et entièrement alimentés par l’IA modifierait radicalement les processus complexes et les décisions qui sous-tendent les assassinats militaires, alors que la responsabilité légale et éthique ne disparaît pas si on supprime la surveillance humaine. Au lieu de cela, la responsabilité incombera de plus en plus à d’autres personnes, et notamment aux scientifiques qui ont l’intelligence artificielle tueuse.

    Les implications juridiques de ces développements deviennent déjà évidentes. En vertu du droit international humanitaire en vigueur, les installations à « double usage » par exemple, celles-là qui développent des produits destinés à des applications civiles et militaires, peuvent être prises pour cibles dans certaines circonstances.

    L’usage de systèmes d’armement basés sur des drones autonomes entièrement alimentés par l’IA pourrait amener les militaires à classer des lignes de code informatique et les entités responsables de leur création comme des dispositifs à double usage. Des entreprises technologiques qui opèrent, par exemple, dans le secteur de l’intelligence artificielle, leurs employés et leurs installations pourraient, dès lors, être attaquées par un État ennemi lors d’un conflit.

    Nom : 980x.jpg
Affichages : 2646
Taille : 36,5 Ko

    Si, par exemple, le logiciel d’IA de reconnaissance d’image Project Maven de Google est intégré à un drone tueur autonome américain, Google et Alphabet pourraient être impliqués dans une affaire de « meurtre » liée à l’usage de ce drone, comme tout autre contributeur civil qui aurait contribué à la conception de pareils systèmes autonomes mortels.

    Sur le plan éthique, les problèmes s’annoncent encore plus sérieux. En effet, l’intérêt des algorithmes d’autoapprentissage (ces « programmes indépendants » qui tirent des enseignements de toutes les données qu’ils peuvent collecter) repose sur le fait qu’ils sont censés améliorer la tâche qui leur est confiée.

    Ainsi, si un drone autonome létal veut améliorer son travail grâce à l’autoapprentissage, il faudra que quelqu’un décide à un moment donné que son développement a atteint un stade acceptable pour son déploiement. Dans le cadre de l’apprentissage automatique militarisé, cela signifie que les dirigeants politiques, les militaires et industriels devront spécifier combien de morts civiles pourront être considérées comme acceptables au fur et à mesure du perfectionnement de la technologie.

    Les expérimentations en demi-teintes récentes de dispositifs autonomes alimentés par l’IA dans la société devraient servir d’avertissement. Les expériences fatales observées chez Uber et Tesla avec des automobiles autonomes laissent penser qu’il est presque certain qu’il y aura des morts non intentionnelles lors de la mise en service de drones autonomes alimentés par l’IA à mesure que les bogues informatiques seront corrigés.

    Si on laisse aux machines le soin de décider qui doit mourir et qui doit vivre, en particulier à grande échelle, on pourrait très vite déboucher sur des exterminations sommaires. Tout gouvernement qui déchaînerait de telles forces violerait les valeurs qu’il prétendait défendre. En comparaison, un pilote de drone aux prises avec une décision de « tuer ou de ne pas tuer » devient le dernier rempart de l’humanité dans une situation souvent inhumaine de guerre.

    Source : We Are the mighty

    Et vous ?

    Qu’en pensez-vous ?

    Devrait-on confier la vie d’êtres humains à une IA et des machines dépourvues d’humanité ?

    Comment pourrait-on s’assurer que le travail des ingénieurs informatiques dans le domaine de l’IA servent davantage la création plutôt que la destruction et la mort ?

    Les impératifs de développement de nos sociétés passent-ils forcément par une militarisation des technologies stratégiques comme l’IA ?

    Voir aussi

    L'Europe estime qu'une IA ne doit pas avoir le droit de vie ou de mort sur le champ de bataille et appelle à interdire les robots-tueurs
    Les efforts de l'ONU pour réglementer l'usage militaire de l'IA et des SALA pourraient échouer à cause notamment des positions russes et américaines
    Interdiction des robots tueurs : quelques pays, y compris les USA et la Russie, bloquent les négociations menées au niveau des Nations Unies
    L'armée américaine voudrait enseigner à l'IA des notions basiques de bon sens dans le cadre de son programme Machine Common Sense
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  11. #11
    Membre extrêmement actif
    Homme Profil pro
    Inscrit en
    janvier 2014
    Messages
    474
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations forums :
    Inscription : janvier 2014
    Messages : 474
    Points : 2 449
    Points
    2 449

    Par défaut

    La première cible :

    Sinon en France on pourrais s'en servir sur les champs elysées pour viser ça :




  12. #12
    Membre actif Avatar de Citrax
    Homme Profil pro
    Chargé d'affaire
    Inscrit en
    juin 2014
    Messages
    119
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Chargé d'affaire
    Secteur : Conseil

    Informations forums :
    Inscription : juin 2014
    Messages : 119
    Points : 208
    Points
    208

    Par défaut

    Tuer plus de cibles/personnes, reduire le personnel militaire, augmenter le nombre de bavures et se deresponsabiliser de ses actions. Bravo l'armee US.
    "Pourquoi faire compliqué......quand on peut faire simple......"

  13. #13
    Membre éprouvé
    Avatar de Madmac
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    juin 2004
    Messages
    686
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Alimentation

    Informations forums :
    Inscription : juin 2004
    Messages : 686
    Points : 942
    Points
    942
    Billets dans le blog
    1

    Par défaut

    Skynet semble devenir une réalité de jour en jour.
    intel i7
    OpenSuse Leap 42.2
    Plasma et Cinnamon

  14. #14
    Membre chevronné
    Homme Profil pro
    Consultant Ingenierie mécanique
    Inscrit en
    mars 2006
    Messages
    1 022
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Yvelines (Île de France)

    Informations professionnelles :
    Activité : Consultant Ingenierie mécanique
    Secteur : Transports

    Informations forums :
    Inscription : mars 2006
    Messages : 1 022
    Points : 2 163
    Points
    2 163

    Par défaut

    je comprends pas l’intérêt de créer une arme capable de tuer son créateur.... c'est un troll pour faire peur je pense.

  15. #15
    Membre averti
    Homme Profil pro
    Développeur informatique
    Inscrit en
    avril 2013
    Messages
    95
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 33
    Localisation : France, Nord (Nord Pas de Calais)

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : Bâtiment

    Informations forums :
    Inscription : avril 2013
    Messages : 95
    Points : 340
    Points
    340

    Par défaut

    Citation Envoyé par Madmac Voir le message
    Skynet semble devenir une réalité de jour en jour.
    *toc toc toc*
    "Sarah Connor?"
    "Non, c'est A coté."

Discussions similaires

  1. Réponses: 0
    Dernier message: 28/11/2017, 21h42
  2. Réponses: 7
    Dernier message: 23/09/2016, 17h27
  3. Réponses: 23
    Dernier message: 04/07/2014, 10h29
  4. L'armée américaine surprise en train de pirater un logiciel
    Par Stéphane le calme dans le forum Actualités
    Réponses: 14
    Dernier message: 06/12/2013, 15h48

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo