Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #101
    Membre habitué
    Et bien voilà ! C'est si compliqué de ne pas faire partie de l'empire du mal ...

  2. #102
    Membre habitué
    Aidez-nous à ne pas tuer trop de gens... la blague.
    Bravo à Google d'avoir osé sortir de cette m***** .
    Il faut avoir peu d'éthique pour développer ce genre de programme dans tous les cas, sans doute l'avidité ou l'égo qui entre en jeu.

    De l'autre vous aurez la Chine et la Russie qui n'hésiteront pas une seconde à développer et vendre la technologie à d'autres qui n'auront eu aucune éthique.

    Donc In Fine, le développement devra avoir lieu tant que l'organisme (qui sert à rien dans ce monde, en l'état) qui s'appel les Nations Unis n'aura pas mis les "Ola" sur ce genre de technologie folle qui nous pousse à toujours plus de pressions, de guerre, de pauvreté, de déséquilibre ... qui est d'ailleurs nullement lié au capitalisme, mais un manque de gouvernance mondiale.

    C'est juste une pierre jetté dans la mare, ça ne fait que retarder les USA, ça ne l'arrêtera pas. Et je pense d'ailleurs que si elle faisait voter à l'U.N. une motion de non proliférations de l'IA a des fins militaires , on avancerait grandement, mais comme la Russie mettra sa motion de censure comme toujours... suite au prochain épisode

  3. #103
    Membre extrêmement actif
    Citation Envoyé par tmcuh Voir le message
    C'est juste une pierre jetté dans la mare, ça ne fait que retarder les USA, ça ne l'arrêtera pas. Et je pense d'ailleurs que si elle faisait voter à l'U.N. une motion de non proliférations de l'IA a des fins militaires , on avancerait grandement


    Les USA sont de très loin les plus avancé dans le domaine de l'IA militaire et comme cette technologie risque d'être un argument important dans la prochaine guerre mondiale, aucun pays ne va lâcher le truc (la Chine est en 2ieme position).
    L’Organisation des Nations unies ne sert à rien, elle n'a jamais empêché le moindre conflit...
    Les traités de non prolifération ne sont pas respectés, normalement les pays devraient diminuer leur arsenal nucléaire et c'est pas vraiment le cas... (Israël ne devrait pas avoir d'arme nucléaire et ils en ont beaucoup)

    Citation Envoyé par tmcuh Voir le message
    qui est d'ailleurs nullement lié au capitalisme
    Si la monde est en crise c'est à cause de la finance. (si les nations pouvaient emprunter à taux 0, il y aurait beaucoup moins de problème...)
    Maintenant il existe une dette non remboursable, quand ce genre de scénario ce produit il y a des chances que ça finisse en guerre.
    La dette ce n'est pas anodin, contrairement à ce que beaucoup répètent.

    Citation Envoyé par tmcuh Voir le message
    mais un manque de gouvernance mondiale.
    Ça n'arrivera jamais. En tout cas je l’espère.
    L'UE c'est un peu un gros gouvernement et c'est déjà bien assez ingouvernable comme ça...
    Plus ça s'agrandit plus c'est le bordel.

    Citation Envoyé par tmcuh Voir le message
    De l'autre vous aurez la Chine et la Russie qui n'hésiteront pas une seconde à développer et vendre la technologie à d'autres qui n'auront eu aucune éthique.

    Ils essaient juste de ne pas avoir trop de retard pour pouvoir se défendre face aux USA qui ont beaucoup d'avance dans ce domaine.
    Vous connaissez le budget militaire US par rapport aux autres pays ?
    Liste des pays par dépenses militaires

    Les USA sont les premiers en surveillance, vu que les grosses entreprises collaborent avec eux (Google, Apple, Microsoft, Facebook, etc).
    Depuis Snowden on sait que la NSA peut surveiller tout le monde sur la planète.
    Le gouvernement US avait mis sur écoute Hollande et Merkel par exemple.
    Keith Flint 1969 - 2019

  4. #104
    Invité
    Invité(e)
    Citation Envoyé par tmcuh Voir le message


    De l'autre vous aurez la Chine et la Russie qui n'hésiteront pas une seconde à développer et vendre la technologie à d'autres qui n'auront eu aucune éthique.

    Donc In Fine, le développement devra avoir lieu tant que l'organisme (qui sert à rien dans ce monde, en l'état) qui s'appel les Nations Unis n'aura pas mis les "Ola" sur ce genre de technologie folle qui nous pousse à toujours plus de pressions, de guerre, de pauvreté, de déséquilibre ... qui est d'ailleurs nullement lié au capitalisme, mais un manque de gouvernance mondiale.

    C'est juste une pierre jetté dans la mare, ça ne fait que retarder les USA, ça ne l'arrêtera pas. Et je pense d'ailleurs que si elle faisait voter à l'U.N. une motion de non proliférations de l'IA a des fins militaires , on avancerait grandement, mais comme la Russie mettra sa motion de censure comme toujours... suite au prochain épisode
    On avait presque oublié que la Chine et la Russie étaient les méchants alors que les USA sont les gentils. C'est totalement logique vu comment l'histoire s'est déroulée que ces pays agissent de cette manière et peu importe ce que vous pensez éthique ou non, ils souhaitent juste ne pas tout reperdre à nouveau à cause d'une entité. Certes, ce n'est pas souhaitable mais il faut bien rappeler qu'il y a une raison à tout ça et que son origine revient toujours au même pays.

  5. #105
    Membre extrêmement actif
    Citation Envoyé par Stan Adkens Voir le message
    Que pensez-vous de l’implication de Google dans un projet de développement de logiciel de précision avec le gouvernement américain ?
    L'objectif de Google c'est de faire de l'argent.
    Donc pourquoi refuser un contrat ?
    Les multinationales n'ont généralement pas d'éthique, le but c'est de faire de l'argent, donc il n'y a pas d'histoire de moral.
    Comme quand IBM, Ford, Hugo Boss, etc ont travaillé pour les allemands durant la seconde guerre mondiale.

    Citation Envoyé par Stan Adkens Voir le message
    Les organisations devraient-elles être libres d’utiliser l’IA comme bon leur semble ?
    Ce serait chouettes qu'elles évitent de l'utiliser pour surveiller leur propre population.
    Les pays développés deviennent des dictatures, nous sommes tous fiché automatiquement.

    Citation Envoyé par Stan Adkens Voir le message
    Que pensez-vous de l’IA comme arme de guerre ?
    Aujourd'hui c'est la course à l'IA, les USA sont loin devant mais la Chine essaie de ne pas trop se faire devancer.
    Ça fait super peur, mais quelque part ce n'est pas pire que les armes qu'on utilisé les USA au Vietnam, notamment l'Agent Orange de Monsanto (qu'il faut appeler Bayer maintenant) ou le Napalm.

    Vladimir Poutine voit dans l’intelligence artificielle un moyen de dominer le monde :
    Le président a prédit que l’intelligence artificielle apporterait « des opportunités colossales et des menaces difficiles à prédire aujourd’hui, avant d’enchaîner, pour galvaniser la jeune Russie : celui qui deviendra le leader de cette sphère sera celui qui dominera le monde. »

    Sans parler de l’Occident redouté, Poutine a néanmoins indiqué ses craintes : « Cela serait particulièrement regrettable que quelqu’un gagne une position de monopole [dans le développement de l’IA]. » En outre, le dirigeant ne dissocie pas ces avancées technologiques d’une future force de frappe des armes robotiques. Il s’est notamment étendu sur les drones, qu’il considère comme les armées de demain : « Quand les drones d’un parti seront détruits par ceux d’un autre, celui-ci n’aura pas d’autres choix que de se rendre. »
    En parlant de drone ça me rappelle ça :
    Iran shows off captured US drone
    Quand un drone US capturé en 2011 fait progresser l'industrie de défense iranienne
    Les Gardiens de la révolution ont construit et montré un drone dont la technologie est fortement inspirée de celle de l’engin américain ultrasecret RQ-170 Sentinel, saisi au-dessus du territoire iranien en 2011.
    =======
    =======
    Je n'en reviens pas que Google ait accepté de ne pas renouveler son contrat avec le ministère de la Défense des États-Unis dans le cadre du projet Maven.
    C'est incroyable qu'un peu de communication et des démissions aient suffit.
    Il y a aura peut être une entourloupe, Google va peut être bosser sur un autre projet que Maven pour le ministère de la Défense des États-Unis.
    Keith Flint 1969 - 2019

  6. #106
    Chroniqueur Actualités

    Google s'engage à ne pas utiliser l'IA pour le développement d'armes
    Google promet de ne pas utiliser l'IA pour le développement d'armes
    Mais informe qu'il va continuer à coopérer avec les militaires

    En mars, des rapports ont révélé la participation de Google dans un contrat de plusieurs milliards de dollars avec le Pentagone, des révélations qui ont suscité la colère de plusieurs milliers d’employés du géant de la recherche. Et pour cause, il a été révélé que Google aide le Pentagone à développer une IA pour analyser les vidéos par drone. Aussitôt, des organisations comme l’EFF et l’ICRAC ont mis en garde contre une éventuelle utilisation de l’IA pour développer des armes et pour la guerre.

    L’implication de Google dans ce projet soulève certainement plusieurs questions d’ordre éthique, c’est pour cette raison que la firme a décidé de publier ce jeudi un guide regroupant les principes auxquels la société adhère pour le développement de l’intelligence artificielle. Parmi les limites que s’est fixées Google, il s’engage à ne pas utiliser son IA pour développer des armes, la surveillance illégale ou des technologies causant un préjudice global. Les nouvelles limites que s’est fixé pourrait aider l’entreprise à calmer l’euphorie de certains de ces employés.


    Si Google s’engage à ne pas développer d’armes, il informe néanmoins qu’il va continuer à solliciter des contrats pour travailler avec le gouvernement sur des domaines tels que la cybersécurité, le recrutement militaire et la recherche et sauvetage, a dit Sundar Pichai, PDG de Google.

    « Au sein de Google, nous utilisons l’IA pour rendre les produits plus pratiques, de l’email sans spam et plus facile à composer, à l'assistant personnel auquel vous pouvez parler naturellement, aux photos qui mettent en avant ce qui est amusant pour vous divertir, » a écrit Sundar Pichai. « Nous reconnaissons qu’une telle technologie aussi puissante soulève des questions aussi importantes sur son usage. La manière dont l'IA est développée et utilisée aura un impact significatif sur la société pendant de nombreuses années. En tant que leader dans l'IA, nous nous sentons une responsabilité particulière de faire les choses correctement. »

    Le projet Maven sur lequel travaille Google vise à améliorer les opérations des drones en utilisant des technologies de reconnaissance d'images. Malgré la pétition des employés de Google et la démission d’au moins une douzaine de Googlers, la firme compte honorer le contrat jusqu’à son expiration en 2019. Selon certains rapports, Google viserait un autre contrat de 10 milliards de dollars avec le Pentagon, un projet auquel prétend aussi IBM, Microsoft et Amazon.

    Avec le développement rapide de l’IA, ses applications ont été transférées des laboratoires de recherche aux applications directes dans plusieurs industries comme la défense et la santé. Et les géants de la Silicon Valley comme Google et ses grands rivaux sont devenus de véritables pionniers de la technologie, dotés d’outils capables d’analyser de larges quantités de données, faire des prédictions et identifier des anomalies de façon plus rapide que des humains.

    Mais la décision de Google de se fixer des limites vient après des années de mises en garde contre le développement rapide de systèmes automatisés et le développement rapide de l’IA en général. Ainsi, une coalition de défenseurs des droits de l’Homme et d’entreprises technologiques a appelé à la mise sur pied de systèmes d’apprentissage machine respectueux des valeurs de la Déclaration des droits de l’homme.

    À vrai dire, les craintes les plus farfelues sont en train de devenir une réalité, le potentiel des systèmes d’IA de mener des attaques par drone sans supervision ou identifier des dissidents grâce à la collecte en masse de données en ligne sont désormais possibles, autant d’exemples qui agacent les éthiciens et académiques. C’est pourquoi lors des dernières années, les critiques se sont multipliées au regard du développement de l’IA et de plus en plus de firmes de la Silicon Valley allouent plus de ressources pour la recherche et le développement d’une IA sans risque, à l’image d’Open IA et d’autres groupes de recherche partout dans le monde.

    Google s’est fixé donc des limites éthiques aujourd’hui, mais il faut rappeler, cette promesse n’aurait pas pu avoir lieu si le grand public n’a pas été exposé au scandale du projet Maven, qui est devenu au final une véritable crise de relations publiques pour le géant de la recherche. Car, il faut le dire, lorsque Google s’est engagé dans le projet, la question d’éthique n’a pas été soulevée ni même considérée comme le révèlent les premiers échanges entre les directeurs de la firme, qui se sont concentrés surtout sur la rentabilité du projet et la crainte d’un contrecoup médiatique. Une fois que l’affaire a été révélée, Google a vite entrepris d’organiser des réunions et a prétendu que ce projet n’a pas une grande importance et que l’IA ne sera pas utilisée pour tuer des gens. Bien que la firme n’a pas forcément menti, les mêmes échanges par email entre les exécutifs de la société montrent que ce projet était destiné à évoluer plus tard pour rapporter 250 millions de dollars par an, une somme non négligeable !

    Un responsable de Google a informé Reuters que la firme n’aurait pas participé au projet si ces principes étaient déjà en place. Le travail de Google dans le cadre du contrat se rapproche à l’armement, bien qu’il n’est pas destiné à tuer des gens.

    Le responsable a décrit les principes comme un modèle auxquels peut adhérer tout développeur. Toutefois, Microsoft et d’autres firmes ont déjà mis en place leurs propres principes pour le développement de l’IA, mais l’attention particulière portée par la communauté aux efforts de Google est liée à la révélation du scandale et la protestation interne des employés contre le contrat de drones.

    Source : Reuters

    Et vous ?

    Pensez-vous que Google a ignoré volontairement la question d'éthique lorsqu'il s'est engagé avec le Pentagone dans le projet Maven ?
    Pensez-vous que la firme a déraillé de son slogan informel "Don't be evil" ?

    Voir aussi :

    IA : Google ne renouvellera pas son contrat avec le DoD dans le projet controversé Maven, sa réputation est mise en jeu
    Une coalition appelle à l'implémentation de systèmes d'IA respectueux des droits de l'Homme, gouvernements et entreprises de la Tech interpellés
    USA : le sous-secrétaire à la défense soulève l'importance d'associer l'intelligence artificielle à l'armée, évoquant une future course aux armes
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  7. #107
    MikeRowSoft
    Invité(e)
    C'est les récentes " découvertes " au sujet des voitures autonomes qui ont voulu cela ?
    Surtout que pour l'armée, il faut bien identifier l'objet avant d'agir, sinon, il y aura vraiment beaucoup de " victimes collatérales ".

    Stratégiquement, certain ferait même un canon fictif pour forcer à paraitre découvert les forces qui leurs veulent du mal... (probabilités / statistiques)
    Citation Envoyé par Coriolan Voir le message
    Pensez-vous que la firme a déraillé de son slogan informel "Don't be evil" ?

    Culturellement et religieuement, le "diable" est celui qui fait régner le mal et/ou qui puni ceux envoyer vers lui.
    Ex: Hadès ou " les gardiens des enfers ". Pratiquement une boite de pandore.
    L'enfers est comparable d'une certaine sorte à une prison où l'on ferait subir des sévis et où le directeur serait le diable, intellectuellement et culturellement parlant.

    Religieusement, le diable y a été envoyer et y règne vue que c'est une zone de non droits pour les autres. Il peut ainsi faire tout ce qu'il souhaite et comme c'est lui le plus fort à cette endroit, il a le champs libre.

  8. #108
    Membre régulier
    Ce sera dommage laissant la chance au robots s'il sont meilleurs que nous alors il merite de prendre la relève n'est ce pas l'une des lois de la nature qui laisse l'avantage au espèces qui dominent

  9. #109
    MikeRowSoft
    Invité(e)
    Effectivement, vue de cette façon c'est pas l'armée qui apporte le " mieux vivre ". Pour peu que l'humain arrive à déterminer ce que c'est.

    P.S. : j'y vois pas la même chose que les deux IA. Et même d'une personne à l'autre cela peut-être interprété différemment alors qu'il aurait passé leur vie ensemble sans jamais s'être quitté. (ex : bicéphale)

  10. #110
    Chroniqueur Actualités

    Annulation du contrat IA entre Google et le DoD : quel est le déclencheur ?
    Annulation du contrat IA entre Google et le DoD : quel est le déclencheur ?
    Un « groupe de 9 » ingénieurs pour faire la loi à Mountain View ?

    Entre les mois de mars et de juin de cette année, on est parti de Google aide le Pentagone à développer une IA pour analyser les vidéos capturées par drone à Google ne renouvellera pas son contrat avec le DoD dans le projet controversé Maven. À ceux qui ont manqué les multiples épisodes entre les deux mentionnés, on rappelle de façon brossée qu’il a fallu la mobilisation de plus de 3000 employés du géant technologique et d’organisations de protections des libertés sur Internet comme l’Electronic Frontier Foundation pour en arriver là.

    Il n’y a pas de fumée sans feu, dit-on souvent. Alors, qu’est-ce qui a déclenché cette mobilisation qui a conduit Google à arrêter de collaborer avec le Pentagone dans le cadre de ce projet en intelligence artificielle dénommé Maven ? Réponse rapide : un groupe d’ingénieurs ou si vous préférez, le « groupe de 9. »

    L’agence de presse Bloomberg rapporte en effet que plus tôt cette année, ce « groupe influent » d’ingénieurs du génie logiciel a été chargé d’implémenter un air gap – une espèce de cordon de sécurité autour de systèmes informatiques censés héberger des données sensibles. La manœuvre devait permettre à Google de passer le cap de la certification de son infrastructure informatique par le DoD et donc de se voir octroyer des contrats du genre dont on ne parle que dans des chambres noires. Seulement, pour le groupe de 9, une collaboration avec le Pentagone laissait entrevoir une utilisation de la technologie pour la guerre, ce contre quoi il a tenu à manifester son désaccord en refusant de procéder à la mise en œuvre de l’air gap. La suite, on la connaît avec l’effet boule de neige du vent de protestations.


    Sans air gap, il devient difficile d’empoigner des portions du gâteau JEDI

    De là à dire que le « groupe de 9 » fait la loi à Mountain View ? Ce serait peut-être un peu exagéré, mais le résultat est là : plus de projet Maven. En sus, il y a que sans air gap, le programme JEDI – un contrat de 10 milliards de dollars sur dix ans et pour lequel Google a manifesté un intérêt – s’éloigne. Bloomberg rapporte qu’Amazon et Microsoft disposent de cette certification qui fait tant défaut à Google, ce qui les place en pôle position pour se disputer des morceaux de ce gâteau.

    Des membres de l’équipe dirigeante de l’entreprise comme Diane Greene – CEO de Google cloud – sont d’avis qu’elle doit continuer à collaborer avec les agences gouvernementales. « Les agences fédérales comptent parmi les plus gros investisseurs sur les solutions d’entreprise et commencent à graviter autour des services offerts sur le cloud », écrit Bloomberg pour aider à comprendre les raisons d’un tel positionnement. L’agence de presse rapporte que Google a mis une pause sur l’implémentation de l’air gap, mais la situation peut changer à tout moment le temps de trouver de nouvelles mains capables de faire le travail. Ce ne serait pas nouveau sous le ciel dans un contexte où les entreprises de la Tech sont acculées de toutes parts comme l’est Google, mais où l’on trouve certaines comme Amazon qui fournissent des solutions controversées aux forces de défense américaines.

    Source : Bloomberg

    Et vous ?

    Qu’en pensez-vous ? Ces entreprises de la Tech ont-elles vraiment le choix quand on sait que si elles ne se positionnent pas sur de tels créneaux quelqu’un d’autre le fera ?

    Que pensez-vous de ces ingénieurs qui refusent de participer à la conception d’armes sophistiquées ?


    Voir aussi :

    USA : des associations s'érigent contre la technologie de reconnaissance faciale d'Amazon craignant une surveillance de masse par la police

    La police chinoise s'équipe de lunettes dotées d'une technologie de reconnaissance faciale, pour scanner les foules à la recherche de suspects

    Chine : la police se sert de la reconnaissance faciale pour arrêter un fugitif, la fiction Big Brother de 1984 est-elle devenue une réalité en 2018 ?

    Big data : la Chine a commencé à tester son système national de crédit social et menace de priver les citoyens mal notés de certains services de base

    Facebook veut utiliser la reconnaissance faciale pour vous prévenir, lorsque quelqu'un publie une photo de vous sur sa plateforme

    Mozilla publie une solution d'apprentissage profond pour la reconnaissance vocale, une implémentation TensorFlow de l'architecture Deep Speech
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  11. #111
    Membre régulier
    Un gâteau JEDI?

    Come to the Dark Side, we have cookies.

  12. #112
    Membre chevronné
    Donc, si je comprends bien, 9 ingénieurs refusent de faire le travail pour lequel ils sont payé et sabotent volontairement une partie de l'entreprise qui les emplois ...
    Je ne sais pas qui sont ces 9 personnes, mais elles ont intérêts a être relativement importantes pour Google, parce que là c'est assez hallucinant quand même.

  13. #113
    Membre du Club
    Donc, si je comprends bien, 9 ingénieurs refusent de faire le travail pour lequel ils sont payé et sabotent volontairement une partie de l'entreprise qui les emplois …
    @SofEvans c'est sur dis comme ca cela peut paraitre un peu abusé. Dans un cadre d'entreprises "classiques" ta réaction se comprends facilement, mais on est dans un cadre un peu particulier la quand meme...

    Je trouve quand dans certains cas d'éthique il faut avoir le courage de montrer son désaccord. Il est facile après coup de se dire "j'y suis pour rien si mes productions sont utilisées pour tuer des gens, c'est mon patron qu'y m'a demandé".
    Si faire certaines taches vont vraiment contre ton éthique, ben ne les fait pas . Quite à démissionner par la suite. La on parle de projets d'IA pour reconnaitre des gens dans un carde militaire, qui finira surement par des assassinats ciblés…

    Si ton patron te dit:" écrit un programme pour notre drone qui différencie les civils des combatants et tire automatiquement, avec une marge d'erreur à la reconnaissance de 40%" (exemple arbitraire).

    Pour moi, ne pas protester/refuser de faire cela équivaut a avoir une part responsabilité dans les morts civiles faites via TON travail. Tu peux pas te cacher derriere "on m'a dit de le faire c'est pas moi qui décide". Trop facile.

  14. #114
    Membre éclairé
    Citation Envoyé par ManyTwo Voir le message
    Si ton patron te dit:" écrit un programme pour notre drone qui différencie les civils des combatants et tire automatiquement, avec une marge d'erreur à la reconnaissance de 40%" (exemple arbitraire).
    Si l'erreur humain est de 45% je pense que c'est intéressant de développer ce drone.

    PS : En vrai on est plus proche des 1% que des 40%.

  15. #115
    Chroniqueur Actualités

    Project Maven : Google a fait appel aux travailleurs de la gig economy pour entraîner son IA
    Project Maven : Google a fait appel aux travailleurs de la gig economy pour entraîner son IA,
    dont l'usage est militaire

    Des millions de travailleurs de la gig economy du monde entier vivent maintenant de ce qu’on appelle des sites Web de crowdfunding - un travail qui relève du crowdsourcing ou de la division de tâches en minuscules portions à répartir sur un grand nombre de personnes. Les sites paient à peine 1 dollar de l’heure pour permettre aux utilisateurs d’accomplir des tâches brèves et répétitives, telles que l’identification de motifs sur des images et la production de critiques de produits.

    La gig economy signifie, littéralement, l’économie des petits boulots. Le terme, très populaire aux États-Unis, désigne principalement les plateformes collaboratives comme Uber ou Deliveroo qui n’emploient pas des salariés, mais travaillent avec des micro-entrepreneurs (anciennement autoentrepreneurs, qui exercent une entreprise individuelle sous le régime fiscal de la microentreprise.)

    Selon un nouveau rapport publié par The Intercept, Google a embauché des employés de la gig economy pour l'aider à mettre en place un programme controversé d'intelligence artificielle que la société avait associé au Pentagone.

    Citation Envoyé par The Intercept
    Certains de ces travailleurs de la gig economy aidaient inconsciemment à renforcer les capacités de drones sur les champs de bataille du Pentagone.

    Le travail a été effectué dans le cadre d'une initiative du ministère de la Défense appelée Project Maven. L'année dernière, The Intercept a annoncé que le Pentagone avait discrètement fait appel à Google dans le cadre du projet de développement d'un programme d'intelligence artificielle destiné à aider les analystes de la Force aérienne à trier rapidement les milliers d'heures de vidéo de drones et à choisir des cibles sur le champ de bataille.

    Cependant, le programme d'intelligence artificielle doit apprendre à être capable de distinguer les objets sur les vidéos - et pour que le programme puisse apprendre, il faut que quelqu'un l'enseigne. C’est ici qu’entrent sur scène les travailleurs de la gig economy, chargez de fournir le libellé initial des données d’image - identifiant correctement les parties d’une image - permettant au programme d’intelligence artificielle de Google de distinguer les bâtiments, les images, les arbres et d’autres objets. Le rôle des travailleurs de la gig economy a suscité peu d'attention.

    The Intercept affirme avoir obtenus des courriels qui montrent que peu après que Google eût signé l'accord avec l'armée, le géant de la technologie a commencé à travailler pour étiqueter un ensemble d'images satellites capturées par une technologie connue sous le nom d'imagerie animée à grande échelle. En octobre 2017, Google a envoyé à une société appelée CrowdFlower - qui a ensuite pris le nom de Figure Eight - des images brutes contenant des instructions relatives à l'étiquetage des données. Le projet d’étiquetage des données a commencé à montrer des résultats rapidement au cours du mois suivant, alors que les ingénieurs élaboraient de meilleures directives à l’intention des travailleurs de la gig economy pour enseigner à l’intelligence artificielle l’identification des objets.

    Le projet Maven, avec l'aide des travailleurs de la gig economy, a été conçu pour permettre aux responsables du Pentagone de procéder à une « analyse en temps quasi réel » et de « cliquer sur un bâtiment pour voir tout ce qui lui est associé », y compris des personnes et des véhicules, selon des documents obtenus par The Intercept.


    Selon The Intercept, ces travailleurs ne savaient pas à qui leur travail était destiné ni ce à quoi ils contribuaient.

    Citation Envoyé par The Intercept
    Will Pleskow, responsable de compte chez Figure Eight, a confirmé le rôle de sa société dans l’initiative Project Maven lors d’un entretien avec The Intercept lors du AI Summit, un salon destiné aux entreprises du secteur de l’apprentissage automatique. Pleskow a déclaré que les travailleurs effectuant l'étiquetage des données, appelés « contributeurs », ne savaient pas qu'ils travaillaient pour Google ou pour l'armée, ce qui n'est pas un arrangement inhabituel.

    « Nos clients ont la possibilité de montrer qui ils sont. La plupart du temps, cela reste anonyme », a déclaré Pleskow. Il a ajouté que son entreprise effectuait des tâches d'étiquetage d'image similaires pour améliorer la qualité de la technologie des véhicules autonomes, tels que les voitures sans conducteur.

    Plusieurs travailleurs de Figure Eight ont déclaré à The Intercept qu'il n'était pas inhabituel de laisser les travailleurs dans l'ignorance à propos de la manière dont les résultats de leur chaîne de montage de données sont utilisés.

    « Les contributeurs à la plateforme Figure Eight ne sont pas informés des destinataires des données », a déclaré un ancien animateur de groupe, qui utilisait son pseudonyme lorsque The Intercept a contacté des médias sociaux. « Habituellement, on leur donne une raison pour laquelle ils effectuent une tâche, telle que "Dessinez des boîtes autour d’un certain produit pour aider les machines à le reconnaître", mais ils ne savent rien de la société qui reçoit les données ».
    En juin dernier, Google avait annoncé sa décision de ne pas renouveler son contrat avec le ministère de la Défense, car il concernait le projet Maven après que plus de 3 000 employés eurent signé une pétition pour protester contre son implication dans cette initiative. L'accord devrait se terminer en mars 2019.

    Source : The Intercept

    Et vous ?

    Qu'en pensez-vous ?

    Voir aussi :

    Google lance Cloud Firestore, une base de données de documents NoSQL sans serveur, serait-elle meilleure que Firebase ?
    Après Facebook, c'est Google qui fait aussi passer Screenwise Meter, une application de collecte de données, sur les périphériques iOS
    La fermeture de Google+ pour les comptes grand public est prévue le 2 avril 2019, Google révèle aussi quand les données seront supprimées
    Google fait ses premiers pas vers la suppression des URL telles qu'on les connait sur le web avec déjà 2 projets en cours d'élaboration
    Google Chrome 72 est disponible pour Windows, macOS, Linux et Android : zoom sur les nouveautés
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  16. #116
    Membre habitué
    Idée intéressante d'utiliser des petites mains pour faire avancer la reconnaissance d'objets... parler d'intelligence serait quand même un gros mot qui fait toujours débat.

    Dommage que Google ne veut pas prendre parti à celà car je pense qu'il a beaucoup à y gagner tant sur le plan technologique, que de reconnaissance "The Brand".
    Ce qui est rigolo c'est que les chinois n'ont aucune éthique de ce genre et donc seront les plus avancés d'ici peu et c'est là que les choses sérieuse commenceront

  17. #117
    Membre extrêmement actif
    Citation Envoyé par tmcuh Voir le message
    Idée intéressante d'utiliser des petites mains pour faire avancer la reconnaissance d'objets...
    Perso ça me fait penser aux clodos utilisé par Aperture Science dans Portal 2.
    Test Subject
    According to GLaDOS, Aperture Science's annual bring-your-daughter-to-work day "is the perfect time to have [one's daughter] tested", suggesting Test Subjects are (at least partially) chosen among daughters of Aperture employees. Other popular Aperture Science Test Subject gathering methods include paying homeless people insignificant wages, forcing employees to participate in tests, picking up orphans from orphanages or transferring psychiatric patients from Aperture-branded mental institutions. Compared to early testing phases, when Aperture seems to have hired the best of the best (such as "astronauts" "war heroes" and "olympians"), Aperture later shows both increasing issues with test subject quality and apparent investigations into the whereabouts of failed test subjects.
    Parfois on retrouve de la science-fiction dystopique dans la réalité.

    Citation Envoyé par tmcuh Voir le message
    Dommage que Google ne veut pas prendre parti à celà
    Google était très content de collaborer avec le gouvernement (ça devait être bien payé), mais quelques employés ont protesté, démissionné, et tout ça, du coup Google a fait marche arrière. (c'est possible que le programme continu en secret, c'est juste que l'image publique de Google était grillé, alors il fallait essayer de redorer le blason).

    Citation Envoyé par tmcuh Voir le message
    Ce qui est rigolo c'est que les chinois n'ont aucune éthique de ce genre et donc seront les plus avancés d'ici peu et c'est là que les choses sérieuse commenceront
    Ouais il parait que l'IA va jouer un grand rôle dans la prochaine guerre mondiale qui arrive.

    Citation Envoyé par Stéphane le calme Voir le message
    Le projet Maven, avec l'aide des travailleurs de la gig economy, a été conçu pour permettre aux responsables du Pentagone de procéder à une « analyse en temps quasi réel » et de « cliquer sur un bâtiment pour voir tout ce qui lui est associé », y compris des personnes et des véhicules, selon des documents obtenus par The Intercept.
    Ça me fait peur un tel niveau de surveillance. Officiellement ils vont dire que c'est pour lutter contre le terrorisme, ou ce genre de connerie, mais en pratique ce sera peut-être autre chose.
    Keith Flint 1969 - 2019

  18. #118
    Chroniqueur Actualités

    L'Autriche veut des règles éthiques sur l'utilisation des robots tueurs dotés d'IA sur le champ de bataille
    L'Autriche veut des règles éthiques sur l'utilisation des robots tueurs dotés d'IA sur le champ de bataille
    le pays affirme que seuls les humains doivent décider des questions de vie ou de mort

    Alors que les États-Unis et l'Israël accélèrent la construction de systèmes d'armes létales autonomes (SALA) ou semi-autonomes destinés aux champs de bataille, l'inquiétude semble monter du côté de certains pays, dont l'Autriche. Vienne a exprimé son inquiétude face à la prolifération de ces armes la semaine dernière et a appelé à la mise en place d'un système d'éthique international sur l'utilisation de robots tueurs et de drones au combat. Le gouvernement autrichien affirme qu'il veut que ce soient les humains, et non les algorithmes, qui décident des questions de vie ou de mort.

    La question de l'utilisation éthique de robots tueurs et de drones sur le champ de bataille n'est pas un sujet nouveau, mais à ce jour, aucun consensus ne semble avoir été établi entre les gouvernements du monde. Vienne s'inquiète à ce propos et s'est lancée dans une initiative diplomatique visant à établir un cadre éthique pour l'utilisation de robots tueurs sur les champs de bataille du futur. Le ministre autrichien des Affaires étrangères Alexander Schallenberg a déclaré que des normes similaires à celles établies pour les mines terrestres et les armes à sous-munitions devraient être adoptées.

    « Nous devons créer des règles avant que les robots tueurs n'atteignent le champ de bataille de cette Terre », a déclaré Schallenberg au journal allemand Welt am Sonntag. Il a ajouté que le gouvernement autrichien prévoyait d'organiser une conférence à Vienne en 2021 pour « lancer un processus qui, espérons-le, aboutira à une convention internationale sur l'utilisation de l'intelligence artificielle sur les champs de bataille ». « Jusqu'à présent, le thème n'a pas été suffisamment abordé au niveau diplomatique », a déclaré Schallenberg.


    D'après ses dires, cette conférence permettra de créer un mouvement entre les États, les experts et les organisations non gouvernementales à la manière de la Croix-Rouge. En outre, soulignant la nécessité d'un cadre, Schallenberg a déclaré que les types de décisions prises dans les scénarios de combat ne devraient pas être laissés à l'intelligence artificielle. « La décision de vie ou de mort devrait être prise par une personne ayant une compréhension morale et éthique totale et non par un algorithme qui n'est qu'une suite de 0 et de 1 », a déclaré le ministre.

    Les pays développent rapidement des robots tueurs autonomes

    De nombreux pays consacrent davantage d'efforts au développement de robots tueurs dotés d'IA et capables de tuer de manière indépendante. Pourtant, les menaces liées à ces armes ont été démontrées à plusieurs reprises. Entre autres menaces, elles sont faillibles au piratage et peuvent être détournées pour se comporter de manière indésirable. Selon une lettre ouverte adressée aux Nations Unies par Elon Musk et cosignée par une multitude de spécialistes en IA, « elles vont propulser les conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains puissent comprendre ».

    Cependant, les pays continuent de développer rapidement ces armes autonomes, alors qu’ils ne font aucun progrès dans la mise en place des règles communes à l’échelle mondiale concernant leur utilisation dans les guerres à venir. Les États-Unis et l'Israël ont récemment dévoilé des projets de construction de nouveaux chars d'assaut autonomes et semi-autonomes destinés à être utilisés sur le champ de bataille. Du côté des USA, il s'agit de former une famille de chars d'assaut robotisés lourdement armés pour combattre aux côtés des humains, sur les champs de bataille du futur.

    Les véhicules sont prévus en trois classes de taille, dans trois degrés de létalité, dont léger, moyen et lourd, et pèseront jusqu'à 30 tonnes. Toute la famille des véhicules de combat robotisés utilisera des logiciels de navigation et des interfaces de commande communs déjà testés sur le terrain. Chaque variante utilisera les mêmes normes électroniques et mécaniques, une architecture ouverte dite modulaire, qui devrait permettre aux soldats sur le terrain de brancher et de faire fonctionner toute une gamme de charges utiles, des missiles aux générateurs de fumée en passant par les brouilleurs radio.

    Pour l'instant, les robots seront télécommandés par des humains, à distance, depuis leur base. Quant à l'Israël, le pays veut construire le Carmel, un char d'assaut qui sera équipé de contrôleurs Xbox et d'une IA perfectionnée avec les jeux “StarCraft II” et “Doom”. Des prototypes de ce futur véhicule de combat blindé (AFV) de l'armée israélienne ont été dévoilés publiquement en août 2019. Vu de l'extérieur, il ressemble à n'importe quelle arme de guerre classique. Il est enrobé de couches d'acier très épaisses, certaines colorées en kaki traditionnel, d'autres en noir.

    De forme rectangulaire et avec des marches de char, son sommet est équipé de capteurs, de caméras et d'un espace pour les armements. Cependant, la caractéristique la plus unique du Carmel se trouve à l'entrée de la trappe arrière, qui mène vers un espace rempli d'équipements que l'on trouve le plus souvent dans la chambre d'un “adolescent”.

    Les robots tueurs devraient-ils être interdits ?

    Les avis sont partagés sur cette question. En effet, l'utilisation d'armes autonomes meurtrières est en discussion aux Nations unies depuis 2015, dans le cadre de la Convention sur certaines armes classiques (CCAC). Les pays pionniers dans le domaine des systèmes d'armes autonomes, dont la Russie, les États-Unis et Israël, rejettent une interdiction contraignante en vertu du droit international. Ces poids lourds militaires sont confrontés à un groupe d'États qui réclament une législation contraignante dans le cadre de la campagne menée par les ONG pour arrêter les robots tueurs.


    En 2017, la Russie soutenait que « l’absence de réglementation claire sur de tels systèmes d’armement reste le principal problème dans la discussion sur les lois », mais « il est difficilement acceptable que l’encadrement des SALA restreigne la liberté de profiter des avantages des technologies autonomes qui représentent l’avenir de l’humanité ». De leur côté, les États-Unis ont estimé qu’il est encore « prématuré » d’envisager une interdiction des SALA, même si l’administration Trump disait soutenir le processus de la CCAC.

    Ainsi, l'on estime qu'en 2018, les États-Unis, la Russie, la Corée du Sud, Israël et l’Australie auraient empêché les Nations Unies de s’entendre sur la question de savoir s’il fallait ou non interdire les robots tueurs. C'est à la fin de 2013 que les Nations Unies ont mis le sujet à l'ordre du jour, mais depuis lors, peu de choses se sont produites. L'organisation n'a même pas été en mesure de s'entendre sur une définition des armes létales entièrement autonomes. Les militants des droits de l’homme devraient davantage s’armer de courage pour continuer le combat.

    Selon le média allemand Deutsche Welle (DW), en tout, 30 pays souhaitent une interdiction totale de l'utilisation des robots tueurs dans le cadre de cette campagne, ainsi que le Parlement européen. Par ailleurs, en mars 2019, plusieurs militants de 35 pays s’étaient réunis à Berlin pour demander l'interdiction des armes autonomes meurtrières. Ces militants engagés contre l’utilisation des armes autonomes veulent attirer l’attention des pays non encore engagés et surtout l’Allemagne dans la perspective de nouvelles négociations sur ces armes à Genève.

    Noel Sharkey, l'une des figures de proue de la campagne pour arrêter les robots tueurs, a déclaré à l'époque qu'il fallait arrêter de parler de « systèmes d'armes létales autonomes » comme s'il s'agissait d'un roman de science-fiction.

    Source : Deutsche Welle

    Et vous ?

    Quel est votre avis sur le sujet ?
    Les robots tueurs devraient-ils être interdits ?

    Voir aussi

    La résistance contre les robots tueurs grandit : des militants de 35 pays à Berlin pour s'opposer à ces armes et réclamer une initiative allemande

    L'armée américaine veut créer des robots lourds semi-autonomes armés de missiles pour accomplir certaines des tâches les plus dangereuses des soldats

    Carmel, le nouveau char d'Israël, sera équipé de contrôleurs X-Box et d'une IA perfectionnée avec les jeux "StarCraft II" et "Doom" dans un cockpit de style F-35

    Les pays développent rapidement des "robots tueurs" dotés d'IA qui tuent de manière indépendante, mais ne parviennent pas à s'entendre sur des règles pour contrôler ces armes, avertissent des experts
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  19. #119
    Membre extrêmement actif
    Citation Envoyé par Bill Fassinou Voir le message
    Selon le média allemand Deutsche Welle (DW), en tout, 30 pays souhaitent une interdiction totale de l'utilisation des robots tueurs dans le cadre de cette campagne, ainsi que le Parlement européen. Par ailleurs, en mars 2019, plusieurs militants de 35 pays s’étaient réunis à Berlin pour demander l'interdiction des armes autonomes meurtrières. Ces militants engagés contre l’utilisation des armes autonomes veulent attirer l’attention des pays non encore engagés et surtout l’Allemagne dans la perspective de nouvelles négociations sur ces armes à Genève.
    Ce serait chouette qu'on interdise aux états d'utiliser des robots contre leur peuple, par contre quand c'est la guerre il n'y a plus de règle.

    ONU. Soixante-dix ans après les Conventions de Genève, les violations du droit international humanitaire qui ravagent la vie des civils en temps de guerre illustrent un échec catastrophique
    En Somalie, la crise des droits humains et humanitaire reste également l’une des plus graves au monde. Toutes les parties au conflit, et notamment les États-Unis, ont commis des violations du droit international relatif aux droits humains et du droit international humanitaire. Bien qu’ayant intensifié les frappes aériennes dans leur guerre opaque en Somalie ces deux dernières années, les États-Unis ont refusé d’admettre que leurs frappes avaient fait des victimes parmi les civils jusqu’à ce qu’une enquête d’Amnesty International les y force.

    Israël a, à de nombreuses reprises, pris pour cible des civils et des biens de caractère civil lors d’opérations militaires à Gaza depuis 2008, causant une destruction de grande ampleur et faisant de nombreux morts parmi les civils. Entre mars 2018 et mars 2019, Israël a eu recours à une force meurtrière contre des manifestants palestiniens, faisant au moins 195 morts, dont des secouristes, des journalistes et des enfants. Des groupes armés palestiniens ont procédé à des tirs aveugles de roquettes en direction de quartiers civils d’Israël, faisant plusieurs morts.
    Les pays peuvent signer toutes les conventions que vous voulez, les puissances militaire comme les USA et Israël continueront de développer des armes en secret. Quoi que parfois les pays sortent d'un traité officiellement :
    Traité sur les forces nucléaires à portée intermédiaire
    Depuis 2007, Vladimir Poutine le met en cause à plusieurs reprises comme desservant les intérêts de la Russie face au développement de missiles par la Chine et au déploiement de systèmes de défense antimissile par les États-Unis. En octobre 2018, Donald Trump annonce son intention de retirer les États-Unis de ce traité. Les négociations menées avec la Russie ne débouchant sur aucun accord, Washington confirme formellement le 1er février 2019 que les États-Unis suspendent leurs obligations en vertu du traité FNI et entament le processus de retrait du traité FNI d'une durée de six mois. Moscou réplique le lendemain en annonçant à son tour se retirer de ce traité. Le retrait américain est officiel le 2 août 2019.
    Il est probable que les armes autonomes jouent un rôle lors de la prochaine guerre mondiale. Les gouvernements investissent beaucoup dans l'IA militaire.
    L’armée américaine investit 2 milliards de dollars dans l’intelligence artificielle
    La Darpa, prestigieuse agence de recherche de l’armée, veut développer des machines qui seront « comme des collègues » pour les militaires.
    IA et informatique quantique : les Etats-Unis posent 1 milliard $ sur la table
    Les États-Unis annoncent un investissement d’un milliard de dollars dans l’intelligence artificielle et l’informatique quantique. L’objectif ? Rester leader technologique, devant la Chine, notamment dans le domaine militaire…
    Keith Flint 1969 - 2019

  20. #120
    Membre averti
    Citation Envoyé par Ryu2000 Voir le message
    Ce serait chouette qu'on interdise aux états d'utiliser des robots contre leur peuple, par contre quand c'est la guerre il n'y a plus de règle.

    ONU. Soixante-dix ans après les Conventions de Genève, les violations du droit international humanitaire qui ravagent la vie des civils en temps de guerre illustrent un échec catastrophique


    Les pays peuvent signer toutes les conventions que vous voulez, les puissances militaire comme les USA et Israël continueront de développer des armes en secret. Quoi que parfois les pays sortent d'un traité officiellement :
    Traité sur les forces nucléaires à portée intermédiaire


    Il est probable que les armes autonomes jouent un rôle lors de la prochaine guerre mondiale. Les gouvernements investissent beaucoup dans l'IA militaire.
    L’armée américaine investit 2 milliards de dollars dans l’intelligence artificielle


    IA et informatique quantique : les Etats-Unis posent 1 milliard $ sur la table
    Je me coucherais moins bête, mais je ne suis pas sûr de pouvoir dormir après avoir lu ceci...

###raw>template_hook.ano_emploi###