IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Yann LeCun supprime son compte Twitter suite à une discussion sur la partialité de l'IA avec ses pairs


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 257
    Points
    66 257
    Par défaut Yann LeCun supprime son compte Twitter suite à une discussion sur la partialité de l'IA avec ses pairs
    Yann LeCun, lauréat du prix Turing en 2018, supprime son compte Twitter suite à une discussion sur la partialité de l'IA avec ses pairs
    les systèmes d'IA sont biaisés s'ils sont préformés avec des données biaisées, dit-il

    Yann LeCun, lauréat du prix Turing et responsable scientifique de la division IA chez Facebook, a tout récemment supprimé son compte Twitter à la suite d’une longue et acharnée dispute concernant les préjugés raciaux dans le domaine de l'IA. Cette conversation remet encore une fois sur la table les préoccupations au sujet des biais occasionnés par les algorithmes d’IA et les préoccupations autour de la mise en place d’IA éthiques dans les organisations. Tout ceci représente des préoccupations auxquelles le privé et les gouvernements tentent de trouver une réponse rapide.

    Selon un rapport de Synced, contrairement à la majorité des autres chercheurs en intelligence artificielle, Yann LeCun a souvent exprimé ses opinions politiques sur les plateformes de médias sociaux. Ce faisant, il se serait déjà engagé dans des querelles publiques avec des collègues comme Gary Marcus. Cette fois, cependant, Synced explique que le penchant de LeCun pour le débat l'a amené à se heurter à ce qu'il a appelé « les codes linguistiques de la justice sociale moderne ». Le sujet qui divise ici est un nouveau modèle de recréation de photo dénommé “Pulse AI”.

    Tout aurait commencé le 20 juin avec un tweet en référence au modèle de recréation de photo Pulse AI développé par l'université de Duke qui avait dépixelé une image d'entrée basse résolution de Barack Obama en une photo d'un homme blanc. Brad Wyble, professeur associé à la Penn State University, a tweeté : « cette image en dit long sur les dangers de la partialité dans l'IA ». Ce commentaire n’a sûrement pas plu à LeCun qui a répondu au professeur Brad Wyble en disant : « Les systèmes de ML sont biaisés lorsque les données sont biaisées ».

    Nom : z1.jpeg
Affichages : 35484
Taille : 16,1 Ko

    « Ce système d'échantillonnage de visages fait passer tout le monde pour un blanc parce que le réseau a été préformé sur FlickFaceHQ, qui contient principalement des photos de personnes blanches. Entraînez le même système sur un ensemble de données du Sénégal, et tout le monde aura l'air africain », a-t-il ajouté. Ce commentaire de LeCun a fait réagir Timnit Gebru, coresponsable technique de l'équipe d'IA éthique de Google et travaillant sur les biais des algorithmes d’IA et sur l'exploration de données. Voici ce qu’elle a répondu :

    « J'en ai assez de ce cadrage. J'en ai marre. Beaucoup de gens ont essayé d'expliquer, de nombreux universitaires. Écoutez-nous. Vous ne pouvez pas simplement réduire les dommages causés par le ML aux biais des ensembles de données. », a-t-elle déclaré, avant d’ajouter « Même au milieu des protestations mondiales, les gens n'entendent pas nos voix et n'essaient pas d'apprendre de nous, mais supposent qu'ils sont experts en tout. Laissez-nous-la diriger et vous la suivrez. Écoutez simplement. Et apprenez des universitaires comme @ruha9 [Ruha Benjamin, professeur associé d'études afro-américaines à l'université de Princeton] ».

    Nom : z2.png
Affichages : 5700
Taille : 95,6 Ko

    Gebru est connue pour ses travaux concernant les préjugés raciaux et sexistes présents dans les systèmes de reconnaissance faciale et autres algorithmes d'IA et défend depuis des années l'équité et l'éthique dans l'IA. Elle dirige un projet, Gender Shades, avec Joy Buolamwini, informaticienne au MIT Media Lab, qui a révélé que la plupart des logiciels commerciaux de reconnaissance faciale étaient plus susceptibles d'être mal classifiés et étaient moins précis avec les femmes à la peau foncée qu'avec les hommes à la peau claire, un problème qu’il faut vite résoudre, selon elle.

    Si la discussion est rapidement devenue piquante, LeCun a toutefois tenté d'éclaircir un tant soit peu sa position. LeCun a répondu que son commentaire portait sur le cas particulier du modèle et de l'ensemble de données Duke. « Les conséquences des biais sont considérablement plus graves au sein d'un produit déployé que dans un article universitaire », a-t-il poursuivi dans un long fil de tweets, et en suggérant que ce ne sont pas les chercheurs en ML qui doivent être plus prudents dans la sélection des données, mais plutôt les ingénieurs.

    En outre, le fil de discussion a aussi intéressé d’autres personnes de la communauté internationale, dont plusieurs n’ont pas manqué d’apporter leurs avis à l’instar de quelques membres d'Amnesty International et des communautés de militants. Quelques jours plus tard, le 25 juin, LeCun est revenu sur le fil pour s’adresser à Gebru : « J'admire beaucoup votre travail sur l'éthique et l'équité d'IA. Je tiens beaucoup à travailler pour que les préjugés ne soient pas amplifiés par l'IA et je suis désolé que la façon dont je communique ici soit devenue le sujet qui fâche ».

    À son tour, Gebru a répondu en disant : « On nous dit souvent des choses comme “Je suis désolé que ce soit ce que vous ressentez”. Cela ne reflète pas vraiment la réalité. J'espère que vous comprenez maintenant pourquoi la façon dont vous avez communiqué est devenue fâcheuse. C'est devenu fâcheux parce que c'est un modèle de marginalisation ». Ainsi, le va-et-vient d'une semaine entre LeCun et Gebru a attiré des milliers de commentaires et de retweets, et un certain nombre de chercheurs en IA de haut niveau ont exprimé leur insatisfaction quant aux explications fournies par Yann LeCun pour justifier sa position.

    David Ha, scientifique de Google Research, a déclaré : « Je ne suis pas d'accord avec Yann. Tant que les progrès seront évalués sur la base de données biaisées, ces biais se refléteront aussi dans les biais inductifs des systèmes de ML ». Nicolas Le Roux, président de la CIFAR Canada AI, a également commenté : « Yann, je sais que vous voulez bien faire. J'ai vu beaucoup de gens agir comme vous l'avez fait en toute bonne foi, et se mettre sur la défensive quand les gens leur faisaient remarquer que ce n'était pas la bonne réponse, jusqu'au jour où ils se sont arrêtés pour écouter et réfléchir et finalement changer leur comportement ».

    La communauté de l'intelligence artificielle a pris un certain nombre de mesures ces dernières années dans le but d’encourager la diversité et l'intégration, à l’instar de l'initiative “AI for all” qui a été lancée par Fei-Fei Li, superviseur de Gebru à Stanford, et la programmation de la grande conférence sur l'intelligence artificielle ICLR 2020 en Éthiopie. En outre, NeurIPS, une des plus grandes conférences sur l'intelligence artificielle au monde, a demandé aux auteurs cette année d'inclure une déclaration sur l'impact potentiel plus large de leurs articles soumis.

    Cela doit principalement traiter de ses aspects éthiques et de ses futures conséquences sociétales. Ainsi, les auteurs doivent prendre soin de discuter des résultats positifs et négatifs. Yann LeCun a quitté Twitter le 28 juin après avoir tweeté : « J'aimerais demander à tout le monde de cesser de s'attaquer les uns aux autres via Twitter ou d'autres moyens. En particulier, j'aimerais qu’on cesse de s'attaquer à @timnitGebru et tous ceux qui ont critiqué mes messages... Au revoir tout le monde ».

    Sources : tweets (1, 2)

    Et vous ?

    Quel est votre avis sur le sujet ?
    Êtes-vous du même avis que LeCun qui soutient que les systèmes d'IA sont biaisés lorsqu'ils sont préformés avec des données biaisées ?
    Ou partagez-vous l'avis de Gebru qui pensent qu'il ne faut pas simplement réduire les dommages causés par le ML aux biais des ensembles de données ?
    Quelle est votre opinion sur les préjugés raciaux et sexistes présents dans les systèmes de reconnaissance faciale et autres algorithmes d'IA ?

    Voir aussi

    L'« IA éthique » pourrait-elle exister ? Les technologues pensent que les défis éthiques de l'IA pourraient être résolus par du code, mais ces défis seraient beaucoup plus complexes, selon un auteur

    Les experts de l'Union européenne publient le premier draft sur les lignes directrices d'une IA éthique, la version finale est attendue en mars 2019

    Les « parrains de l'intelligence artificielle » récompensés du prix Turing 2018, le prix Nobel de l'informatique

    Le Pentagone annonce l'adoption de cinq principes visant à garantir l'utilisation éthique et responsable de l'IA par les États-Unis dans le domaine militaire

    Microsoft développe un outil pour détecter automatiquement les biais dans les algorithmes d'IA, une solution pour éviter les discriminations ?
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Expert éminent Avatar de BufferBob
    Profil pro
    responsable R&D vidage de truites
    Inscrit en
    Novembre 2010
    Messages
    3 035
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : responsable R&D vidage de truites

    Informations forums :
    Inscription : Novembre 2010
    Messages : 3 035
    Points : 8 400
    Points
    8 400
    Par défaut
    les évolutions de la morale et de l'éthique aux USA ces dernières années m'affligent perso.

    dire que "ça en dit long sur la partialité de l'IA" prête donc à ladite IA une partialité, c'est à dire sinon un choix conscient de sa part, au moins une décision qui est que de son ressort exclusif
    c'est ni plus ni moins lui octroyer une individualité et remettre la responsabilité de sa programmation et/ou de son entrainement sur son dos, c'est absurde.

    Citation Envoyé par Bill Fassinou Voir le message
    (...) ce qu'il a appelé « les codes linguistiques de la justice sociale moderne »
    je suis assez d'accord, et les dérives de cette "justice sociale" 2.0 sont de plus en plus nombreuses et consternantes (coucou "master/slave", les pièces d'échecs "blanches/noires", la stigmatisation des "cisgenre", des "carnistes" etc.)
    une approche très humaine de "l'intelligence artificielle" finalement

    au delà de ça, "shitstorms happen 🤷", surtout sur Twitter, se désinscrire est encore la meilleure chose qu'on puisse en faire, avis perso.

    donc team LeCun sans hésitation.

  3. #3
    Membre extrêmement actif Avatar de darklinux
    Homme Profil pro
    Chef de projet en SSII
    Inscrit en
    Novembre 2005
    Messages
    570
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 47
    Localisation : France, Seine et Marne (Île de France)

    Informations professionnelles :
    Activité : Chef de projet en SSII
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2005
    Messages : 570
    Points : 1 023
    Points
    1 023
    Par défaut
    Quel est votre avis sur le sujet ?

    C 'est fort dommage , mais en ces temps de remake du MacCartisme à la sauce SJW

    Êtes-vous du même avis que LeCun qui soutient que les systèmes d'IA sont biaisés lorsqu'ils sont préformés avec des données biaisées ?
    Oui , il n ' y a rien de plus simple d ' orienté les données et donc de biaisé les résultats

    Ou partagez-vous l'avis de Gebru qui pensent qu'il ne faut pas simplement réduire les dommages causés par le ML aux biais des ensembles de données ?
    le ML est du à deux choses : l ' algo et les données point barre

    Quelle est votre opinion sur les préjugés raciaux et sexistes présents dans les systèmes de reconnaissance faciale et autres algorithmes d'IA ?
    Nous sommes dans un temps particulier , la folie règne et les personnes non developpeurs , parlent de sujets qu ' ils ignorent de façon péremptoire

  4. #4
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Février 2016
    Messages
    223
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Seine Saint Denis (Île de France)

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Février 2016
    Messages : 223
    Points : 561
    Points
    561
    Par défaut
    ne parlons pas des questions citoyennes et politique que le déploiement de l'IA amène avec son lot d'innovation, étouffons tout débat en le racisant. Blanc, noir, jaune, nous vivrons la même dystopie. Ce serait dommage de favoriser un groupe au détriment d'un autre à l'heure des quotas.

  5. #5
    Inactif  
    Homme Profil pro
    Lycéen
    Inscrit en
    Septembre 2019
    Messages
    67
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 20
    Localisation : France, Indre et Loire (Centre)

    Informations professionnelles :
    Activité : Lycéen
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Septembre 2019
    Messages : 67
    Points : 239
    Points
    239
    Par défaut
    Pourquoi tout le monde s'attaque à lui ? Si le problème ne vient pas des données d'où pensent ils que vient le problème ?? Le problème ne peux venir de nulle part d'autre que les données.

  6. #6
    Membre confirmé
    Homme Profil pro
    Inscrit en
    Décembre 2011
    Messages
    268
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations forums :
    Inscription : Décembre 2011
    Messages : 268
    Points : 558
    Points
    558
    Par défaut
    Mouai elle a oublié que l'IA ne serait pas ce qu'elle est sans Yann Lecun, il est parmi ceux qui ont remit l'IA sur les rails faudrait pas l'oublier quand même ... malheureusement Twitter est le dernier endroit pour parler de ces sujets vu le nombre de militants de tout bord, le niveau frise souvent celui de la place publique, c'est à dire proche de zéro.

  7. #7
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 604
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 604
    Points : 18 521
    Points
    18 521
    Par défaut
    Citation Envoyé par Bill Fassinou Voir le message
    « Ce système d'échantillonnage de visages fait passer tout le monde pour un blanc parce que le réseau a été préformé sur FlickFaceHQ, qui contient principalement des photos de personnes blanches. Entraînez le même système sur un ensemble de données du Sénégal, et tout le monde aura l'air africain », a-t-il ajouté. Ce commentaire de LeCun a fait réagir Timnit Gebru, coresponsable technique de l'équipe d'IA éthique de Google et travaillant sur les biais des algorithmes d’IA et sur l'exploration de données.
    Purée c'est impressionnant comme Timnit Gebru s’offusque pour un rien
    Il doit avoir un esprit vraiment tordu pour voir un problème avec cette phrase. Le gars dit juste que les données que tu donnes en entré influent sur le résultat.

    Citation Envoyé par Bill Fassinou Voir le message
    « les codes linguistiques de la justice sociale moderne »

    Ce qu'il ne faut pas lire comme sottise...

    Il y a une minorité de personnes hystériques qui ne tolèrent rien et qui font du bruit sur les réseaux sociaux.
    C'est possible que Yann LeCun se soit barré de Twitter avec cet état d'esprit :

    Vivement que ça finisse cette période de victimisation, parce que c'est insupportable. Pendant que les SJW s'énervent là dessus, il y a des vrais problèmes.
    Keith Flint 1969 - 2019

  8. #8
    Inactif  


    Homme Profil pro
    Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Inscrit en
    Décembre 2011
    Messages
    9 012
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 31
    Localisation : France, Loire (Rhône Alpes)

    Informations professionnelles :
    Activité : Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Secteur : Enseignement

    Informations forums :
    Inscription : Décembre 2011
    Messages : 9 012
    Points : 23 145
    Points
    23 145
    Par défaut
    Bon, pour les imbéciles incompétents qui se proclament expert en IA, sans rien avoir compris à l'IA :
    1. Les biais de l'IA dépendent plus que fortement des biais des jeux de données ;
    2. Les IA déduisent des corrélations, pas des causalités ;
    3. Certains éléments peuvent être corrélés (ou des causes), sans qu'on juge qu'il soit juste de tenir compte de cet élément pour discriminer ;
    4. Certains éléments sont plus difficiles à détecter pour certains capteurs (e.g. pour des histoires de contrastes/formes ou autres) ;
    5. Il y a toujours un taux d'erreur ;
    6. l'IA C'EST PAS MAGIQUE !

  9. #9
    Inactif  


    Homme Profil pro
    Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Inscrit en
    Décembre 2011
    Messages
    9 012
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 31
    Localisation : France, Loire (Rhône Alpes)

    Informations professionnelles :
    Activité : Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Secteur : Enseignement

    Informations forums :
    Inscription : Décembre 2011
    Messages : 9 012
    Points : 23 145
    Points
    23 145
    Par défaut
    Citation Envoyé par Bill Fassinou Voir le message
    Brad Wyble, professeur associé à la Penn State University, a tweeté : « cette image en dit long sur les dangers de la partialité dans l'IA ».
    C'est de anthropomorphisation. L'IA n'est pas partial, tu lui donnes des données, elle sort un résultat.

    Elle peut être biaisée, certes, mais c'est très lié au jeu d'apprentissage.

    Citation Envoyé par Bill Fassinou Voir le message
    « Ce système d'échantillonnage de visages fait passer tout le monde pour un blanc parce que le réseau a été préformé sur FlickFaceHQ, qui contient principalement des photos de personnes blanches. Entraînez le même système sur un ensemble de données du Sénégal, et tout le monde aura l'air africain », a-t-il ajouté.
    Gros +1.

    Citation Envoyé par Bill Fassinou Voir le message
    « J'en ai assez de ce cadrage. J'en ai marre. Beaucoup de gens ont essayé d'expliquer, de nombreux universitaires. Écoutez-nous. Vous ne pouvez pas simplement réduire les dommages causés par le ML aux biais des ensembles de données. »
    En même temps ces "universitaires" sont plus militants que chercheurs... encore heureux qu'on ne les écoute pas.

    Encore une fois, le ML ne cause pas de dommages, c'est un outil. C'est la mauvaise utilisation de l'outil qui peut être dommageable.

    Les dommages ne peuvent certes ne pas être uniquement causés par les biais dans la base de données, mais en l'occurence, c'est bien le problème ici. Après faire croire que les IA sont sexistes/racistes, c'est ridicule.

    Citation Envoyé par Bill Fassinou Voir le message
    Laissez-nous-la diriger et vous la suivrez. Écoutez simplement. Et apprenez des universitaires comme @ruha9
    Non, hors de questions.


    Citation Envoyé par Bill Fassinou Voir le message
    Gebru est connue pour ses travaux concernant les préjugés raciaux et sexistes présents dans les systèmes de reconnaissance faciale et autres algorithmes d'IA et défend depuis des années l'équité et l'éthique dans l'IA. Elle dirige un projet, Gender Shades, avec Joy Buolamwini, informaticienne au MIT Media Lab[...]
    Tout est dit...

    Citation Envoyé par Bill Fassinou Voir le message
    qui a révélé que la plupart des logiciels commerciaux de reconnaissance faciale étaient plus susceptibles d'être mal classifiés et étaient moins précis avec les femmes à la peau foncée qu'avec les hommes à la peau claire, un problème qu’il faut vite résoudre, selon elle.
    Ridiculement stupide.

    Qu'est-ce qu'on s'en fout qu'une catégorie soit mieux reconnue qu'une autre (i.e. relativement à un autre groupe), le problème est de pouvoir suffisamment reconnaître par rapport à ce qui est réalisable techniquement et économiquement (i.e. dans l'absolu).

    Citation Envoyé par Bill Fassinou Voir le message
    et en suggérant que ce ne sont pas les chercheurs en ML qui doivent être plus prudents dans la sélection des données, mais plutôt les ingénieurs.
    +1, on n'a de toute manière pas les capacités de constituer des bases parfaitement représentatives de la population.

    Citation Envoyé par Bill Fassinou Voir le message
    À son tour, Gebru a répondu en disant : « On nous dit souvent des choses comme “Je suis désolé que ce soit ce que vous ressentez”. Cela ne reflète pas vraiment la réalité. J'espère que vous comprenez maintenant pourquoi la façon dont vous avez communiqué est devenue fâcheuse. C'est devenu fâcheux parce que c'est un modèle de marginalisation ».
    Saleté de SJW.

    Citation Envoyé par Bill Fassinou Voir le message
    David Ha, scientifique de Google Research, a déclaré : « Je ne suis pas d'accord avec Yann. Tant que les progrès seront évalués sur la base de données biaisées, ces biais se refléteront aussi dans les biais inductifs des systèmes de ML ».
    ... a-t-il ne serait-ce que la moindre idée de la manière dont on construit les bases d'apprentissages et de tests ?

    C'est la putain de même base qu'on sépare en 2 (très grossièrement, je que je dis est très réducteur) !
    Si les données d'apprentissages ne sont pas biaisées, les données d'évaluations ne seront pas plus biaisées...


    Citation Envoyé par Bill Fassinou Voir le message
    Nicolas Le Roux, président de la CIFAR Canada AI, a également commenté : « Yann, je sais que vous voulez bien faire. J'ai vu beaucoup de gens agir comme vous l'avez fait en toute bonne foi, et se mettre sur la défensive quand les gens leur faisaient remarquer que ce n'était pas la bonne réponse, jusqu'au jour où ils se sont arrêtés pour écouter et réfléchir et finalement changer leur comportement ».
    Saleté de SJW. en train de se branler sur sa vertue supérieure.

  10. #10
    Invité
    Invité(e)
    Par défaut
    Même au milieu des protestations mondiales, les gens n'entendent pas nos voix et n'essaient pas d'apprendre de nous, mais supposent qu'ils sont experts en tout. Laissez-nous-la diriger et vous la suivrez. Écoutez simplement. Et apprenez des universitaires comme @ruha9 [Ruha Benjamin, professeur associé d'études afro-américaines à l'université de Princeton]

    Des propos intolérables... "On ne dit pas qu'on a raison, c'est juste que vous ne savez pas que vous avez tord, alors laissez nous faire."

    La grosse ironie étant que les mêmes personnes se plaignant que personne ne les écoute, se permettent de demander à tout le monde de se taire, alors que tout le monde les a déjà entendus. C'est le principe même d'un raisonnement sain qui est mis à la porte, ici; Au lieu de se remettre en question dans leur démarches, ils persistent à forcer leur opinion comme étant valide, et réclament que la majorité se remette en question.

    C'est incroyable de lire ce genre de chose venant de personnalités publiques sur les réseaux sociaux. La prochaine génération qui baigne là dedans va avoir besoin de beaucoup de conviction et de connaissances pour faire face à autant de têtes dures... Ayant moi même des problèmes de confiance, je suis content de ne pas être né plus tard !

  11. #11
    Membre habitué
    Homme Profil pro
    Chef de projet
    Inscrit en
    Mars 2018
    Messages
    44
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Haute Garonne (Midi Pyrénées)

    Informations professionnelles :
    Activité : Chef de projet
    Secteur : Administration - Collectivité locale

    Informations forums :
    Inscription : Mars 2018
    Messages : 44
    Points : 158
    Points
    158
    Par défaut Certains outils sont peut-être plus dangereux que d'autres.
    Encore une fois, le ML ne cause pas de dommages, c'est un outil. C'est la mauvaise utilisation de l'outil qui peut être dommageable.



    Et donc, en suivant ce raisonnement, la bombe atomique ne causerait pas de dommages car c'est aussi un outil.

    Je te propose d'aller expliquer cette intéressante théorie du côté d'Hiroshima et de Nagasaki.

  12. #12
    Inactif  


    Homme Profil pro
    Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Inscrit en
    Décembre 2011
    Messages
    9 012
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 31
    Localisation : France, Loire (Rhône Alpes)

    Informations professionnelles :
    Activité : Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Secteur : Enseignement

    Informations forums :
    Inscription : Décembre 2011
    Messages : 9 012
    Points : 23 145
    Points
    23 145
    Par défaut
    Citation Envoyé par web bea Voir le message
    Et donc, en suivant ce raisonnement, la bombe atomique ne causerait pas de dommages car c'est aussi un outil.

    Je te propose d'aller expliquer cette intéressante théorie du côté d'Hiroshima et de Nagasaki.
    Je te propose d'aller expliquer ta position très intéressante au Japon. C'est pas la faute des Américains qui ont lâché la bombe, c'est la faute à la bombe atomique...



    Une bombe atomique, par essence n'est ni bonne ni mauvaise, c'est l'utilisation que tu vas en faire. Si tu t'en sert pour exploser un astéroïde qui menace la Terre, c'est une très bonne chose. Si tu t'en sers comme moyen de dissuasion afin d'éviter les conflits armés, c'est une très bonne chose. Si tu t'en sers pour mettre fin à une guerre en limitant de manière considérable les pertes humaines, c'est relativement une bonne chose.


    Et au passage, ce n'est ici, même pas "l'action" de l'outil qui cause des dommages, mais l'interprétation qu'on va avoir de ses résultats... qui est ici d'origine 100% humaine. C'est une décision humaine qui va interpréter les résultats ou de décider de ce qu'il faut faire si X ou Y.


    C'est l'été les cerveaux partent en vacance...

  13. #13
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 604
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 604
    Points : 18 521
    Points
    18 521
    Par défaut
    Citation Envoyé par web bea Voir le message
    la bombe atomique ne causerait pas de dommages
    Ben ouais ! C'est ça le principe, on appelle ça :
    • Équilibre de la terreur
    • Mutual assured destruction


    Le principe c'est : si tu m'envoies une bombe atomique, juste avant de la recevoir je t'en envoie une aussi, comme ça va nous détruire mutuellement, donc personne ne va envoyer de bombe atomique.
    Il y a juste les USA qui ont balancés 2 bombe atomiques sur des civils pour tester 2 technologies (alors que le Japon voulait déjà se rendre avant la première bombe).
    Keith Flint 1969 - 2019

  14. #14
    Membre éprouvé
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2008
    Messages
    218
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Octobre 2008
    Messages : 218
    Points : 1 088
    Points
    1 088
    Par défaut
    LeCun a raison mais n'a pas été malin sur ce coup là.

    Il suffisait de répondre "Oui, le problème vient du jeu de donnée d'apprentissage. Mais pas de soucis, vous avez raison : la prochaine fois, on se basera sur un jeu de donnée avec plus de diversité". Et basta, fin de l'histoire...

    Alors que là, c'est un dialogue de sourd, il se braque, boude, et supprime son compte Tweeter en perdant la face publiquement...

  15. #15
    Invité
    Invité(e)
    Par défaut SOPHISME
    Citation Envoyé par web bea Voir le message


    Et donc, en suivant ce raisonnement, la bombe atomique ne causerait pas de dommages car c'est aussi un outil.

    ALERTE AU SOPHISME

    Pour reprendre ton raisonnement avec autant de mauvaise foi:

    "Et donc, en suivant ce raisonnement, le couteau ne causerait pas de dommages car c'est aussi un outil.
    Allez dire ça a Freddy Kruger"

    "Et donc, en suivant ce raisonnement, les douches ne causeraient pas de dommages car c'est aussi un outil.
    Allez dire ça aux Nazis"

    La technologie de la fission nucléaire est l'outil, et l'humain en reste l'utilisateur. Si l'humain l'utilise mal, ce n'est pas la technologie qui est mauvaise.

    Et un point Godwin pour la route.

  16. #16
    Invité
    Invité(e)
    Par défaut
    Citation Envoyé par Guilp Voir le message
    ... Alors que là, c'est un dialogue de sourd, il se braque, boude, et supprime son compte Tweeter en perdant la face publiquement...
    Quelque part, mentir n'est pas la solution, et ça a déjà pu être vérifié. Surtout pour une communauté aussi virulente et sensible que la communauté LGBT/SJW.
    Je pense que c'est une bonne chose qu'il ait supprimé son compte dans le sens où ça montre que les gens autonomes et intelligents sont capables de se passer de l'avis des autres pour savoir que leur travail est sensé.

    Ça montre aussi la limite de la liberté d'expression, et qui s'efforce de la limiter également. J'imagine le nombre de génies qui se taisent parce qu'ils se feraient allumer pour leur découverte technologique. Juste à cause de détails triviaux comme celui là. Quand le sage montre la lune l'imbécile regarde le doigt.

  17. #17
    Membre averti
    Profil pro
    Inscrit en
    Février 2010
    Messages
    267
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Février 2010
    Messages : 267
    Points : 367
    Points
    367
    Par défaut
    Citation Envoyé par Jesus63 Voir le message
    Quelque part, mentir n'est pas la solution, et ça a déjà pu être vérifié. Surtout pour une communauté aussi virulente et sensible que la communauté LGBT/SJW.
    Je pense que c'est une bonne chose qu'il ait supprimé son compte dans le sens où ça montre que les gens autonomes et intelligents sont capables de se passer de l'avis des autres pour savoir que leur travail est sensé.

    Ça montre aussi la limite de la liberté d'expression, et qui s'efforce de la limiter également. J'imagine le nombre de génies qui se taisent parce qu'ils se feraient allumer pour leur découverte technologique. Juste à cause de détails triviaux comme celui là. Quand le sage montre la lune l'imbécile regarde le doigt.
    L'outil ne guide pas la main mais plutôt le contraire car la main guide l'outil. A noter que l'EPFL a donc réussi à mettre en place des indicateurs étiques pour interdire les mauvais usages. On voit bien qu'il manque encore à l'IA le sens commun sur lequel l'institut allen travail depuis 2016


    https://news.epfl.ch/news/l-ethique-...isation-non-e/
    https://mosaic.allenai.org/

    L'ia devrait donc faire des simulations de stratégies avec le concept de jumeaux numériques. Méta système?

  18. #18
    Membre habitué
    Homme Profil pro
    Chef de projet
    Inscrit en
    Mars 2018
    Messages
    44
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Haute Garonne (Midi Pyrénées)

    Informations professionnelles :
    Activité : Chef de projet
    Secteur : Administration - Collectivité locale

    Informations forums :
    Inscription : Mars 2018
    Messages : 44
    Points : 158
    Points
    158
    Par défaut quelques rappels historiques
    Citation Envoyé par Ryu2000 Voir le message
    Ben ouais ! C'est ça le principe, on appelle ça :
    • Équilibre de la terreur
    • Mutual assured destruction


    Le principe c'est : si tu m'envoies une bombe atomique, juste avant de la recevoir je t'en envoie une aussi, comme ça va nous détruire mutuellement, donc personne ne va envoyer de bombe atomique.
    Il y a juste les USA qui ont balancés 2 bombe atomiques sur des civils pour tester 2 technologies (alors que le Japon voulait déjà se rendre avant la première bombe).
    Malheureusement les bombes atomiques ne servent pas qu'à la dissuasion, et n'ont pas servi qu'à la dissuasion.

    1. C'est bête à dire à comme ça mais comme elles ont déjà été utilisées dire qu'elles ne sont là que pour la dissuasion est faux. Lorsque les 2 premières bombes ont été lâchées personne ne disposait de la bombe à part les américains. Il ne pouvait donc pas y avoir d'équilibre de la terreur : la bombe atomique n'était pas une arme de dissuasion mais, tout simplement une arme de destruction massive.

    2. La bombe atomique a déjà causé des dégâts en 1945 on l'a dit et aussi de façon plus pernicieuse lors des différents essais réalisés de par le monde. Les premiers essais se déroulaient à l'air libre et étaient le plus souvent réalisés sans protection particulière (à part peut-être des lunettes de soleil ). On ne saura évidemment jamais combien de personnes sont mortes d'un cancer à cause des radiations reçues par les civils et les militaires lors de ces essais menés en dépit du bon sens.

    3. Il existe aussi des bombes atomiques "tactiques" ou "pré-stratégiques" de puissance réduite (10 à 25 kT) qui ne participent pas directement à la dissuasion et qui peuvent être utilisées sur le champ de bataille. La France possédait encore jusqu'en 1997 de telles bombes atomiques portées par des missiles Pluton (puis Hadès). C'est le genre de détail qu'on oublie trop souvent quand on parle de bombe atomique.

    4. Tôt ou tard un groupe terroriste construira ou s'emparera d'une bombe atomique et tentera de s'en servir.

  19. #19
    Inactif  


    Homme Profil pro
    Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Inscrit en
    Décembre 2011
    Messages
    9 012
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 31
    Localisation : France, Loire (Rhône Alpes)

    Informations professionnelles :
    Activité : Doctorant sécurité informatique — Diplômé master Droit/Économie/Gestion
    Secteur : Enseignement

    Informations forums :
    Inscription : Décembre 2011
    Messages : 9 012
    Points : 23 145
    Points
    23 145
    Par défaut
    Citation Envoyé par web bea Voir le message
    1. C'est bête à dire à comme ça mais comme elles ont déjà été utilisées dire qu'elles ne sont là que pour la dissuasion est faux. Lorsque les 2 premières bombes ont été lâchées personne ne disposait de la bombe à part les américains. Il ne pouvait donc pas y avoir d'équilibre de la terreur : la bombe atomique n'était pas une arme de dissuasion mais, tout simplement une arme de destruction massive.
    D'ailleurs, contrairement à une idée reçu, ce ne sont pas les bombes atomiques qui ont été les bombardements les plus meurtriers.

    En revanche, ils ont été les plus impressionnants.


    Je suis d'accord pour dire que les bombes atomique n'ont pas qu'une fonction dissuasive, mais il ne faudrait pas réinventer l'histoire. Les deux bombes atomiques ont été utilisées comme moyen de démonstration, le but n'était pas en soit de détruire, mais bien de faire comprendre aux Japonais que la guerre était finie.

    Citation Envoyé par web bea Voir le message
    2. La bombe atomique a déjà causé des dégâts en 1945 on l'a dit et aussi de façon plus pernicieuse lors des différents essais réalisés de par le monde. Les premiers essais se déroulaient à l'air libre et étaient le plus souvent réalisés sans protection particulière (à part peut-être des lunettes de soleil ). On ne saura évidemment jamais combien de personnes sont mortes d'un cancer à cause des radiations reçues par les civils et les militaires lors de ces essais menés en dépit du bon sens.
    Le bon sens d'aujourd'hui, mais je ne suis pas sûr qu'à l'époque ils aient bien eu pleinement conscience des conséquences à long terme des bombes atomiques.

    Citation Envoyé par web bea Voir le message
    3. Il existe aussi des bombes atomiques "tactiques" ou "pré-stratégiques" de puissance réduite (10 à 25 kT) qui ne participent pas directement à la dissuasion et qui peuvent être utilisées sur le champ de bataille. La France possédait encore jusqu'en 1997 de telles bombes atomiques portées par des missiles Pluton (puis Hadès). C'est le genre de détail qu'on oublie trop souvent quand on parle de bombe atomique.
    Je ne savais pas cela.

    Par contre, je n'arrive pas à trouver des bombes explosives non-nucléaire pour comparer avec la puissance des bombes "tactiques".

    Citation Envoyé par web bea Voir le message
    4. Tôt ou tard un groupe terroriste construira ou s'emparera d'une bombe atomique et tentera de s'en servir.
    La construction me semble très peu probable, vu que cela demande des infrastructures et des tests importants.

    S'emparer d'une bombe me parait possible à la seule condition d'un État possédant l'arme nucléaire fassent faillite. Un peu comme on avait eu avec la chute de l'URSS.

  20. #20
    Membre extrêmement actif Avatar de darklinux
    Homme Profil pro
    Chef de projet en SSII
    Inscrit en
    Novembre 2005
    Messages
    570
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 47
    Localisation : France, Seine et Marne (Île de France)

    Informations professionnelles :
    Activité : Chef de projet en SSII
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2005
    Messages : 570
    Points : 1 023
    Points
    1 023
    Par défaut
    Citation Envoyé par web bea Voir le message



    Et donc, en suivant ce raisonnement, la bombe atomique ne causerait pas de dommages car c'est aussi un outil.

    Je te propose d'aller expliquer cette intéressante théorie du côté d'Hiroshima et de Nagasaki.
    Et oui mon chère ,le nucléaire n ' est rien de plus qu ' un outil de paix , je te renvois à la Guerre Froide , qui fut malgré tout des années très calme en Occident ( les nouveaux méchants - pas beau ) . Le ML est un outil de statistique , qui rend de très grands service , maiss i tu ose y voir un outil d 'oppréssion systémique ..

Discussions similaires

  1. Réponses: 37
    Dernier message: 02/03/2017, 12h11
  2. Réponses: 1
    Dernier message: 17/10/2008, 09h07
  3. supprimer son compte via espace membre
    Par referenceur-tv dans le forum Langage
    Réponses: 1
    Dernier message: 13/06/2008, 18h51

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo