IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Consultant informatique
    Inscrit en
    avril 2018
    Messages
    1 548
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Côte d'Ivoire

    Informations professionnelles :
    Activité : Consultant informatique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : avril 2018
    Messages : 1 548
    Points : 35 904
    Points
    35 904
    Par défaut Pourquoi craindre l'IA ? Google a lancé des lignes directrices pour la création d'une "IA Responsable"
    Pourquoi craindre l'intelligence artificielle ?
    Google a lancé des lignes directrices pour la création d'une "IA Responsable"

    Il y a tant d'applications d'intelligence artificielle qui rendent notre vie quotidienne beaucoup plus facile et productive. Au rythme où les innovations se succèdent, tout peut être fait avec une seule commande. L’IA est plus accessible à un nombre croissant de personnes dans le monde. Mais comme cette technologie crée de nouvelles possibilités d'amélioration et d'aide au quotidien, ses progrès soulèvent également des questions sur son fonctionnement, par exemple sur les problèmes qu'elle peut entraîner si elle n'est pas développée de manière responsable. La question est de savoir si nous devons nous inquiéter davantage du monde que nous créons.

    Comme son nom l'indique, il s'agit d'une intelligence créée par l'homme, mais réalisée par des machines. Elle possède, dans certaines mesures, les mêmes capacités que les humains : elle apprend, s'améliore et est capable de se débrouiller dans certains domaines. Lorsqu’on parle d’intelligence artificielle, deux grands courants de pensée s’affrontent : ceux qui pensent qu’il s’agit d’un outil, ce, sans plus et ceux qui sont d’avis que ce n’est qu’une question de temps avant qu’elle ne devienne une menace pour la race humaine.

    Nom : i01.jpg
Affichages : 7807
Taille : 40,2 Ko

    À mesure que nos capacités et nos possibilités en matière d'IA s'étendront, nous verrons également qu'elles seront utilisées à des fins dangereuses ou malveillantes. C’est pourquoi ceux qui considèrent cette technologie comme une menace la regardent avec suspicion et crainte quant à l'impact qu'elle peut avoir sur leur vie. Certaines personnalités célèbres comme Elon Musk font partie de ceux-là.

    Le patron de Tesla et de SpaceX a déjà prévenu à plus d’une reprise : l’IA va surpasser les capacités cognitives de l’homme. Musk croit que cette technologie menacera les humains à l'avenir, en particulier sur le lieu de travail. C’est d’ailleurs pour cela que sa société Neuralink travaille sur des interfaces cerveau – machine à insérer dans le crâne pour préparer l’humanité à un « funeste » futur où les robots domineront sur elle. La vérité est que certains films de science-fiction ont également fait peur aux gens, en présentant des futurs dystopiques dans lesquels l’IA en vient à contrôler les humains.

    Les chercheurs affirment qu'il est peu probable qu'une IA manifeste des émotions humaines comme l'amour ou la haine et qu'il n'y a aucune raison de s'attendre à ce que l'IA devienne intentionnellement gentille ou méchante. Une IA sera extrêmement efficace pour atteindre ses objectifs, et si ces objectifs ne sont pas les mêmes que les nôtres, nous avons un problème. Pour qu'une IA qui s'améliore et qui apprend soit totalement sûre, elle ne doit pas seulement être sans bogues.

    En ce sens, Google s'est inquiété du danger que peut représenter l'IA lorsqu'elle n'est pas développée avec soin et de la manière dont elle interagit avec les gens. L'IA doit apprendre comme un humain, mais rester efficace et ne pas devenir une machine dangereuse. Google a été un acteur majeur dans le développement de l'IA.

    Avec son programme de recherche du Pentagone, "Project Maven", la société a "formé" l'IA à la classification des objets dans les images de drones. En d'autres termes, elle a appris aux drones à comprendre ce qu'ils regardent. Le projet a été extrêmement controversé. En fait, il a été tellement controversé en interne que lorsque les employés de Google ont découvert les détails de ce sur quoi ils travaillaient, une douzaine d'entre eux auraient démissionné en signe de protestation, et des milliers d'autres ont déposé une pétition interne sur la participation de l'entreprise au projet.

    En réponse à ce retour en arrière, la société a déclaré à l’époque qu'elle n’allait pas renouveler le contrat du Pentagone lorsqu'il expirera en mars 2019. Néanmoins, à la suite de la nouvelle qu'ils se retireront du projet militaire, Google a lancé un code d'éthique concernant ses responsabilités dans le développement de l'IA.

    Google dit maintenant que l'intelligence artificielle doit vivre avec des préjugés, et la société veut faire quelque chose à ce sujet. Pour ce faire, Google a lancé des programmes appropriés sur le thème de l'« IA responsable ».

    Les directives éthiques de Google pour une "IA Responsable"

    Deux des principes de base de l'IA de Google sont « être responsable envers les gens » et « éviter de créer ou de renforcer des préjugés injustes ». Cela inclut le développement de systèmes d'intelligence artificielle interprétables qui placent les personnes au premier plan de chaque étape du processus de développement tout en garantissant que les préjugés injustes qu'un être humain peut avoir ne se reflètent pas dans les résultats d'un modèle.


    L’IA socialement bénéfique

    Selon cette ligne directrice, Google s'efforce de développer l'intelligence artificielle de manière responsable et établit une série de domaines d'application spécifiques qu'il ne poursuivra pas, comme par exemple ne pas mettre en œuvre l'intelligence artificielle dans des technologies qui peuvent causer des dommages ou des blessures aux personnes. Après son retrait du contrat avec le Pentagone en 2018, Google a promis de ne pas utiliser l'IA pour le développement d'armes, même si la société n’a pas dit qu’elle ne continuera pas à coopérer avec les militaires.

    « L'intelligence artificielle doit être socialement bénéfique et avoir un impact important dans un large éventail de domaines, tels que les soins de santé, la sécurité, l'énergie, les transports et l'industrie », a déclaré Anna Ukhanova, responsable du programme technique de Google AI.

    Google s'efforcera de faire en sorte que les informations disponibles grâce aux modèles d'IA soient précises et de haute qualité. En outre, la technologie « doit être responsable envers les gens, étant soumise à la direction et au contrôle de l'être humain ». Les algorithmes d'intelligence artificielle et les ensembles de données peuvent refléter, renforcer et réduire les préjugés injustes. En ce sens, Google s'efforcera d'éviter les impacts injustes sur les personnes, en particulier ceux liés à des caractéristiques sensibles telles que la race, l'appartenance ethnique, le sexe, le revenu, la nationalité ou les croyances politiques ou religieuses, entre autres.

    Selon Anna Ukhanova, le succès de cette technologie est directement lié à une utilisation responsable. L'apprentissage machine ou l'intelligence artificielle repose généralement sur de grands ensembles de données sur lesquels les systèmes sont "formés", et il n'est pas facile de vérifier ces données. « Souvent, les biais sont déjà présents dans les données. Nous ne sommes pas faits pour traiter des quantités de données aussi importantes », explique Fernanda Viegas, codirectrice des efforts de Google baptisé "People + AI", qui explorent l'aspect humain de l'IA en faisant de la recherche fondamentale et en créant des outils adaptés.

    Marquer les limites pour l’IA

    Google affirme qu'il est en train de développer d'autres outils pour traiter les données afin de prévenir d'éventuelles inégalités à un stade précoce. « Une étape importante dans la lutte contre les inégalités est la transparence, et de simples changements de conception peuvent souvent faire une grande différence », explique Anna Ukhanova, qui fait des recherches sur l'apprentissage machine et l'intelligence artificielle.

    Cependant, il est également important de montrer à l'utilisateur que la technologie a ses limites et d'essayer d'expliquer au mieux comment le système atteint certains résultats. « Le débat est vraiment compliqué. L'intelligence artificielle serait toujours considérée sous des angles extrêmes. Soit elle est considérée comme une technologie qui sait tout et résout tous les problèmes, soit comme quelque chose qui nous mène à l'abîme », a dit Fernanda Viegas.

    Cependant, les lignes directrices de Google sont-elles suffisantes pour calmer les craintes concernant l'IA ? Google propose de trouver le juste milieu afin d’aller de l'avant. Par exemple, l'intelligence artificielle est capable de faire de grandes choses, comme détecter le cancer ou prédire les tremblements de terre. « En même temps, nous devons aussi parler des points faibles de la technologie, de ses problèmes et de ses limites. C'est la seule façon de faire en sorte que les gens finissent par se fier à l'intelligence artificielle », a conclu Viegas.

    Sources : Google, Vidéo YouTube

    Et vous ?

    Qu’en pensez-vous ?
    Les lignes directrices pour la création d'une "IA responsable" suffiront-elles à apaiser la crainte que les gens ont de cette technologie ?
    Pensez-vous que d’autres sociétés de technologie suivront Google dans l’utilisation des directives éthiques pour développer l’IA ?

    Voir aussi :

    Une IA rédige un essai sur les raisons pour lesquelles l'Homme ne devrait pas craindre l'intelligence artificielle, dans un contexte où certains prédisent la domination de la machine sur l'humain
    Elon Musk affirme que la puce issue de sa société Neuralink peut diffuser de la musique directement au cerveau, des tiers qui se la feront insérer dans le crâne
    L'apocalypse s'accomplira-t-elle avec la création de l'IA ? L'entrepreneur Elon Musk pense que l'IA est la plus grande menace de l'humanité
    « Je suis un mannequin et je sais que l'intelligence artificielle va bientôt prendre mon travail », a déclaré Sinead Bovell, d'autres domaines liés à la mode seraient également menacés
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre extrêmement actif Avatar de Jon Shannow
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    avril 2011
    Messages
    3 801
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 57
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Responsable de service informatique
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : avril 2011
    Messages : 3 801
    Points : 7 338
    Points
    7 338
    Par défaut
    Google qui donne des "lignes directrices" pour une "IA responsable", ça pourrait être le gag de l'année 2021...
    Au nom du pèze, du fisc et du St Estephe
    Au nom du fric, on baisse son froc...

  3. #3
    Expert éminent
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    août 2007
    Messages
    2 158
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : août 2007
    Messages : 2 158
    Points : 7 878
    Points
    7 878
    Par défaut
    Citation Envoyé par Stan Adkens Voir le message
    Qu’en pensez-vous ?
    Ca n'a aucun sens d'avoir un éditeur d'IA qui rédige le manifeste de l'IA
    Ca fait beaucoup juge et partie
    Ce genre de manifeste n'a de sens que s'il est écrit par un consortium qui regroupe l'ensemble des parties prenantes (éditeurs, état, scientifique, philosophe, association, ...)

    Citation Envoyé par Stan Adkens Voir le message
    Les lignes directrices pour la création d'une "IA responsable" suffiront-elles à apaiser la crainte que les gens ont de cette technologie ?
    L'ensemble des publications qui attestent que le vaccin contre la COVID 19 suffisent-elles à apaiser les craintes ?

    non seulement, l'écriture d'un manifeste n'apaise rien du tout car il est non obligatoire, non contraignant
    Il n'existe aucun organisme de contrôle et en cas de non respect, aucune sanction
    bref, ça ne sert strictement à rien

  4. #4
    Invité
    Invité(e)
    Par défaut
    Citation Envoyé par Saverok Voir le message
    Ca n'a aucun sens d'avoir un éditeur d'IA qui rédige le manifeste de l'IA
    Ca fait beaucoup juge et partie
    Si j'ai bien tout compris, dans nos "démocraties" modernes, les lois qui organisent les élections sont votées par des élus. C'est tout aussi débile.

  5. #5
    Membre habitué
    Inscrit en
    janvier 2009
    Messages
    66
    Détails du profil
    Informations forums :
    Inscription : janvier 2009
    Messages : 66
    Points : 165
    Points
    165
    Par défaut Jeunes gens...
    Ne me dites pas que vous croyez encore aujourd'hui que des multinationales développent l'IA pour votre bien. Si c'est le cas, alors amen...

  6. #6
    Membre chevronné
    Profil pro
    Inscrit en
    décembre 2007
    Messages
    706
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : décembre 2007
    Messages : 706
    Points : 1 851
    Points
    1 851
    Par défaut
    "Deux des principes de base de l'IA de Google sont « être responsable envers les gens » et « éviter de créer ou de renforcer des préjugés injustes »"

    Et comme une IA peut elle savoir ce qu'est une injustice vis a vis d'un être vivant? Elle a connu la faim, la soif, la maladie? Elle a vue des proche mourir? On lui attribue des valeurs humaine qu'elle n'a pas.

  7. #7
    Membre extrêmement actif Avatar de darklinux
    Profil pro
    Consultant en technologies
    Inscrit en
    novembre 2005
    Messages
    538
    Détails du profil
    Informations personnelles :
    Localisation : France, Seine et Marne (Île de France)

    Informations professionnelles :
    Activité : Consultant en technologies
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : novembre 2005
    Messages : 538
    Points : 870
    Points
    870
    Par défaut
    J ' applaudit , je commence à envoire ras le bol de cette hystérie anti IA , c ' est la mème hystérie que pour les jeux vidéos ou l 'informatique c en général . L ' Humain adore ce faire peur ... l ' IA est un outil ; comme l ' est un tableur ou un éditeur de code , on rafraîchi plus souvent les données , c 'est tout

  8. #8
    Membre habitué
    Homme Profil pro
    Développeur
    Inscrit en
    octobre 2014
    Messages
    315
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 29
    Localisation : France, Saône et Loire (Bourgogne)

    Informations professionnelles :
    Activité : Développeur
    Secteur : Industrie

    Informations forums :
    Inscription : octobre 2014
    Messages : 315
    Points : 167
    Points
    167
    Par défaut
    Citation Envoyé par darklinux Voir le message
    J ' applaudit , je commence à envoire ras le bol de cette hystérie anti IA , c ' est la mème hystérie que pour les jeux vidéos ou l 'informatique c en général . L ' Humain adore ce faire peur ... l ' IA est un outil ; comme l ' est un tableur ou un éditeur de code , on rafraîchi plus souvent les données , c 'est tout
    Mais bien sur, le jour ou on demandera à une IA (qui n'existe pas encore) de tout faire pour nous protéger, l'IA nous dominera/exterminera car nous ne sommes capables que de nous entretuer et détruire notre monde.
    Le monde parfait n'existe pas, mais on cherchera a le faire, et malheureusement, l'Humain est le gros problème de ce monde, on détruit tout.

    Donc donnez-moi un seul exemple d'une IA qui ne nous nuira pas ?
    On en est pas encore la, mais ça va venir très vite !

    De plus, comment avoir des données "neutre" ? Les données sont faites par des humains, et aucun humain est neutre.

    Certe l'IA est un outil, mais si nous continuons a lui donner plus d'autonomie, on court à notre perte.

  9. #9
    Membre extrêmement actif Avatar de darklinux
    Profil pro
    Consultant en technologies
    Inscrit en
    novembre 2005
    Messages
    538
    Détails du profil
    Informations personnelles :
    Localisation : France, Seine et Marne (Île de France)

    Informations professionnelles :
    Activité : Consultant en technologies
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : novembre 2005
    Messages : 538
    Points : 870
    Points
    870
    Par défaut
    Citation Envoyé par Math71 Voir le message
    Mais bien sur, le jour ou on demandera à une IA (qui n'existe pas encore) de tout faire pour nous protéger, l'IA nous dominera/exterminera car nous ne sommes capables que de nous entretuer et détruire notre monde.
    Le monde parfait n'existe pas, mais on cherchera a le faire, et malheureusement, l'Humain est le gros problème de ce monde, on détruit tout.

    Donc donnez-moi un seul exemple d'une IA qui ne nous nuira pas ?
    On en est pas encore la, mais ça va venir très vite !

    De plus, comment avoir des données "neutre" ? Les données sont faites par des humains, et aucun humain est neutre.

    Certe l'IA est un outil, mais si nous continuons a lui donner plus d'autonomie, on court à notre perte.
    Nous ne sommes pas dans un film Marvel . Une IA depend de sa programmation et des ces données . Un programme ne peux outrepassé ces limites , nous ne sommes pas dans " Person of interest " , arrétez donc de vous faire peur

  10. #10
    Membre habitué
    Homme Profil pro
    Développeur
    Inscrit en
    octobre 2014
    Messages
    315
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 29
    Localisation : France, Saône et Loire (Bourgogne)

    Informations professionnelles :
    Activité : Développeur
    Secteur : Industrie

    Informations forums :
    Inscription : octobre 2014
    Messages : 315
    Points : 167
    Points
    167
    Par défaut
    Citation Envoyé par darklinux Voir le message
    Nous ne sommes pas dans un film Marvel . Une IA depend de sa programmation et des ces données . Un programme ne peux outrepassé ces limites , nous ne sommes pas dans " Person of interest " , arrétez donc de vous faire peur
    Comme vous le dites si bien, ça dépend de sa programmation et ces données. Et quel est le facteur commun ? L'Humain, et il n'y a rien de plus imparfait qu'un humain.
    C'est impossible de créer un programme parfait, donc une IA ne sera jamais parfaite et devira forcément de son but premier étant donné qu'on aura pas anticipé toutes les possibilités.

    Des chercheurs sont en train de mettre au point une IA pour des drones de combat, donc l'IA tuera, avec certes des critères bien précis, mais vu que c'est nous qui donnons les données, et qu'on a forcément un avis biaisé sur les différentes "menaces", sommes nous sur que ça ne se retournera pas contre nous ? Non, car nous sommes imparfait.

    Pour moi, le film qui montre tout le problème de l'IA, c'est I Robot.
    Ca sera créé pour nous rentre la vie plus simple, mais il y aura forcément une contradiction entre le but de l'IA et nos intérêt.

    L'IA d'aujourd'hui n'est pas encore un problème, arrêtons nous la avant de donner encore plus d'autonomie à l'IA.

    Le but actuel de l'IA, c'est qu'elle nous ressemble, donc vu que nous détruisons tout, pourquoi l'IA ne ferait pas pareil ?

  11. #11
    Candidat au Club
    Homme Profil pro
    Webmaster
    Inscrit en
    décembre 2020
    Messages
    1
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 29
    Localisation : Espagne

    Informations professionnelles :
    Activité : Webmaster
    Secteur : Conseil

    Informations forums :
    Inscription : décembre 2020
    Messages : 1
    Points : 4
    Points
    4
    Par défaut IA responsable
    Apparemment, l'IA se renforce à chaque fois, je pense que cela peut être en partie bien, mais sans aller trop loin et laisser certaines choses aux capacités humaines.

  12. #12
    Expert éminent
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    août 2007
    Messages
    2 158
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : août 2007
    Messages : 2 158
    Points : 7 878
    Points
    7 878
    Par défaut
    Citation Envoyé par SimonDecoline Voir le message
    Si j'ai bien tout compris, dans nos "démocraties" modernes, les lois qui organisent les élections sont votées par des élus. C'est tout aussi débile.
    C'est totalement différent car il y a les parties d'oppositions, les débats publics (parlement, sénat,...), les commissions, le conseil constitutionnel, ...
    Y a les mécaniques de contre-pouvoir.

    J'ai noté que le manifeste de l'IA doit être écrit par un consortium qui représente tous les partis, y compris les éditeurs.
    Les éditeurs ont un rôle essentiel pour la rédaction de ce manifeste car ils connaissent le sujets à fond
    Par contre, ils ne doivent pas être les seuls et surtout, ça ne doit pas être 1 seul éditeur, mais plusieurs

    Bref, Google qui écrit seul dans son coin le manifeste de l'IA n'a aucun sens

  13. #13
    Membre extrêmement actif Avatar de darklinux
    Profil pro
    Consultant en technologies
    Inscrit en
    novembre 2005
    Messages
    538
    Détails du profil
    Informations personnelles :
    Localisation : France, Seine et Marne (Île de France)

    Informations professionnelles :
    Activité : Consultant en technologies
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : novembre 2005
    Messages : 538
    Points : 870
    Points
    870
    Par défaut
    Citation Envoyé par Saverok Voir le message
    C'est totalement différent car il y a les parties d'oppositions, les débats publics (parlement, sénat,...), les commissions, le conseil constitutionnel, ...
    Y a les mécaniques de contre-pouvoir.

    J'ai noté que le manifeste de l'IA doit être écrit par un consortium qui représente tous les partis, y compris les éditeurs.
    Les éditeurs ont un rôle essentiel pour la rédaction de ce manifeste car ils connaissent le sujets à fond
    Par contre, ils ne doivent pas être les seuls et surtout, ça ne doit pas être 1 seul éditeur, mais plusieurs

    Bref, Google qui écrit seul dans son coin le manifeste de l'IA n'a aucun sens
    Une entreprise n ' est pas une democratie , elle a des comptre a rendre que si elle triche ou vole

  14. #14
    Membre à l'essai
    Homme Profil pro
    Consultant
    Inscrit en
    février 2017
    Messages
    8
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Consultant
    Secteur : Industrie

    Informations forums :
    Inscription : février 2017
    Messages : 8
    Points : 12
    Points
    12
    Par défaut Aussi responsable qu'un Trump ?
    Une véritable IA, d'ici quelques années devra être éduquée et certifiée selon des critères éthiques et moraux... Lesquels, ça reste à déterminer, selon quels critères quelles cultures... Il faudra bien se mettre d'accord....
    Une IA sera comme un petit enfant, mais qui apprendra très vite... très très vite, et non convenablement "dirigée" dans un sens moral... pourrait devenir un petit "Trump" mais en beaucoup plus intelligent et... cynique.

    Prenons le comportement humain... vu de loin nous nous apparentons à des parasites de types viraux. Nous contaminons tout ce que nous touchons et cherchons à acquérir ressources et énergies dans le but de croitre et de multiplier... n'est-ce pas la définition d'un virus ?
    Du point de vue d'une machine "mal éduquée" ou éduquée pour "faire mal" (je m'adresse à mes "amis" militaires)... quel genre de réaction pourrait avoir ce genre d'IA... sans tomber dans le mode "terminator"

    Je vous invite à lire (ou relire) "L'envol de Mars" de Greg Bear qui traite des IA.

    Nous sommes devenus des Demiurges en puissance ou pour faire référence à la bible chrétienne, Dieu nous créa à son image... soit, donc nous-même cherchons à créer pour être des dieux... mais notre création ne risque-t-elle pas de devenir notre fin ?

  15. #15
    Membre habitué
    Avatar de denis18
    Homme Profil pro
    Développeur informatique
    Inscrit en
    décembre 2012
    Messages
    64
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Cher (Centre)

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : Arts - Culture

    Informations forums :
    Inscription : décembre 2012
    Messages : 64
    Points : 152
    Points
    152
    Billets dans le blog
    1
    Par défaut L'IA des machines sera à notre image comme ce sont des êtres humains qui vont la concevoir.
    L'IA des machines sera à notre image comme ce sont des êtres humains qui vont la concevoir au départ.

    Quand il s'agit de reconnaitre un objet parmi une photographie l'IA peut reconnaitre cette image et la trouver parmi d'autre.

    Mais il ne faut pas se leurrer ces exemples ne sont que aperçu des véritables IA qui vont se développer et il y en aura autant que d'humain.

    Certaine IA seront utile et sélectionnée pour cela d'autre demeurerons certainement inquiétante, a voir ?

  16. #16
    Membre régulier
    Homme Profil pro
    retraité
    Inscrit en
    mai 2014
    Messages
    20
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Haute Vienne (Limousin)

    Informations professionnelles :
    Activité : retraité

    Informations forums :
    Inscription : mai 2014
    Messages : 20
    Points : 80
    Points
    80
    Par défaut IA et Google
    Si un GAFA le dit, juré-craché, il y a tout lieu d'être confiant, non ?
    Décidément, ils nous prennent pour des truffes !

  17. #17
    Membre extrêmement actif Avatar de Jon Shannow
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    avril 2011
    Messages
    3 801
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 57
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Responsable de service informatique
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : avril 2011
    Messages : 3 801
    Points : 7 338
    Points
    7 338
    Par défaut
    Si je reprends le titre de l'actu : Pourquoi craindre l'intelligence artificielle ?
    la réponse est assez évidente. Parce que l'IA n'est qu'un programme informatique, écrit par des humains et donc imparfait. Laisser les commandes (quelles que soient les commandes en question) à un programme informatique, c'est prendre le risque d'un bug, d'une faille, d'un oubli...

    Donc, plus ces "commandes" seront critiques, plus le risque sera important.

    Une IA qui allume ou éteint une ampoule, c'est pas trop critique. Une IA qui décide si une personne présente un risque et doit être abattue... ben le risque est un poil plus critique, non ?
    Au nom du pèze, du fisc et du St Estephe
    Au nom du fric, on baisse son froc...

  18. #18
    Nouveau membre du Club
    Profil pro
    Inscrit en
    septembre 2006
    Messages
    16
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : septembre 2006
    Messages : 16
    Points : 25
    Points
    25
    Par défaut
    Que ce soit une entreprise privée qui decide sur ce sujet pose également problème. On glisse subrepticement vers une privatisation de la société depuis un moment déjà

  19. #19
    Membre habitué
    Homme Profil pro
    Développeur en systèmes embarqués
    Inscrit en
    mai 2015
    Messages
    23
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 50
    Localisation : Belgique

    Informations professionnelles :
    Activité : Développeur en systèmes embarqués

    Informations forums :
    Inscription : mai 2015
    Messages : 23
    Points : 159
    Points
    159
    Par défaut L'IA, qu'est-ce donc ?
    Je ne suis pas un spécialiste IA. Mais je sais qu'une IA tourne sur un processeur. L'IA ne "réfléchit" pas, elle n'est qu'une suite d'instructions. C'est donc un "programme" (comme on disait dans le temps, ou un "algorithme"). Et un programme donne une sortie/réponse par rapport à une entrée (et à la "qualité" de cette entrée). Rien de neuf sous le soleil.

    Au-delà du "marketing" qui chercher à placer le terme IA sur le moindre bout de code, le problème se pose ainsi :
    - le but et la qualité d'un programme (ou IA comme on dit maintenant) ET
    - la qualité des entrées.

    Pour le "but" d'un programme, on peut tout imaginer, mais ça reste un choix humain. A faire, ou à ne pas faire.

    Pour la "qualité" d'un programme, on peut approcher l'excellence (que le programme fasse ce qu'on lui demande et rien de plus ni de moins) si on s'en donne le temps et les moyens.

    Pour la "qualité" des entrées, ça reste un problème humain.

    Y'a-t-il vraiment quelqu'un qui pense qu'une IA (un programme !!!) faite pour la conduite full-autonome (de niveau 5, promis pour l'année prochaine depuis des années soit dit en passant) irait lancer un missile nucléaire ? Restons les pieds sur terre...

  20. #20
    Membre extrêmement actif Avatar de darklinux
    Profil pro
    Consultant en technologies
    Inscrit en
    novembre 2005
    Messages
    538
    Détails du profil
    Informations personnelles :
    Localisation : France, Seine et Marne (Île de France)

    Informations professionnelles :
    Activité : Consultant en technologies
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : novembre 2005
    Messages : 538
    Points : 870
    Points
    870
    Par défaut
    Citation Envoyé par OuftiBoy Voir le message
    Je ne suis pas un spécialiste IA. Mais je sais qu'une IA tourne sur un processeur. L'IA ne "réfléchit" pas, elle n'est qu'une suite d'instructions. C'est donc un "programme" (comme on disait dans le temps, ou un "algorithme"). Et un programme donne une sortie/réponse par rapport à une entrée (et à la "qualité" de cette entrée). Rien de neuf sous le soleil.

    Au-delà du "marketing" qui chercher à placer le terme IA sur le moindre bout de code, le problème se pose ainsi :
    - le but et la qualité d'un programme (ou IA comme on dit maintenant) ET
    - la qualité des entrées.

    Pour le "but" d'un programme, on peut tout imaginer, mais ça reste un choix humain. A faire, ou à ne pas faire.

    Pour la "qualité" d'un programme, on peut approcher l'excellence (que le programme fasse ce qu'on lui demande et rien de plus ni de moins) si on s'en donne le temps et les moyens.

    Pour la "qualité" des entrées, ça reste un problème humain.

    Y'a-t-il vraiment quelqu'un qui pense qu'une IA (un programme !!!) faite pour la conduite full-autonome (de niveau 5, promis pour l'année prochaine depuis des années soit dit en passant) irait lancer un missile nucléaire ? Restons les pieds sur terre...
    Rien a redire , mais tu remplace CPU par GPU et c 'est parfait

Discussions similaires

  1. Formule/Macro pour google DRIVE (créer des lignes auto)
    Par Mikecreep dans le forum APIs Google
    Réponses: 0
    Dernier message: 24/06/2020, 09h03
  2. Réponses: 3
    Dernier message: 29/07/2017, 13h23
  3. Des lignes compliquées pour pas grand chose
    Par Anduriel dans le forum Windows Forms
    Réponses: 1
    Dernier message: 30/10/2009, 14h25
  4. Réponses: 3
    Dernier message: 03/06/2008, 17h49
  5. Réponses: 2
    Dernier message: 26/04/2007, 14h04

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo