Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur systèmes et réseaux
    Inscrit en
    juin 2016
    Messages
    224
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Administrateur systèmes et réseaux
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : juin 2016
    Messages : 224
    Points : 7 708
    Points
    7 708

    Par défaut IA : un algorithme permettant de faire des recommandations en suivant des règles d'éthique

    IA : un algorithme permettant de faire des recommandations en suivant des règles d'éthique
    a été mis au point par des chercheurs d'IBM et du MIT

    Depuis quelques années, les recherches et expériences en intelligence artificielle sont de plus en plus poussées. L’Homme essaie de concevoir des machines qui se comporteraient exactement comme lui, qui pourraient analyser les situations de la vie et y apporter des réponses contextuelles et qui disposeraient d’une faculté d’adaptation comparable à celle des humains. Cet objectif semble de plus en plus proche étant donné les récentes avancées observées. Après les agents intelligents qui battent les humains à des jeux vidéo, des algorithmes qui réussissent à s’intégrer à une équipe et à collaborer, un robot aérospatial doté d'intelligence artificielle envoyé dans l’espace pour prêter main-forte aux astronautes, voici maintenant une intelligence artificielle qui serait capable de suivre des normes éthiques.

    En effet, un collectif de scientifiques d’IBM Research et du MIT Media Lab dirigé par Francesca Rossi, la responsable de l’éthique des intelligences artificielles chez IBM Research, a créé une technique de recommandation par intelligence artificielle qui ne se contenterait pas de suggérer les meilleurs résultats à l’utilisateur, mais qui prendrait également en compte d’autres contraintes telles que les règles éthiques et comportementales. Il faut avouer que jusque-là, les tentatives pour intégrer des règles éthiques aux intelligences artificielles n’ont pas connu un franc succès, puisque les développeurs se contentaient de designer un produit ou une catégorie en particulier que l’algorithme doit éviter de recommander.

    Nom : AI.jpg
Affichages : 2078
Taille : 18,9 Ko

    Mais, au fil des années et au fur et à mesure que les tentatives se faisaient, Internet a montré qu’il n’était pas le genre d’endroits où les règles pouvaient être posées et laissées statiques. « Dans beaucoup de choses sur Internet, dans les zones avec de grandes quantités de données, on ne peut pas toujours établir exactement toutes les règles que vous voulez que la machine suive », nous apprend Nicholas Mattei, un chercheur d’IBM Research et un membre du collectif qui a développé cette approche.

    Les chercheurs se sont servis de la recommandation de films pour tester leur algorithme, puisque c’est un domaine où la différence entre les préférences des utilisateurs et les normes éthiques est clairement visible. Ils ont démontré le fonctionnement de l’algorithme dans un système de recommandation de films qui permettait aux parents de fixer des contraintes morales pour leurs enfants. Par exemple, les parents voudraient empêcher des services de vidéos en streaming de diffuser de contenu inapproprié à leurs enfants, et ce, même si ces derniers montraient une réaction positive à ce type de contenu. L’entraînement de l’intelligence artificielle à la technique de recommandation s’est articulé autour de deux grandes phases :

    • l’étape hors-ligne au cours de laquelle un arbitre (ici le parent) donne au système des exemples de contenu approprié et de contenu non approprié. Le système devrait alors être en mesure d’apprendre de ces exemples et de les utiliser pour ne pas recommander certains types de contenus à l'utilisateur (ici l’enfant) ;
    • l’étape en ligne, qui se déroule en interaction directe avec l’utilisateur final. L’algorithme optimise ses résultats pour les préférences de l’utilisateur et en montrant du contenu avec lequel l’utilisateur sera le plus enclin à interagir.

    Les chercheurs ont tenu à rappeler qu’en essayant de respecter à la fois les règles éthiques et les préférences de l’utilisateur, un algorithme pouvait se retrouver devant un casse-tête puisqu’il pouvait arriver que les deux soient contradictoires. Et, dans ce cas de figure, l’arbitre susmentionné a la prérogative de déterminer un seuil définissant le niveau de priorité accordée aux règles éthiques et aux préférences de manière à obtenir un consensus.

    Le nouvel algorithme a été testé sur différentes situations dans différents domaines. En clôture de leur propos, les chercheurs admettent que pour que leur méthode fonctionne de manière optimale, il fallait qu’il y ait deux utilisateurs, un qui définirait les règles éthiques et l’autre qui serait l’utilisateur final. Le fait que la grande majorité des applications que nous utilisons sur Internet ne requièrent des interactions qu’avec un seul utilisateur implique que chaque utilisateur doit définir les règles d’éthique qui lui seront appliquées. Les utilisateurs pourraient aussi choisir un ami ou un membre de la famille pour définir leurs contraintes et règles éthiques.

    Source : News Vire

    Et vous ?

    Que pensez-vous de cette avancée dans le domaine de l’intelligence artificielle ?
    Selon vous, quelles applications pourraient être faites de cette nouvelle méthode ?

    Voir aussi

    Un robot aérospatial doté d'intelligence artificielle sur la Station spatiale internationale (ISS) pour assister les astronautes dans leurs missions

    Cinq algorithmes d'IA font équipe pour écraser des humains au Dota 2, un jeu d'équipe connu pour être extrêmement compliqué

    IA : des agents intelligents de DeepMind battent le record des humains au Quake III, un jeu de tir en vue subjective

    IA : des chercheurs de Google développent un algorithme capable de créer des scènes 3D à partir d'images bidimensionnelles
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre éclairé Avatar de Madmac
    Homme Profil pro
    Responsable de projet fonctionnel
    Inscrit en
    juin 2004
    Messages
    616
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Responsable de projet fonctionnel
    Secteur : Alimentation

    Informations forums :
    Inscription : juin 2004
    Messages : 616
    Points : 851
    Points
    851

    Par défaut

    J'imagine les résultats, Les chercheurs ont probablement été embauché selon leur genre et race: Un noir au genre fluide et une blanche lesbienne handicapé.
    intel i7
    OpenSuse Leap 42.2
    Plasma et Cinnamon

  3. #3
    Nouveau Candidat au Club
    Homme Profil pro
    Technicien maintenance
    Inscrit en
    mars 2013
    Messages
    1
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bas Rhin (Alsace)

    Informations professionnelles :
    Activité : Technicien maintenance
    Secteur : Industrie

    Informations forums :
    Inscription : mars 2013
    Messages : 1
    Points : 1
    Points
    1

    Par défaut Pire que 1984

    Pire que 1984... Dans la dystopie c'était des hommes qui surveillaient des hommes... avec l'IA la pensée sera sévèrement réglementée

  4. #4
    Expert éminent
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    novembre 2011
    Messages
    1 932
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : novembre 2011
    Messages : 1 932
    Points : 6 148
    Points
    6 148
    Billets dans le blog
    2

    Par défaut

    Manque de bol, la source de cet article est un autre article de news (à l'anglais douteux) lui-même sans source. J'aurais bien aimé voir l'article scientifique dont il est question. À défaut, on se contentera de ce qu'on a ici.

    Citation Envoyé par Bill Fassinou Voir le message
    IA : un algorithme permettant de faire des recommandations en suivant des règles d'éthique
    Citation Envoyé par Bill Fassinou Voir le message
    • l’étape hors-ligne au cours de laquelle un arbitre (ici le parent) donne au système des exemples de contenu approprié et de contenu non approprié. Le système devrait alors être en mesure d’apprendre de ces exemples et de les utiliser pour ne pas recommander certains types de contenus à l'utilisateur (ici l’enfant) ;
    • l’étape en ligne, qui se déroule en interaction directe avec l’utilisateur final. L’algorithme optimise ses résultats pour les préférences de l’utilisateur et en montrant du contenu avec lequel l’utilisateur sera le plus enclin à interagir.
    Encore une fois, beaucoup de bruit pour pas grand chose.
    NON, il n'y a pas de règle d'éthique où que ce soit ici. Il n'y a même pas de règle du tout.
    On se contente de définir 2 systèmes de recommandations :
    - le premier identifie les œuvres à ne pas recommander sur la base d'un arbitre
    - le second identifie les œuvres à recommander sur la base de l'utilisateur final

    Si l'arbitre est biaisé, par exemple un parent chrétien hyper-croyant qui estime que la science -ou une autre religion- est l’œuvre du diable car contre la bible, et bien l'enfant n'aura droit à aucune recommandation d’œuvre scientifique. Ce n'est pas une question d'éthique, c'est de l'arbitraire contre l'arbitraire, avec l'un des deux prioritaire sur l'autre (même pondéré, car pondéré par le même arbitre).

    Citation Envoyé par Bill Fassinou Voir le message
    Les chercheurs ont tenu à rappeler qu’en essayant de respecter à la fois les règles éthiques et les préférences de l’utilisateur, un algorithme pouvait se retrouver devant un casse-tête puisqu’il pouvait arriver que les deux soient contradictoires. Et, dans ce cas de figure, l’arbitre susmentionné a la prérogative de déterminer un seuil définissant le niveau de priorité accordée aux règles éthiques et aux préférences de manière à obtenir un consensus.
    Qu'on passe par des règles précises ou un système de recommandation, la problématique du conflit reste la même. La solution est alors de définir une priorité. Avec une règle précise, il s'agit de dire qui est prioritaire sur l'autre. Si des calculs sont faits pour plus de flexibilité, on peut se baser sur un score. Dans le cas de recommandations, on a aussi la flexibilité d'un score, mais par contre on perd toute la clarté d'une règle : on sait qu'en étant plus restrictif, la recommandation de l'arbitre sera davantage respectée, mais on n'a aucune idée de l'impact concret que ça aura sur les résultats (si j'augmente la priorité de autant, quelles/combien d'œuvres ne seront plus recommandées ?).

    Citation Envoyé par Bill Fassinou Voir le message
    Il faut avouer que jusque-là, les tentatives pour intégrer des règles éthiques aux intelligences artificielles n’ont pas connu un franc succès, puisque les développeurs se contentaient de designer un produit ou une catégorie en particulier que l’algorithme doit éviter de recommander.
    Là on apprend de quoi est composé la catégorie en question. C'est mieux, mais ça n'est pas plus éthique. Il s'agit de généraliser à partir d'exemples arbitrairement choisis plutôt que d'utiliser des critères précis. C'est plus facile, mais plus vague. Les soi-disant "règles" disparaissent, eut-elles été éthiques ou pas.

    Si au moins il avait été question de demander à des gens d'associer des œuvres à des règles d'éthique, de façon à apprendre les filtres sur des règles concrètes pour n'avoir à proposer aux parents qu'une liste de filtres éthiques à choisir. Là on aurait été dans le sujet. Il n'aurait pas été question de protéger qui que ce soit en particulier (une source de biais énorme), ni de limiter l'apprentissage à un arbitre particulier (autre source de biais énorme), mais de faire des associations d'ordre statistique à des règles générales.

    En bref, nulle question d'éthique ici. On botte en touche : c'est l'arbitre qui décide. On propose juste aux parents de leur éviter de devoir être derrière leurs enfants 24/7 en entraînant un agent de pré-filtrage à la place.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  5. #5
    Membre éclairé Avatar de Madmac
    Homme Profil pro
    Responsable de projet fonctionnel
    Inscrit en
    juin 2004
    Messages
    616
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Responsable de projet fonctionnel
    Secteur : Alimentation

    Informations forums :
    Inscription : juin 2004
    Messages : 616
    Points : 851
    Points
    851

    Par défaut

    Citation Envoyé par Matthieu Vergne Voir le message
    Manque de bol, la source de cet article est un autre article de news (à l'anglais douteux) lui-même sans source. J'aurais bien aimé voir l'article scientifique dont il est question. À défaut, on se contentera de ce qu'on a ici.



    Encore une fois, beaucoup de bruit pour pas grand chose.
    NON, il n'y a pas de règle d'éthique où que ce soit ici. Il n'y a même pas de règle du tout.
    On se contente de définir 2 systèmes de recommandations :
    - le premier identifie les œuvres à ne pas recommander sur la base d'un arbitre
    - le second identifie les œuvres à recommander sur la base de l'utilisateur final
    J'en suis pas aussi sûr. Avec un cahier charge de ce type, cela me fait penser au caractéristique que devrait avoir un modérateur artificiel. l'UE (en particulier l'Allemagne) demande beaucoup de truc aux réseaux sociaux qui sont assez coûteux. L'utilisation d'un IA serait un argument en or pour expliquer certaine censures. Il n'y a que les idiots qui investissement sans avoir un débouché commercial pour le produit.
    intel i7
    OpenSuse Leap 42.2
    Plasma et Cinnamon

  6. #6
    Membre à l'essai
    Profil pro
    Inscrit en
    février 2010
    Messages
    17
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : février 2010
    Messages : 17
    Points : 12
    Points
    12

    Par défaut WECHAT le fait déjà

    Wechat le fait déjà avec les mots interdits dans le cadre de la Grande muraille en CHine

  7. #7
    Expert éminent
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    novembre 2011
    Messages
    1 932
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : novembre 2011
    Messages : 1 932
    Points : 6 148
    Points
    6 148
    Billets dans le blog
    2

    Par défaut

    Citation Envoyé par Madmac Voir le message
    J'en suis pas aussi sûr. Avec un cahier charge de ce type, cela me fait penser au caractéristique que devrait avoir un modérateur artificiel.
    Oui, c'est de la modération au sens large : il s'agit d'apprendre à filtrer. Mon propos est que cette modération n'a aucun lien spécifique avec l'éthique, sujet principal de l'article. Si quelqu'un se dit "tiens, je vais ajouter ça à mon site pour faire des recommandations plus éthique", il tomberait de haut en se rendant compte que c'est en fait à lui à fournir les ressources pour enseigner à la machine comment l'être... ce qui au final revient à avoir un modérateur humain.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  8. #8
    Membre éclairé Avatar de Madmac
    Homme Profil pro
    Responsable de projet fonctionnel
    Inscrit en
    juin 2004
    Messages
    616
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Responsable de projet fonctionnel
    Secteur : Alimentation

    Informations forums :
    Inscription : juin 2004
    Messages : 616
    Points : 851
    Points
    851

    Par défaut

    Citation Envoyé par Matthieu Vergne Voir le message
    Oui, c'est de la modération au sens large : il s'agit d'apprendre à filtrer. Mon propos est que cette modération n'a aucun lien spécifique avec l'éthique, sujet principal de l'article. Si quelqu'un se dit "tiens, je vais ajouter ça à mon site pour faire des recommandations plus éthique", il tomberait de haut en se rendant compte que c'est en fait à lui à fournir les ressources pour enseigner à la machine comment l'être... ce qui au final revient à avoir un modérateur humain.

    Quel sont les débouchés potentiels selon toi? La confession par une IA ? Pas de chance, le Vatican a des problèmes de finance. J'imagine les conséquences sur un robot militaire: Faite l'amour, pas la guerre !

    Sérieusement, je vois pas beaucoup de débouchés pour ce type d'application.
    intel i7
    OpenSuse Leap 42.2
    Plasma et Cinnamon

  9. #9
    Expert éminent
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    novembre 2011
    Messages
    1 932
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : novembre 2011
    Messages : 1 932
    Points : 6 148
    Points
    6 148
    Billets dans le blog
    2

    Par défaut

    Les débouchés je n'en ai rien à faire, ce n'est pas le sujet de mon message. Qu'il y ait un intérêt ou non, l'article vend une solution censée faire de l'"éthique" qui n'en fait pas. Donc ceux qui estiment y voir un intérêt n'auront pas de vrai solution au travers de ce qui est décrit dans cet article, c'est là le cœur de mon propos.

    Par ailleurs, si la question des débouchés t'intéresse, une recherche rapide sur ton navigateur préféré t'aurait pourtant donné des tas de ressources à lire sur le sujet. L'intérêt premier d'avoir une machine capable de prendre des décisions éthiques est de pouvoir lui faire confiance : on s'appuie sur des tas d'outils basés sur l'apprentissage machine pour prendre des décisions, or tout informaticien un tant soit peu renseigné sur ces outils sait qu'ils fournissent des résultats biaisés. Qu'ils nous enferment dans notre bulle en se focalisant sur nos intérêts principaux, ou qu'ils reproduisent les discriminations de la société actuelle, ces outils ont des défauts d'ordre éthique. En termes de solution, on peut identifier différents procédés, dont celui de rendre la machine plus éthique. C'est ce dont il est question ici. Ce n'est pas le seul, mais c'en est un.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  10. #10
    Membre éclairé Avatar de Madmac
    Homme Profil pro
    Responsable de projet fonctionnel
    Inscrit en
    juin 2004
    Messages
    616
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Responsable de projet fonctionnel
    Secteur : Alimentation

    Informations forums :
    Inscription : juin 2004
    Messages : 616
    Points : 851
    Points
    851

    Par défaut

    Citation Envoyé par Matthieu Vergne Voir le message
    Les débouchés je n'en ai rien à faire, ce n'est pas le sujet de mon message. Qu'il y ait un intérêt ou non, l'article vend une solution censée faire de l'"éthique" qui n'en fait pas. Donc ceux qui estiment y voir un intérêt n'auront pas de vrai solution au travers de ce qui est décrit dans cet article, c'est là le cœur de mon propos.
    .
    Ça devrait intéresser pourtant l’intéressé parce que cela va être le talon d’Achille pour presque touts les domaines pour laquelle ont pourrait être tenté d'utiliser l' applications d'intelligences artificielle. Imagine la situation suivantes. une voiture Uber dérape sur une route verglacé, l'analyse de la situation lui permet seulement deux options:

    - La première lui permet de sauver son passager, mais en tuant 2 personnes.
    - Et la seconde permet de sauver 2 personnes, mais tue le client.

    Même les tâches qui ne traitent pas éthique ou de morale vont probablement être confronté à contraintes qui relèvent d'éthique ou de morale. Ôtant dire que pour ces tâches l'IA n'est une solution viable. C'est pour cela que les débouchés doivent être évaluer sous cet angle afin de voir si il existe des risques d'être confronté à ce type de problème.

    Et le second problème, est de définir si on travail avec un ensemble fermée de problèmes et de solutions. Tous les programmes de AI ont ce problème: Ils ne sont en mesure de répondre que pour les questions pour laquelle ils ont une solution. Il existe bien la méthode qui utilise des 'cadres' qui permet des solutions, Mais cela suppose que le contexte accepte des suppositions.

    Le modèle par cadre fonctionne par similitudes. Plus le nombre de similitudes est élevé, plus supposition a des chances d'être exacte. Imaginons le cas ou nous devons nourrir un ours blanc. Mais que nous avons de la documentation sur les ours noir et brun. À partir de cette documentation, il est possible de faire une supposition avec un degré de certitude acceptable.

    Mais avec des questions qui relèvent de morale ou éthique les suppositions acceptables sont en nombres infinies. Donc déterminé la meilleure est impossible parce c'est du domaine de l'arbitraire.


    Je sais que ce fil est vieux, mais j'étais dans la rénovation jusqu'au coup.
    intel i7
    OpenSuse Leap 42.2
    Plasma et Cinnamon

  11. #11
    Expert éminent
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    novembre 2011
    Messages
    1 932
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : novembre 2011
    Messages : 1 932
    Points : 6 148
    Points
    6 148
    Billets dans le blog
    2

    Par défaut

    Je sais très bien que l'éthique est un des talons d'Achille (et non le seul) en IA. Évidemment que le sujet lui-même est intéressant et qu'il mérite toute notre attention. Mais l'article qui nous intéresse ici n'est pas sur le sujet de l'éthique, mais sur un moyen de le couvrir. Il s'agit donc de ne pas faire un hors sujet. Et ton dilemme du tramway ne change rien à l'affaire.

    L'apprentissage machine, c'est du copier-coller de l'humain (et plus généralement du vivant) vers la machine. Construire sur ce genre de solution, ça revient à dire "j'ai une solution technique pour reproduire, reste à savoir quoi reproduire". La plupart des articles d'IA se focalisent là dessus, sur la solution technique, mais ils sont à côté de la plaque. Si on parle de machine qui doivent pouvoir faire une chose spécifique, alors tout le travail est non pas sur l'apprentissage lui-même, mais sur la construction du jeu d'apprentissage à lui fournir en entrée : comment faire pour s'assurer que ce jeu est représentatif du comportement souhaité (ici un comportement éthique) ? Quand on lit un article qui parle de faire X avec une IA, c'est sur cette construction du jeu qu'il faut se focaliser. Les techniques de reproduction, on en a, aucun soucis avec ça. C'est évidemment améliorable, mais indépendamment de ce qu'on lui met en entrée. La question doit se focaliser sur la construction du jeu d'apprentissage. Or, ici, le jeu fournit n'apporte aucune garantie d'un point de vue éthique. Tout au plus ça fait des hypothèses bancales en faisant le raccourci "papa maman a dit = éthique". La solution proposée est un filtre parental, pas une IA éthique.

    Ceux qui pourront faire des IA éthiques sont ceux qui se focaliseront sur ce que sont les propriétés d'un comportement éthique et sur comment les maximiser au sein d'un jeu d'apprentissage. Pas ceux qui tourneront en rond sur la partie technique comme des papillons de nuit autour d'un lampadaire. C'est de la recherche fondamentale qu'il nous faut ici, pas appliquée.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

Discussions similaires

  1. L'agence des services frontaliers du Canada teste une intelligence artificielle
    Par Stéphane le calme dans le forum Intelligence artificielle
    Réponses: 6
    Dernier message: 10/01/2017, 09h22
  2. Une intelligence artificielle bat des experts de l'armée de l'air américaine
    Par Stéphane le calme dans le forum Intelligence artificielle
    Réponses: 15
    Dernier message: 07/07/2016, 12h10
  3. Créer une intelligence artificielle qui joue a un jeu sur internet..
    Par pinkfloyd234 dans le forum Langages de programmation
    Réponses: 0
    Dernier message: 10/01/2013, 01h41
  4. [Flash Pascal] Architecture d'un jeu incluant une intelligence artificielle
    Par Roland Chastain dans le forum Flash Pascal
    Réponses: 26
    Dernier message: 28/12/2012, 18h09
  5. [Debutant] Apprendre à créer une Intelligence Artificielle (IA)
    Par Aspic dans le forum Intelligence artificielle
    Réponses: 46
    Dernier message: 21/12/2010, 18h04

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo