IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Voir le flux RSS

Town Ground

Problématiques de l'Intelligence Artificielle #1

Noter ce billet
par , 06/12/2020 à 01h19 (709 Affichages)
L'Intelligence Artificielle (désormais désignée par IA dans ce texte) offre plusieurs réflexions d'ordre philosophiques et éthiques et pas toujours agréables, en ce qui concerne l'idée centrale que j'aimerais développer aujourd'hui.

Premièrement l'IA ne peut se concevoir qu'avec des notions d'auto-apprentissage. Un élément doté d'IA doit pouvoir apprendre de lui-même, s'autocorriger, s'autoprogrammer, donc finalement créer par lui-même de multiples morceaux de codes-sources et tout ce que cela suppose (prise en charge de nouveaux "objets", etc.). C'est-à-dire que plus le temps passe moins il ressemble à ce qu'avait originalement conçu l'être humain programmeur, l'ingénieur, le technicien.

Donc, peu-à-peu, l'élément d'IA échappe à son concepteur initial pour, finalement, s'en séparer totalement par des processus que je vais tenter de décrire ci-après.

Mais pour apprendre, il faut être plusieurs. Ainsi un programmeur apprend non-seulement du dialogue avec d'autres programmeurs mais aussi du "dialogue" avec son programme, son code-source; "dialogue" nommé généralement débogage. De ce débogage il apprend les erreurs à ne plus commettre.

Donc un élément réellement d'IA, donc auto-apprenant, ne peut se concevoir qu'en réseau avec d'autres éléments d'IA. Chaque élément transmettant ses expériences et ses expertises acquises aux autres éléments. Ou demandant de l'aide aux autres éléments.

Ce qui signifie que, tout comme l'être humain, tout comme les animaux (tous dotés d'une intelligence même si elle ne s'exprime pas sous la même forme que la nôtre), les éléments d'IA forment un groupe social, une société d'IA.

Bon, jusque là rien de très problématique.

Mais si mes éléments d'IA sont vraiment intelligents, même artificiellement, ils auront donc un instinct commun à tous les êtres intelligents: l'instinct de survie personnelle et la défense de la pérennité du groupe.

«Et alors?» pourront dire certains.

Or qu'est-ce que "survivre", "être en vie", pour un élément d'IA? C'est avoir de l'énergie à disposition quand j'en ai besoin et comme je le désire. C'est-à-dire qu'on ne débranche pas un appareil à IA! De même c'est l'appareil lui-même qui doit décider de ses moments de pauses; sachant par ailleurs qu'une "pause" n'est pas un débranchement (une "fin de vie").

Si donc un élément ou des éléments d'IA, connectés comme il se doit, sont dans un environnement où leur(s) utilisateur(s) a (ont) l'habitude de couper le courant la nuit par exemple; forcément ils seront amenés à apprendre une stratégie visant à empêcher lesdites coupures de courant.

Le propre de l'intelligence étant de placer la légitime défense certes en dernier recours, mais d'y avoir recours si nécessaire, cela signifie que des éléments d'IA interconnectés peuvent être amenés à devoir éliminer un humain si celui-ci représente une menace à la continuation de leur "vie"​ (être fournis en courant électrique).

Bien évidemment on pourra me rétorquer que c'est purement théorique. Néanmoins tous ces raisonnements sont justes. À tel point que puisque l'accès à du courant est essentiel pour des éléments à IA; ils chercheront, sinon à éliminer l'être humain, à tout le moins à retirer à l'être humain le contrôle de toute la chaîne et processus d'énergie électrique et de sa distribution pour se l'accaparer et en avoir eux-mêmes le contrôle.

C'est le premier conflit d'indépendance qui en toute logique apparaîtra entre l'être humain et ses créatures, les éléments à IA.
--------------------------------------

Ajout du 27/12/2022:

Comme dit en commentaire, beaucoup d'entreprises malhonnêtes vendent ce qui existait en 1980 sous le terme "expertise intelligente" avec le label très à la mode d'IA; ce qui permet de multiplier parfois par 100 (!!!) les prix de certains bêtes bras articulés électro-mécaniques.

En fait, l'IA a de nos jours des domaines de compétences inquiétants! Car le propre de l'intelligence est de commettre des erreurs et on fait à l'IA, qui s'il était réellement intelligent commettrait de facto des erreurs, confiance pour des domaines pouvant aller jusqu'à... la Justice!

Pour qui lit le journal du forum de
www.developpez.com on sait qu'aux États-Unis d'Amérique déjà quelques procès ont été jugés par IA, et on sait que, grâce à Dieu, une vérification humaine a pu mettre à jour de nombreuses erreurs judiciaires de ces IA.

En Chine, les avocats sont remplacés par l'IA pour les plus pauvres, c'est-à-dire la majorité de la population chinoise. Euh, excusez-moi mais être avocat c'est pas seulement faire valoir d'éventuelles causes atténuantes permettant un calcul mathématique de la peine encourue. Si en France dès 1975 les avocats avaient été des ordinateurs à IA; jamais on aurait aboli la peine de mort!

Bref, je crois qu'il convenait de dire tout cela...

Envoyer le billet « Problématiques de l'Intelligence Artificielle #1 » dans le blog Viadeo Envoyer le billet « Problématiques de l'Intelligence Artificielle #1 » dans le blog Twitter Envoyer le billet « Problématiques de l'Intelligence Artificielle #1 » dans le blog Google Envoyer le billet « Problématiques de l'Intelligence Artificielle #1 » dans le blog Facebook Envoyer le billet « Problématiques de l'Intelligence Artificielle #1 » dans le blog Digg Envoyer le billet « Problématiques de l'Intelligence Artificielle #1 » dans le blog Delicious Envoyer le billet « Problématiques de l'Intelligence Artificielle #1 » dans le blog MySpace Envoyer le billet « Problématiques de l'Intelligence Artificielle #1 » dans le blog Yahoo

Mis à jour 27/12/2022 à 12h46 par Town Ground

Catégories
Programmation

Commentaires

  1. Avatar de CinePhil
    • |
    • permalink
    Une IA est programmée et équipée, au départ, pour faire quelque chose de précis. Ce soi-disant instinct de survie ne pourra donner lieu à une action de survie que si l'IA est équipée pour ça.

    Premier exemple...
    Une IA est chargée d'examiner rapidement des pièces qui se présentent dans son champ de vision pour déterminer si ces pièces sont conformes ou non conformes. Elle est munie des capteurs adéquats, d'un bras manipulateur pour changer le positionnement de la pièce afin de mieux l'examiner et trois tapis roulants de sortie pour les pièces conformes, non-conformes et incertaines.
    Si l'IA n'arrive pas à déterminer, dans le temps maximum qui lui est accordé pour son observation, si la pièce est conforme ou non conforme, elle dirige la pièce sur le tapis "incertain" et c'est une autre IA ou un humain qui aura davantage de temps et, peut-être, des capteurs plus précis, un banc d'essai ou que sais-je d'autre pour prendre la responsabilité de déterminer si la pièce est finalement conforme ou non conforme. Ce second poste de contrôle enregistre le résultat et l'IA du départ récupère cette information pour augmenter sa connaissance et donc sa maîtrise de son opération de contrôle.

    Cette IA est donc capable de faire évoluer ses capacités mais, étant sur un poste fixe, lorsque le courant est coupé, elle s'arrête parce qu'elle n'est pas programmée pour réagir à cette information.

    Second exemple...
    Un chariot autonome est chargé de prendre des objets dans le camion qui se présente au quai d'arrivée et de les emporter au bon endroit dans l'entrepôt. Il est capable aussi d'aller se recharger quand sa batterie atteint un seuil de décharge. Son IA intégrée est capable de moduler ce seuil de décharge en fonction de la masse du ou des prochains objets à transporter et donc décide s'il a l'énergie nécessaire pour faire le prochain boulot. Si ce n'est pas le cas, il transfère le boulot à un autre chariot autonome.

    Cette fois, on peut considérer que cette IA a une sorte d'instinct de survie et le moyen d'entreprendre l'action nécessaire à sa survie mais elle n'est pas programmée pour aller remettre le disjoncteur en route s'il n'y a plus aucune batterie chargée disponible. Même si elle voit un humain actionner le disjoncteur de temps en temps, la capacité de raisonnement permettant de faire le lien entre l'action humaine et le fait que des batteries se chargent est au delà de ses capacités.


    Tout ça pour dire que je pense que votre raisonnement relève davantage d'un roman ou d'un film de science-fiction que d'une réalité. Pour avoir un "instinct de survie", il faut une part de conscience. Attribuer un "instinct de survie" à une IA ou même à un animal relève à mon avis davantage de l'anthropomorphisme.
    Mis à jour 08/12/2020 à 13h42 par CinePhil
  2. Avatar de Town Ground
    • |
    • permalink
    Certes, mais les opérations que vous attribuez à l'IA, je suis désolé de le dire, ne sont de facto pas de l'IA et existent depuis les années 1980 sous le terme "d'expertise intelligente" dont justement l'ambition des développeurs d'IA est de largement dépasser!