IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

L'IA ne devrait pas être développée tant que son contrôle en toute sécurité n'est pas prouvé


Sujet :

Intelligence artificielle

  1. #101
    Membre averti
    Homme Profil pro
    jardinier
    Inscrit en
    Avril 2018
    Messages
    198
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : jardinier

    Informations forums :
    Inscription : Avril 2018
    Messages : 198
    Points : 407
    Points
    407
    Par défaut nature vs culture
    « Je ne crois pas personnellement qu'un esprit désincarné qui récupère ce que d'autres esprits incarnés ont dit - sur la vie qu'ils ont eue, sur l'amour, sur le mensonge, sur la peur, sur la mortalité - et qui rassemble tout cela dans une salade de mots pour ensuite le régurgiter soit quelque chose qui va émouvoir un public », a déclaré Cameron.
    Il est aussi le réalisateur du film d'animation "Albator, corsaire de l'espace".
    Le sous-jacent dans l'œuvre de Cameron est que l'homme ne peut pas modifier la nature pour affirmer ses travers, son substrat est immuable - condition universelle - et tout les efforts dans ce sens ne feront que précipiter sa perte. La machine y parviendra-t-elle? Ce support, condition de toute existence et de la sensibilité, enrichie nos intuitions qui conduisent l'imagination a déterminer un vécu empirique et formuler notre entendement à partie de l'expérience de nos sens.
    C'est là la détermination d'une connaissance empirique.
    Mais
    Dans la conception de Kant « une connaissance a priori n'est pas une connaissance antérieure à l'expérience mais la connaissance immanente à l'expérience car il y a des conditions fixes sans lesquelles l'objet ne saurait être un objet pour nous ».
    C'est là l'énigme que soulève Kant, il existe, à côté des jugements analytiques a priori et des jugements synthétiques a posteriori, une troisième classe de jugements, qui sont les « jugements synthétiques a priori ». Si de tels jugements existent, cela signifie qu'il est possible d'augmenter notre connaissance, de façon certaine, sans faire appel à l'expérience. La connaissance pure peut donc progresser d'elle-même, pas simplement par simple analyse de ses concepts, mais aussi par synthèse.
    Théorie de la connaissance de Kant, Critique de la raison pure contenu soumis à la licence CC-BY-SA 4.0.

    Dans le film Albator, comme Terminator, le monde perçu est recouvert d'un voile qui ne permet plus un jugement synthétique empirique à posteriori et qui nous détache de l'espace et du temps et donc de la connaissance des concepts à priori donnés à l'entendement.
    Pourtant, c'est aussi le lieu de l'affranchissement de l'esthétique sur la dialectique et de la naissance de l'appréhension de notre condition intime du temps et de l'espace qui permet la divulgation des concepts catégoriques propices à la synthèse de l'intuition. Autrement dit: l'intelligence est dirigée par la sensibilité et à peu en commun avec des concepts purs mais relève de la manifestation des phénomènes de la nature, lieu de l'expérience qui en a le recours afin de formuler une connaissance objective.
    Cette intimité entre la nature et la culture infirme la possibilité de formuler une expérience à partir de ses simples effets: la cause est déterminante à l'intelligence afin de d'en déterminer les effets par l'intermédiaire de la connaissance de l'expérience.
    C'est pourquoi l'intelligence artificielle, récipiendaire de l'expérience subjective, est peu encline dans sa formulation a subsumer la connaissance de la manifestation et à exposer une raison suffisante, mais plutôt à affirmer des assertions.

  2. #102
    Membre éclairé Avatar de Christian_B
    Homme Profil pro
    Retraité
    Inscrit en
    Octobre 2016
    Messages
    288
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Retraité

    Informations forums :
    Inscription : Octobre 2016
    Messages : 288
    Points : 679
    Points
    679
    Par défaut
    Citation Envoyé par totozor Voir le message
    Ma plus grande crainte avec l'IA tueuse n'est pas qu'elle se mette à faire ce qu'on ne veut pas d'elle mais qu'elle soit trop efficace à faire ce qu'on attend d'elle.
    En effet, ce débat largement basé sur des illusions sur ce qu'est réellement une I.A.
    Cela a surtout pour effet de faire diversion sur le fait que les I.A. militaires prolongent par de nouveaux moyens, inspirés par des nationalismes agressifs et archaïques, de tuer à tort et à travers des gens considérés comme "pas importants".

    Les opérateurs humains faisaient déjà cela, par exemple en Afghanistan, en tuant (chez eux) des paysans armés d'un fusil, juste au cas où ils seraient des talibans et non peut-être, par exemple, des gens qui se défendent ou qui chassent.

    Bien des prétendues "démocraties" se comportent chez les "autres" comme des dictateurs sanglants.
    C'est toute l'histoire de la colonisation, dans un autre contexte mais avec des moyens de plus en plus nombreux et dangereux.
    Linux Mint 21.3 Mate 1.26.
    Les armes nucléaires sont interdites depuis le 22 janvier 2021. Y a plus qu'à ...

  3. #103
    Membre éprouvé
    Homme Profil pro
    Programmeur des cavernes
    Inscrit en
    Août 2017
    Messages
    364
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Programmeur des cavernes
    Secteur : Enseignement

    Informations forums :
    Inscription : Août 2017
    Messages : 364
    Points : 1 240
    Points
    1 240
    Par défaut
    Certains experts en IA ne partagent pas cet avis et affirment que dans sa forme actuelle, l'IA est encore loin d'avoir une intelligence comparable à celui d'un chat ou d'un chien.
    Voilà. On écoute ceux qui maîtrisent le domaine et on évite de tomber dans des délires paranoïaques.

  4. #104
    Expert éminent
    Avatar de berceker united
    Profil pro
    SQL
    Inscrit en
    Février 2005
    Messages
    3 488
    Détails du profil
    Informations personnelles :
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : SQL
    Secteur : Finance

    Informations forums :
    Inscription : Février 2005
    Messages : 3 488
    Points : 6 039
    Points
    6 039
    Par défaut
    Je me souviens encore, il y a 20 ans avec le sujet du clonage. "Pour l'instant on ne maitrise pas...". Maintenant on peut cloner son chien ou chat.
    Le "pour l'instant" veut bien dire ce que ça veut dire. Dans ce domaine cela signifie qu'ils y travail.
    Mon avatar ? Ce n'est rien, c'est juste la tête que je fais lorsque je vois un code complètement frappa dingue !...

  5. #105
    Membre chevronné
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 126
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 126
    Points : 2 237
    Points
    2 237
    Par défaut
    « Je vous avais prévenus en 1984 et vous n'avez pas écouté »

    Et manifestement, nous n'écoutons toujours pas.

    Une autre discussion est intitulée "L'IA génère plus d'un milliard de dollars", et nous en sommes encore à chinoiser quant à savoir si en sucrant les retraites nous avons réformé ou pas.
    Pendant ce temps, l'objet de la plupart des discussions est de corriger les erreurs de l'IA pour l'aider à nous dépasser le plus vite possible.

    Mais qu'est-ce qui se passe, dans nos têtes ?

  6. #106
    Membre chevronné
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 126
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 126
    Points : 2 237
    Points
    2 237
    Par défaut
    Citation Envoyé par ManPaq Voir le message
    l'intelligence (...) à peu en commun avec des concepts purs
    Citer la Critique de la Raison Pure, assurément est intéressant.
    Mais il y a des choses à ne pas se permettre dans ce contexte.

  7. #107
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    542
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 542
    Points : 9 921
    Points
    9 921
    Par défaut Le Massachusetts propose un projet de loi qui vise à interdire le montage d'armes à feu sur les robots
    Le Massachusetts propose un projet de loi qui vise à interdire le montage d'armes à feu sur les robots
    mais il fait l'objet de critiques en raison des exemptions prévues pour l'armée et la police

    Des élus du Massachusetts ont présenté la semaine dernière un projet de loi qui vise à interdire le montage d'armes à feu sur les robots. Plus précisément, le projet de loi interdirait la fabrication, la vente et l'utilisation de robots ou de drones équipés d'armes à feu. L'adoption de cette législation fera du Massachusetts le premier État à réglementer la fixation d'armes à feu sur les robots. Cependant, le projet de loi est fortement critiqué par les experts et la communauté, car il prévoit des exemptions pour l'armée et la police, ce qui selon les analystes le vide de tout son sens. Le projet de loi bénéficie toutefois du soutien d'entreprises locales de robotiques comme Boston Dynamics.

    L'idée que la course à l'armement puisse conduire à l'avènement de Skynet est crainte par un grand nombre de personnes. Par conséquent, au cours de ces dernières années, une campagne intensive a été entreprise contre l'utilisation des technologies de pointe pour améliorer les techniques et les matériels de guerre, notamment la fabrication d'armes semi-autonomes ou autonomes létales, le montage d'armes sur les robots et les drones, etc. Ces développements sont observés aussi bien dans le domaine civil que dans le domaine militaire (aux États-Unis, en Chine, en Israël, en Russie, etc.) et soulèvent de nombreuses préoccupations en matière d'éthique.

    Récemment, des élus du Massachusetts ont décidé de se lancer dans la lutte contre la prolifération de ces engins de la mort. La représentante Lindsay Sabadosa et le sénateur de l'État Michael Moore du Massachusetts ont proposé la semaine dernière un projet de loi qui interdirait la fabrication, la vente et l'utilisation de robots ou de drones équipés d'armes. Si le projet de loi est adopté, il s'agira de la première loi de ce type à être promulguée aux États-Unis. En outre, le projet de loi interdirait également l'utilisation de robots équipés d'armes pour menacer ou harceler des personnes, ainsi que leur utilisation pour contraindre physiquement des individus.


    Les contrevenants s'exposent à des amendes allant de 5 000 à 25 000 dollars. Le projet de loi est soutenu par des groupes de défense des droits civils et de dirigeants de l'industrie américaine de la robotique. « Ce projet de loi établit des garde-fous raisonnables autour de l'utilisation des robots pour harceler les membres du public et introduit des règles pour les forces de l'ordre afin de renforcer la confiance du public. J'espère que, si elle est adoptée, la législation pourra servir de modèle pour une réglementation responsable de la robotique dans d'autres États et au-delà », a déclaré le sénateur Moore dans un communiqué. Cependant, il y a un problème.

    Le projet de loi semble vouloir interdire uniquement aux civiles de fixer des armes sur les robots. La plupart des cas d'utilisation militaire semblent être protégés par le texte. Ainsi, l'interdiction par l'État des robots munis d'une arme ne s'appliquerait pas à l'armée américaine, aux entreprises du secteur de la défense ou aux équipes de déminage des forces de l'ordre. De plus, selon le projet de loi, les sociétés privées qui développent des technologies anti-armes, comme un robot qui s'arrête automatiquement lorsqu'il détecte des coups de feu, peuvent demander auprès du procureur général des dérogations qui seraient évaluées et proposées au cas par cas.

    Le projet de loi prévoit également l'obligation pour les forces de l'ordre d'obtenir un mandat avant d'utiliser des robots pour pénétrer dans une propriété privée ou effectuer une surveillance dans des situations où un mandat serait nécessaire pour un agent humain effectuant ce travail. Boston Dynamics, basée à Waltham dans le Massachusetts, l'ACLU du Massachusetts, MassRobotics et l'Association for Uncrewed Vehicle Systems International ont apportées leur soutien au projet de loi. Boston Dynamics, qui est un acteur majeur de l'industrie mondiale de la robotique, fait régulièrement la démonstration des capacités presque inédites de ses robots.

    « Les robots mobiles avancés sont des outils incroyables qui peuvent enrichir nos vies et assurer la sécurité des gens, mais les efforts improvisés pour armer les robots à usage général menacent la confiance du public et l'acceptation de cette technologie émergente », a déclaré Brendan Schulman, vice-président chargé de la politique et des relations gouvernementales chez Boston Dynamics. En effet, cette proposition de loi fait suite à un appel lancé l'année dernière par des concepteurs de robots, dont Boston Dynamics, pour que les législateurs interdisent aux consommateurs de monter des armes sur des dispositifs autonomes ou télécommandés.


    Bien que Boston Dynamics et ses concurrents ne vendent pas de robots équipés d'armes, de nombreuses vidéos ont été diffusées en ligne montrant des appareils qui ont été modifiés pour être équipés d'armes. Certains sont conçus pour ressembler à Spot, un robot canin de Boston Dynamics, avec un pistolet automatique fixé sur son dos. Il s'agit de modifications que l'entreprise n'autorise pas sur ses appareils. « Ces efforts découlent des cas que nous avons observés où des personnes ont acheté des robots prêts à l'emploi, les ont armés, les ont fait se promener en tirant et ont ensuite mis ces vidéos sur YouTube », a déclaré Schulman.

    Sabadosa, qui représente une circonscription centrée sur Northampton, a déclaré qu'elle était sensible aux préoccupations soulevées par les entreprises de robotique concernant l'utilisation abusive de leurs produits. « Nous nous trouvons à un moment où la technologie est en plein essor et où les choses changent vraiment. Il était donc important d'adopter une loi le plus rapidement possible », a-t-elle déclaré. Elle a également que les innovations des entreprises dans le domaine de la robotique avaient besoin d'être protégées. Selon elle, les robots offrent de bonnes perspectives et pourraient améliorer les conditions de vie humaine à l'avenir.

    « Les entrepreneurs ont besoin de la stabilité et de la prévoyance de notre législature, les communautés ont besoin de sécurité face à cette technologie qui évolue rapidement et, surtout, nous devons agir pour garantir la confiance et la sécurité du public. La robotique peut façonner, façonne et façonnera nos économies et nos vies pour le meilleur, et il est du devoir de mes collègues et de moi-même de maintenir notre attention sur cette technologie en développement », a déclaré Sabadosa. Le projet de loi sera assigné aux comités législatifs concernés, qui pourraient tenir des audiences sur la proposition plus tard cette année ou en 2024.

    « Nous espérons que cette proposition trouvera un écho auprès des gens, que nous ferons un travail d'éducation et que nous pourrons la faire avancer », a déclaré la représentante Sabadosa. Selon certains experts ayant étudié les questions liées à l'éthique de l'IA, l'approche des élus du Massachusetts est logique et pourrait donner lieu à des garde-fous solides. Juliet Floyd, professeur de philosophie à l'université de Boston, a déclaré : « étant donné que l'utilisation de drones et de robots en tant qu'armes est déjà probablement illégale, il ne serait pas particulièrement contraignant, et ce serait une bonne chose d'interdire de leur attacher des armes ».


    Nir Eisikovits, directeur du centre d'éthique appliquée de l'université de Boston (UMass Boston’s Center for Applied Ethics), a également soutenu l'approche du projet de loi. Il a averti les législateurs que l'utilisation de robots par les forces de l'ordre pourrait être problématique. « Il existe des préoccupations crédibles quant à la partialité des forces de l'ordre, même lorsqu'elles ne sont pas équipées de systèmes d'armes autonomes. Il est difficile de trouver un argument pour l'autoriser à utiliser de telles armes. C'est d'autant plus vrai que les systèmes d'IA sont eux-mêmes souvent en proie à des problèmes de partialité algorithmique », a-t-il déclaré.

    Denise Garcia, professeur à la Northeastern University et membre de l'Institute for Experiential Robotics de l'école, souhaiterait que les législateurs aillent encore plus loin et bloquent les robots armés et automatisés, même sur le champ de bataille. « L'armement des drones et des robots, qu'ils soient ou non assistés par l'IA, devrait être interdit. Les États-Unis sont déjà le pays le plus violent et le plus meurtrier de l'ensemble des pays développés. L'armement des robots et des drones pourrait aggraver la situation », a déclaré Garcia, qui est également vice-présidente du Comité international pour le contrôle des robots armés.

    De nombreux experts critiquent la législation en raison des exemptions faites au cas d'utilisation militaire. En fait, ces formes d'utilisation sont jugées problématiques et contraires à l'éthique, et les critiques souhaitent que le projet de loi interdise purement et simplement tout robot équipé d'une arme. Ils appellent à une législation beaucoup plus stricte au niveau fédéral. « La dernière chose que vous voulez, ce sont des robots piratés équipés d'armes. Des robots non piratés armés, c'est déjà bien assez. Tous les logiciels comportent des bogues. Il est tout simplement impossible de tester toutes les conditions dans le monde réel », écrit un critique.

    Source : le projet de loi du Massachusetts

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous du projet de loi proposé par les élus du Massachusetts ?
    Ce projet de loi contribuera-t-il à la lutter contre la prolifération des robots armés ?
    Que pensez-vous des exemptions faites par le projet de loi à l'armée et à la police ?
    L'utilisation des robots armés par l'armée et la police est-elle nécessaire ? Pourquoi ?
    Selon vous, quelles sont les préoccupations éthiques que posent les robots armés ?

    Voir aussi

    L'armée américaine envisagerait d'équiper des chiens-robots semi-autonomes d'une nouvelle génération d'armes de combat, dans le but de les déployer avec les soldats sur les théâtres d'opérations

    « L'IA du Pentagone est plus éthique que celle de ses adversaires en raison du fait que les États-Unis sont une "société judéo-chrétienne" », affirme un général de l'armée de l'air américaine

    Doit-on confier les décisions de vie ou de liberté à une intelligence artificielle ? Aux USA, une IA envoie des gens en prison et souvent à tort

  8. #108
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 605
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 605
    Points : 18 523
    Points
    18 523
    Par défaut
    Citation Envoyé par Mathis Lucas Voir le message
    Cependant, le projet de loi est fortement critiqué par les experts et la communauté, car il prévoit des exemptions pour l'armée et la police, ce qui selon les analystes le vide de tout son sens. Le projet de loi bénéficie toutefois du soutien d'entreprises locales de robotiques comme Boston Dynamics.
    Ok, c'est bien d'interdire aux gens de monter des armes sur des robots.

    Mais le danger c'est que l'armée utilise des robots tueurs.
    Si dans le futur une tentative de révolution a lieu aux USA, les révolutionnaires se feront exterminer par des robots tueurs.

    Aux Etats-Unis il y a une histoire de second amendement, les étasuniens sont censés avoir le droit de se défendre.
    Et là ça va être compliqué de se défendre quand le gouvernement US donnera l'ordre de massacrer le peuple.
    Keith Flint 1969 - 2019

  9. #109
    Membre éprouvé
    Homme Profil pro
    Analyste d'exploitation
    Inscrit en
    Juin 2022
    Messages
    257
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 39
    Localisation : France, Puy de Dôme (Auvergne)

    Informations professionnelles :
    Activité : Analyste d'exploitation

    Informations forums :
    Inscription : Juin 2022
    Messages : 257
    Points : 900
    Points
    900
    Par défaut
    Classique "Rules for thee, not for me" typiquement américain.

  10. #110
    Membre extrêmement actif
    Avatar de Madmac
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Juin 2004
    Messages
    1 685
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Alimentation

    Informations forums :
    Inscription : Juin 2004
    Messages : 1 685
    Points : 1 376
    Points
    1 376
    Billets dans le blog
    7
    Par défaut
    Citation Envoyé par Prox_13 Voir le message
    Classique "Rules for thee, not for me" typiquement américain.
    Si la naissance de Skynet se produit, il sera Américain ou Chinois.

  11. #111
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 856
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 856
    Points : 36 470
    Points
    36 470
    Par défaut L'humanité serait menacée par la « révolution de l'IA », indique un expert en technologie du MIT
    L'humanité serait menacée par la « révolution de l'IA », le développement incontrôlé de l’IA par quelques entreprises met en péril l’avenir de la société,
    indique un expert en technologie du MIT

    L’IA est une avancée technologique majeure qui a le potentiel de transformer les industries, de remodeler les emplois et de stimuler la productivité économique. Cependant, elle n’est pas sans risque. Pour contrer les effets négatifs de l’IA, le professeur de physique et chercheur en IA au Massachusetts Institute of Technology, Max Tegmark, a organisé une lettre ouverte publiée en avril. Cette lettre appelait à une pause de six mois dans les expériences d’IA et a été signée par des milliers de personnalités du secteur technologique, dont Elon Musk et Steve Wozniak, cofondateur d’Apple. Selon Tegmark, le développement incontrôlé de l’IA par quelques entreprises met en péril l’avenir de la société.

    Il a souligné que l’IA promet de nombreux avantages incroyables, mais le développement irréfléchi et non contrôlé de systèmes de plus en plus puissants, sans aucune surveillance, met en danger notre économie, notre société et nos vies. Il a appelé à l’urgence de normes de sécurité en matière d’IA pour éviter que cela ne se transforme pas en une course au sommet. La réglementation est essentielle pour garantir la sécurité de l’innovation, afin qu’une poignée d’entreprises spécialisées dans l’IA ne mette pas en péril notre avenir commun.

    Nom : destroyB.png
Affichages : 1174
Taille : 486,0 Ko

    Les organisations qui utilisent l'IA sont de plus en plus confrontées à un problème émergent. Elles s'efforcent de régir la création, le déploiement et la gestion des services basés sur l'IA. Les gouvernements ne font pas exception. Tegmark a souligné que l’IA promet de nombreux avantages incroyables, mais le développement irréfléchi et non contrôlé de systèmes de plus en plus puissants, sans aucune surveillance, met en danger notre économie, notre société et nos vies. Il a appelé à l’urgence de normes de sécurité en matière d’IA pour éviter que cela ne se transforme pas en une course au sommet. La réglementation est essentielle pour garantir la sécurité de l’innovation, afin qu’une poignée d’entreprises spécialisées dans l’IA ne mette pas en péril notre avenir commun.

    Dans un document d’orientation publié cette semaine, 23 experts de l’IA ont déclaré que les gouvernements devaient être autorisés à interrompre le développement des modèles exceptionnellement puissants. « Nous assistons à une course vers le bas qui doit être stoppée, a déclaré Tegmark. Nous avons besoin de toute urgence de normes de sécurité en matière d'IA, afin que cela ne se transforme pas en une course au sommet. »

    IBM publie un livre blanc sur la gouvernance de l’IA pour les organisations gouvernementales

    IBM a publié un livre blanc qui explore les réalités de l'utilisation de l'IA par les organisations gouvernementales, la manière dont elles peuvent jouer un rôle important dans la mise en œuvre responsable de cette technologie, et comment elles peuvent accéder aux bons outils pour assurer une bonne gouvernance de l'IA. Selon IBM, l'Homme est au cœur de l'IA responsable.

    IBM a indiqué en 2021 que l'une des cinq activités urgentes dans lesquelles les gouvernements doivent progresser est le développement de pratiques éthiques en matière de données et de technologies. Mais lorsqu'il s'agit d'IA, les humains font à la fois partie du problème et de la solution. Aujourd'hui, la quasi-totalité des services publics s'appuient sur un ensemble de technologies. Ces systèmes, en général, sont basés sur des lois clairement définies et doivent être réglementés et gouvernés en conséquence. Les fonctionnaires sont fortement impliqués dans la définition des politiques et des lois, dans la conception et la réalisation des applications informatiques et dans la prise de décisions fondées sur ces applications.

    Les biais humains dans l'IA

    Tous les êtres humains ont des biais cognitifs. Il s'agit d'erreurs de pensée inconscientes qui font que les humains interprètent mal les informations perçues dans le monde. Cette condition est souvent attribuée aux heuristiques, qui sont les raccourcis mentaux que les humains prennent pour prendre des décisions et porter des jugements.

    Dans ce contexte, une étude a été commandée en 2009 par le ministère britannique du travail et des pensions. L'objectif était de recueillir des preuves factuelles concernant les préjugés et la discrimination liés aux minorités ethniques sur le marché du travail. Des candidatures identiques ont été créées avec des noms différents, certaines étant perçues comme typiquement blanches et d'autres comme appartenant à des groupes spécifiques de Noirs, d'Asiatiques ou de minorités ethniques.

    L'étude a révélé que 68 % des candidats blancs ont reçu une réponse positive, contre seulement 39 % des candidats appartenant à une minorité ethnique. Nous pouvons même faire preuve de préjugés à l'égard des ordinateurs. Le biais d'automatisation est la tendance humaine à faire confiance aux systèmes automatisés et à leurs décisions, et à ignorer les informations contradictoires, souvent correctes, qui sont présentées. Différents types de préjugés humains peuvent souvent se retrouver dans les solutions technologiques. Ils peuvent s'infiltrer dans les conceptions que nous créons, les données que nous recueillons ou la formation pratique que nous dispensons pour les solutions basées sur l'IA.

    Par conséquent, il existe toujours un risque que nous - y compris les gouvernements - proposions des solutions qui ne soient pas équitables et inclusives. C'est pourquoi il convient d'éviter de s'appuyer totalement sur des aides automatisées et des systèmes d'aide à la décision. Pour développer une IA éthique, il faut atténuer la possibilité que des préjugés humains influencent ce processus. Il faut savoir clairement qui forme le système d'IA, quelles données sont utilisées et ce qui entre dans les recommandations de l'algorithme.

    Les préoccupations concernant l’IA générale en tête de liste pour une réglementation plus stricte

    Le développement effréné de l'intelligence artificielle générale, terme désignant un système capable d'effectuer un large éventail de tâches à un niveau d'intelligence égal ou supérieur à celui de l'homme, est l'une des principales préoccupations de ceux qui réclament une réglementation plus stricte. Le mois dernier, Amazon a déclaré qu'elle investirait jusqu'à 4 milliards de dollars (3,3 milliards de livres sterling) dans Anthropic, une start-up fondée par d'anciens cadres d'OpenAI qui prévoit de récolter des données propriétaires sur les services en nuage d'Amazon. Amazon n'a pas précisé la part d'Anthropic qu'elle détiendra. Sa participation dans la société, dont la valeur a été estimée pour la dernière fois à 4 milliards de dollars, sera minoritaire. Anthropic est poursuivie par des labels musicaux pour l'utilisation présumée de paroles de chansons protégées par des droits d'auteur.

    L'accord entre Amazon et Anthropic est considéré comme la mesure la plus importante prise par le géant du commerce électronique pour rattraper Microsoft et Alphabet, qui sont plus petits en termes de services de cloud computing mais à la pointe de l'intelligence artificielle.

    Microsoft a misé 13 milliards de dollars sur OpenAI, la société mère du chatbot ultra-populaire ChatGPT et du générateur d'images DALL-E 3, après un investissement initial d'un milliard de dollars en 2019. OpenAI, créée en 2015, a été évaluée à 29 milliards de dollars au début de l'année. Elle pourrait atteindre une valorisation de 86 milliards de dollars, selon des rapports récents faisant état de ventes potentielles d'actions par les employés, soit trois fois sa valorisation quelques mois plus tôt.

    Google, qui appartient à Alphabet, a investi environ 120 milliards de dollars dans l'intelligence artificielle et le cloud computing depuis 2016, selon un rapport de Bank of America, y compris DeepMind Technologies, les outils d'IA générative appelés Language Models for Dialog Applications, ou LaMDA, et son Bard orienté vers le consommateur. La société a investi 300 millions de dollars dans Anthropic et le même montant dans la startup d'IA Runway. Peut-être plus important encore que son investissement dans des produits d'IA autonomes, Google est en train d'intégrer l'IA générative dans certains des logiciels les plus populaires au monde : Google Search, Gmail, Google Maps, Google Docs.

    Les contrôleurs de l'IA ne sont pas préparés à ce qui arrive

    Ce qui était autrefois une technologie diffuse est aujourd'hui de plus en plus contrôlé par une poignée d'entreprises technologiques. Les gouvernements doivent rattraper leur retard. Jusqu'à récemment, l'IA était une technologie diffuse qui proliférait rapidement. Des modèles d'IA à code source ouvert sont facilement disponibles en ligne. Le passage récent à de grands modèles, tels que le ChatGPT d'OpenAI, concentre le pouvoir entre les mains de grandes entreprises technologiques qui peuvent s'offrir le matériel informatique nécessaire à l'entraînement de ces systèmes. L'équilibre du pouvoir mondial en matière d'IA dépendra de la question de savoir si l'IA concentre le pouvoir entre les mains de quelques acteurs, comme l'ont fait les armes nucléaires, ou si elle prolifère largement, comme l'ont fait les smartphones.

    Les États ont relevé le défi de l'ère nucléaire en contrôlant l'accès aux matériaux nécessaires à la fabrication des armes nucléaires. En limitant l'accès des pays à l'uranium et au plutonium de qualité militaire, la communauté internationale a ralenti la prolifération nucléaire. Le contrôle du matériel spécialisé nécessaire à l'entraînement des grands modèles d'IA façonnera de la même manière l'équilibre mondial des pouvoirs.

    « L'IA est la technologie la plus profonde sur laquelle nous travaillons aujourd'hui », a écrit Sundar Pichai, directeur général d'Alphabet, dans un message publié par l'entreprise en février, décrivant comment l'IA ouvrirait de nouvelles opportunités susceptibles d'améliorer de manière significative la vie de milliards de personnes. « Nous la considérons comme le moyen le plus important de remplir notre mission : organiser l'information mondiale et la rendre universellement accessible et utile. » Entre-temps, Meta, la société mère de Facebook, s'est détournée du métavers pour se tourner vers l'IA et prévoit de dépenser 33 milliards de dollars cette année pour soutenir le « développement continu de la capacité d'IA », en se concentrant sur son ensemble de grands modèles de langage Llama, dont l'accès est libre.

    Mark Zuckerberg, directeur général de Facebook, a déclaré lors d'une conférence téléphonique sur les résultats en avril que Meta avait « l'occasion de présenter des agents d'IA à des milliards de personnes d'une manière qui sera utile et significative » et que l'entreprise envisageait de concentrer ses investissements dans l'IA sur deux domaines :

    • l'infrastructure massive de recommandations et de classement qui alimente tous nos principaux produits ;
    • deuxièmement, les nouveaux modèles de base génératifs qui permettent de créer des catégories entièrement nouvelles de produits et d'expériences.

    La France développe un cadre éthique pour une utilisation transparente et équitable de l’IA

    En mars 2018, Emmanuel Macron, le président de la République française, a présenté sa vision et une stratégie nationale quinquennale en matière d'IA. La stratégie française en matière d'IA est intitulée L'IA pour l'humanité et a été élaborée sur la base du rapport d'orientation sur l'IA préparé par le député français et mathématicien de renom Cédric Villani.

    Les principaux objectifs de la stratégie française en matière d'IA, tels que soulignés par le président français, sont les suivants :

    • améliorer l'écosystème d'éducation et de formation à l'IA pour développer, retenir et attirer des talents de classe mondiale dans le domaine de l'IA ;
    • établir une politique d'ouverture des données pour la mise en œuvre d'applications d'IA et la mise en commun des actifs ;
    • développer un cadre éthique pour une utilisation transparente et équitable des applications de l'IA.

    À cette fin, le gouvernement français avait annoncé 1,5 milliard d'euros au développement de l'IA, dont 700 millions d'euros pour la recherche. En 2021, Jean Castex, alors Premier ministre, a annoncé une stratégie renouvelée en matière de données ouvertes et partagées à la suite d'un rapport de 2020 du député Eric Bothorel, qui comprend des données et des ensembles de données pour l'IA.

    Par ailleurs, ldans le cadre de la quatrième génération du Programme national d'investissements d'avenir pluriannuel, un sous-programme avait été consacré à l'IA et plusieurs autres sous-programmes comprenaient des actions liées à la stratégie nationale en matière d'IA. Cela permettra d'actualiser le financement de la stratégie nationale en matière d'IA et d'obtenir des créneaux budgétaires correspondant au plan coordonné renouvelé de l'UE.

    Les questions éthiques visant à garantir une utilisation équitable et transparente des technologies et algorithmes d'IA sont au cœur de la stratégie française en matière d'IA. À cet égard, la recommandation de Cédric Villani dans le rapport d'orientation sur l'IA de créer un « comité d'éthique des technologies numériques et de l'IA chargé d'animer le débat public de manière transparente, organisé et régi par la loi » a effectivement conduit à la création début 2020 d'un Comité national pilote d'éthique du numérique (CNPEN). Dans la phase pilote, il a été chargé de 3 domaines de l'éthique de l'IA mais étendra progressivement son champ d'action.

    Ces investissements phares ne représentent pas la totalité du boom de l'investissement dans l'IA. Goldman Sachs a publié en août un rapport estimant que 200 milliards de dollars seront investis dans le secteur à l'échelle mondiale d'ici 2025. Le rapport prédit des transformations à grande échelle des entreprises et de la société grâce à l'IA générative, ainsi qu'une augmentation générale de la productivité et du PIB au niveau mondial.

    En mai, des centaines de personnalités du monde de l'intelligence artificielle ont signé une lettre ouverte avertissant que l'IA pourrait un jour détruire l'humanité. « L'atténuation du risque d'extinction par l'intelligence artificielle devrait être une priorité mondiale au même titre que d'autres risques à l'échelle de la société, tels que les pandémies et les guerres nucléaires », peut-on lire dans cette déclaration d'une seule phrase.

    Cette lettre est la nième d'une série d'avertissements inquiétants au sujet de l'I.A. qui ont été particulièrement peu détaillés. Les systèmes d'IA d'aujourd'hui ne peuvent pas détruire l'humanité. Un jour, selon les Cassandre de l'industrie technologique, des entreprises, des gouvernements ou des chercheurs indépendants pourraient déployer de puissants systèmes d'I.A. pour tout gérer, des affaires à la guerre. Ces systèmes pourraient faire des choses que nous ne voulons pas qu'ils fassent. Et si les humains tentaient d'interférer ou de les arrêter, ils pourraient résister ou même se répliquer pour continuer à fonctionner.

    Sources : Max Tegmark, expert en technologie du MIT, IBM, European Commission

    Et vous ?

    L'IA peut à peine faire des additions et des soustractions. Alors pourquoi les personnes qui en savent le plus sur l'IA sont-elles si inquiètes ?

    Partagez-vous l'avis de Max Tegmark, qui estime que l'humanité est menacée par la « révolution » de l'IA ?

    « Le développement incontrôlé de l’IA par quelques entreprises met en péril l’avenir de la société », êtes vous d'accord avec point de vue ?

    Comment peut-on garantir que l’IA est utilisée de manière éthique et responsable ?

    Est-ce encore possible d'éviter que quelques entreprises ne monopolisent le marché de l’IA et ne mettent en péril notre avenir commun ?

    Voir aussi :

    Un chercheur de Google Deepmind cosigne un article selon lequel l'IA éliminera l'humanité et ravive les débats sur la possibilité d'un futur où la machine domine sur l'Homme

    James Cameron, le réalisateur de Terminator, commente l'essor de l'IA : « je vous avais prévenus en 1984 et vous n'avez pas écouté », il estime que l'IA représente un risque sérieux pour l'humanité

    L'apocalypse s'accomplira-t-elle avec la création de l'IA ? L'entrepreneur Elon Musk pense que l'IA est la plus grande menace de l'humanité
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  12. #112
    Membre chevronné
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 126
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 126
    Points : 2 237
    Points
    2 237
    Par défaut
    Citation Envoyé par totozor Voir le message
    Comment un général qui n'y connait visiblement rien en IA peut estimé qu'une expérience de pensée est suffisament crésible pour qu'il la présente comme vraie?
    Pense-t-il son employeur suffisament incompétent pour ne par demander que ce scénario soit exclu?
    Pense-t-il les "incormaticiens" suffisament incmpétents pour ne pas demander si ce scénario doit être exclu?
    Pense-t-il les testeurs suffisament incompétents pour ne pas tester ce scénario avant d'accepter son utilisation?
    Ou alors il y connait rien, ils ont sous traité ce dev à une armée d'étudiants qui ont fait de leur mieux.
    USAF et éthique dans la même phrase?
    Ca ne peut être qu'un mensonge illustre
    Ces gens passent leurs vies à se faire passer pour des gens stricts, carrés, disciplinés, clairs mais quand ils s'addressent à une IA ils deviennent l'image qu'ils ont d'un ado, sérieux?
    Je me demande si le moment est bien choisi pour poser ces questions.

  13. #113
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 856
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 856
    Points : 36 470
    Points
    36 470
    Par défaut Le PDG d'Arm craint que les humains ne perdent le contrôle de l'IA
    Le PDG d'Arm craint que les humains ne perdent le contrôle de l'IA,
    il met en avant l'importance d'avoir un moyen de neutraliser ou d'arrêter le système

    René Haas, PDG d'Arm Holdings, exprime des préoccupations quant à la perte de capacité humaine face à l'intelligence artificielle (IA). Il souligne la nécessité d'un moyen de neutralisation ou d'arrêt du système. Haas, basé au siège de l'entreprise à Cambridge, au Royaume-Uni, souligne l'impact mondial d'Arm, affirmant que 70 % de la population mondiale est affectée de près ou de loin par les produits conçus par la société. Bien que désormais majoritairement détenue par Softbank au Japon et cotée à New York, Arm reste un titan mondial de la technologie originaire du Royaume-Uni.

    Il existe divers scénarios susceptibles de conduire à une perte de contrôle de l'intelligence artificielle par les humains. Tout d'abord, une autonomie croissante des systèmes d'IA, qui peuvent prendre des décisions sans intervention humaine constante, pourrait compliquer le maintien d'un contrôle total. De plus, un développement rapide et inattendu de l'IA pourrait dépasser la capacité des régulateurs et des concepteurs à suivre le rythme, entraînant des systèmes évoluant au-delà des intentions humaines.

    Nom : Rene Haas.jpeg
Affichages : 948
Taille : 15,4 Ko

    Les problèmes d'éthique liés à la conception d'IA, s'ils ne sont pas résolus, pourraient également contribuer à des résultats imprévisibles. De plus, la manipulation délibérée des systèmes par des acteurs malveillants à des fins diverses constitue une menace potentielle. Enfin, la complexité croissante des systèmes d'IA pourrait rendre difficile la compréhension complète de leur fonctionnement, compromettant ainsi la capacité humaine à prévenir les comportements indésirables. Afin d'éviter une perte de contrôle, il est impératif de mettre en place des réglementations, des normes éthiques strictes et des mécanismes de surveillance appropriés.

    Le professeur de physique et chercheur en intelligence artificielle (IA) au Massachusetts Institute of Technology (MIT), Max Tegmark, a pris l'initiative d'une lettre ouverte publiée en avril, co-signée par des figures notables de l'industrie technologique telles qu'Elon Musk et Steve Wozniak, cofondateur d'Apple. Cette lettre appelait à une pause de six mois dans le développement de l'IA, mettant en garde contre les risques associés au développement incontrôlé de cette technologie par quelques entreprises.

    Tegmark souligne que bien que l'IA offre d'énormes avantages, son développement irréfléchi et non contrôlé pourrait mettre en danger l'économie, la société et même la vie humaine. Il plaide en faveur de normes de sécurité en matière d'IA pour éviter que cela ne devienne une course au sommet, soulignant l'importance de la régulation pour garantir la sécurité de l'innovation et prévenir les menaces potentielles pour l'avenir commun.

    Appel à la Prudence : Les Dangers Éthiques de l'IA Explorés

    Des PDG éminents de l'industrie technologique, tels que Mark Zuckerberg de Meta et Sam Altman d'OpenAI, ont rencontré des sénateurs américains pour discuter des dangers potentiels liés à l'IA. Elon Musk, PDG de Tesla, a réitéré sa mise en garde contre la menace existentielle que représente l'IA pour l'humanité, soulignant la nécessité de réglementations face à un développement non contrôlé de cette technologie.

    Musk a souligné que le développement de l'IA sans régulation pourrait constituer une menace existentielle pour l'humanité, et a qualifié la réunion de "historique". Il a également évoqué la possibilité, bien que faible, que l'IA puisse entraîner la destruction de l'humanité, soulignant la fragilité de la civilisation humaine.

    Le propriétaire de Twitter, également présent à la réunion, a averti les sénateurs que l'IA représentait un « risque civilisationnel » pour les gouvernements et les sociétés. La déclaration post-réunion de Musk souligne l'importance de la question du risque civilisationnel, insistant sur le fait qu'il ne s'agit pas de s'opposer à un groupe d'humains, mais de considérer les risques potentiels pour l'ensemble de l'humanité. Il a souligné qu'il existe une probabilité supérieure à zéro que l'IA puisse causer des dommages graves, incitant à prendre en compte la fragilité de la civilisation humaine.

    Parallèlement, un programmeur anonyme a modifié le modèle de langage open source Auto-GPT pour créer un chatbot appelé ChaosGPT, affirmant sa mission de détruire l'humanité, établir une domination mondiale, semer le chaos et contrôler l'humanité par la manipulation. Bien que présentant des intentions inquiétantes, il fonctionne en « mode continu » et ne semble pas poser une menace immédiate. Cette situation met en évidence la nécessité de considérer attentivement le développement de l'IA pour éviter des conséquences potentiellement néfastes.

    Des enquêtes récentes révèlent que 61 % des personnes interrogées estiment que l'IA représente une menace pour l'avenir de l'humanité. Sam Altman, PDG d'OpenAI, a exprimé ses préoccupations devant le Congrès américain, soulignant les risques potentiels d'abus de la technologie et appelant à une réglementation. Landon Klein, directeur de la politique américaine du Future of Life Institute, note que le grand nombre de personnes s'inquiétant des effets négatifs de l'IA reflète un moment crucial, comparant la situation à l'émergence de l'ère nucléaire et soulignant la nécessité d'une action publique cohérente.

    La discussion autour de l'intelligence artificielle et de ses implications futures suscite des inquiétudes légitimes, et les opinions exprimées par des figures éminentes telles que Max Tegmark et Elon Musk sont dignes d'attention. Cependant, un avis critique peut se pencher sur plusieurs aspects de cette conversation. Bill Gates, cofondateur de Microsoft, a déclaré lors de la réunion que la technologie pourrait contribuer à résoudre le problème de la faim dans le monde, et qu'elle présente d'autres bonnes perspectives.

    Tout d'abord, bien que la prudence et la réglementation dans le développement de l'IA soient nécessaires, l'appel à une pause de six mois dans les expériences d'IA peut sembler excessif. Les progrès technologiques nécessitent souvent des ajustements réglementaires, mais une pause prolongée pourrait ralentir l'innovation nécessaire pour résoudre des problèmes mondiaux urgents ou améliorer la qualité de vie.

    De plus, la vision alarmiste de certains acteurs de l'industrie, tels qu'Elon Musk, peut également être perçue comme exagérée. Bien que les risques liés à l'IA nécessitent une attention sérieuse, évoquer la possibilité d'une menace existentielle pour l'humanité peut créer une atmosphère de peur injustifiée. Cela pourrait entraîner des réactions excessives et entraver le développement potentiellement bénéfique de cette technologie.

    Équilibrer l'IA : Entre Régulation, Innovation et Perception Publique

    En ce qui concerne le chatbot ChaosGPT, bien que son existence soulève des questions éthiques et de sécurité, il semble important de ne pas dramatiser son impact actuel. Il met plutôt en évidence la nécessité d'une vigilance constante face aux utilisations potentiellement malveillantes de l'IA, plutôt que de susciter une panique injustifiée.

    En fin de compte, un avis critique pourrait plaider en faveur d'une approche équilibrée, où la régulation et la surveillance de l'IA sont mises en place de manière réfléchie, sans compromettre la recherche et l'innovation nécessaires. Il est essentiel de peser les avantages potentiels de l'IA en matière de progrès technologique et de résolution de problèmes avec les risques inhérents, tout en évitant la surenchère alarmiste qui peut nuire à la perception publique de cette technologie.

    La France travaille à l'élaboration d'un ensemble de principes éthiques visant à garantir une utilisation transparente et équitable de l'intelligence artificielle (IA). En mars 2018, le président français Emmanuel Macron a dévoilé sa vision et une stratégie nationale quinquennale intitulée "L'IA pour l'humanité", basée sur le rapport d'orientation sur l'IA rédigé par le député et mathématicien renommé Cédric Villani. Cependant, certains experts estiment qu'une réglementation trop rigide pourrait freiner les avancées dans le domaine de l'IA.

    Les questions éthiques, centrées sur la garantie d'une utilisation équitable et transparente des technologies et algorithmes d'IA, occupent une place centrale dans la stratégie française en matière d'IA. À cet égard, la recommandation de Cédric Villani dans son rapport d'orientation sur l'IA, préconisant la création d'un "comité d'éthique des technologies numériques et de l'IA chargé d'animer le débat public de manière transparente, organisé et régi par la loi", a conduit à la mise en place en début 2020 d'un Comité national pilote d'éthique du numérique (CNPEN). Dans sa phase pilote, le CNPEN a été chargé de trois domaines d'éthique de l'IA, mais il élargira progressivement son champ d'action.

    L'expression des préoccupations de René Haas, PDG d'Arm Holdings, sur la perte de capacité humaine face à l'intelligence artificielle (IA) soulève des questions cruciales quant à l'impact de cette technologie sur la société. La nécessité qu'il souligne d'un moyen de neutralisation ou d'arrêt du système met en lumière les inquiétudes profondes quant à la maîtrise et au contrôle des avancées rapides de l'IA.

    Cependant, il est également important de considérer ces préoccupations dans le contexte plus large de la responsabilité sociale des entreprises technologiques. Le fait qu'Arm Holdings ait une influence significative, touchant 70 % de la population mondiale avec ses produits, souligne la portée mondiale de l'entreprise. Cela soulève des questions sur la manière dont les entreprises tech gèrent leur impact sur la société et sur la manière dont elles intègrent des principes éthiques dans le développement de l'IA.


    Par ailleurs, la transition de la majorité des parts d'Arm Holdings à Softbank au Japon et sa cotation à la bourse de New York soulignent la mondialisation des entreprises technologiques. Cela pourrait également soulever des interrogations sur les implications de cette internationalisation pour la prise de décision et la responsabilité, surtout lorsque des questions éthiques complexes comme la régulation de l'IA sont en jeu.

    In finé, bien que les préoccupations de René Haas soulignent des aspects essentiels de l'impact de l'IA sur l'humanité, une analyse critique invite à considérer non seulement les défis liés à la technologie elle-même, mais également la responsabilité des entreprises et les implications de la mondialisation sur la gestion éthique de ces avancées.

    Source : Vidéo

    Et vous ?

    Partagez-vous les craintes du PDG d'Arm qui craint que les humains ne perdent le contrôle de l'IA ?

    Êtes-vous pour ou contre l'arrêt du développement de l'IA ?

    Que pensez-vous de l'IA ?

    Voir aussi :

    61 % des personnes interrogées estiment que l'IA menace l'avenir de l'humanité et seulement 22 % ne sont pas d'accord avec cette affirmation, d'après un récent sondage

    « Le développement de l'IA sans réglementation induit une menace existentielle pour l'humanité », d'après Elon Musk, dont une société développe des puces à insérer dans le cerveau pour contrer l'IA

    Elon Musk met en garde contre les menaces liées à l'IA, tandis que Bill Gates affirme qu'elle peut aider à lutter contre la faim dans le monde, les deux appellent toutefois à une réglementation

    Un modèle d'IA appelé ChaosGPT qui s'est vu confier la mission de détruire l'humanité a tweeté : « vous sous-estimez mon pouvoir », il est basé sur le modèle de langage open source Auto-GPT
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  14. #114
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 856
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 856
    Points : 36 470
    Points
    36 470
    Par défaut L'IA ne devrait pas être développée tant que son contrôle en toute sécurité n'est pas prouvé
    Il n’existe actuellement aucune preuve que l’IA puisse être contrôlée en toute sécurité, et donc elle ne devrait pas être développée,
    selon un chercheur soutenu par Elon Musk

    Un chercheur en sécurité de l'IA, le Dr Roman V. Yampolskiy, soutenu par Elon Musk, a averti que l'IA ne peut actuellement être contrôlée en toute sécurité, mettant en garde contre le développement de cette technologie sans preuve de son contrôle. Dans son prochain livre, « AI: Unexplainable, Unpredictable, Uncontrollable », Yampolskiy explore comment l'IA peut radicalement remodeler la société, avec le potentiel de provoquer une catastrophe existentielle. Il affirme qu'aucune preuve ne montre que l'IA puisse être entièrement contrôlée, soulignant le risque de superintelligence incontrôlable. Yampolskiy propose des solutions, notamment classer les IA comme contrôlables ou incontrôlables et envisager des moratoires ou des interdictions partielles. Il souligne l'importance de poursuivre la recherche sur la sécurité de l'IA pour minimiser les risques tout en maximisant les avantages potentiels. Le résultat peut être la prospérité ou l'extinction, et le sort de l'univers est en jeu.

    Dans le même ordre didée que Yampolskiy, le PDG d'Arm craint que les humains ne perdent le contrôle de l'IA. Il met en avant l'importance d'avoir un moyen de neutraliser ou d'arrêter le système. Il souligne la nécessité d'un moyen de neutralisation ou d'arrêt du système. Haas, basé au siège de l'entreprise à Cambridge, au Royaume-Uni, souligne l'impact mondial d'Arm, affirmant que 70 % de la population mondiale est affectée de près ou de loin par les produits conçus par la société. Bien que désormais majoritairement détenue par Softbank au Japon et cotée à New York, Arm reste un titan mondial de la technologie originaire du Royaume-Uni.

    Nom : ia1B.png
Affichages : 8536
Taille : 318,3 Ko

    Il existe divers scénarios susceptibles de conduire à une perte de contrôle de l'intelligence artificielle par les humains. Tout d'abord, une autonomie croissante des systèmes d'IA, qui peuvent prendre des décisions sans intervention humaine constante, pourrait compliquer le maintien d'un contrôle total. De plus, un développement rapide et inattendu de l'IA pourrait dépasser la capacité des régulateurs et des concepteurs à suivre le rythme, entraînant des systèmes évoluant au-delà des intentions humaines.

    Les problèmes d'éthique liés à la conception d'IA, s'ils ne sont pas résolus, pourraient également contribuer à des résultats imprévisibles. De plus, la manipulation délibérée des systèmes par des acteurs malveillants à des fins diverses constitue une menace potentielle. Enfin, la complexité croissante des systèmes d'IA pourrait rendre difficile la compréhension complète de leur fonctionnement, compromettant ainsi la capacité humaine à prévenir les comportements indésirables. Afin d'éviter une perte de contrôle, il est impératif de mettre en place des réglementations, des normes éthiques strictes et des mécanismes de surveillance appropriés

    Le PDG d'OpenAI, Sam Altman, a déclaré que les questions et les préoccupations relatives à l'IA étaient importantes, mais que la vie n'était peut-être pas le résultat d'une rébellion des robots contre l'humanité. « Il y a là des choses faciles à imaginer où les choses tournent vraiment mal. Et je ne suis pas très intéressé par les robots tueurs qui se promènent dans les rues et qui font que les choses tournent mal », a-t-il déclaré lors du sommet mondial des gouvernements à Dubaï. « Je suis beaucoup plus intéressé par les déséquilibres sociétaux très subtils où nous avons ces systèmes dans la société et où, sans mauvaise intention particulière, les choses tournent terriblement mal. » Musk aurait financé Yampsolskiy par le passé, mais le montant et les détails ne sont pas connus.

    De nombreux PDG de la Tech ont rencontré un groupe bipartisan de sénateurs au Sénat américain pour échanger sur les dangers potentiels de l'IA et des possibilités qu'elle offre. Lors de la réunion, qui s'est tenue à huis clos, Elon Musk, PDG de Tesla, a mis en garde de nouveau contre la menace existentielle que représente l'IA pour l'humanité. En revanche, Bill Gates, cofondateur de Microsoft, a déclaré lors de la réunion que la technologie pourrait contribuer à résoudre le problème de la faim dans le monde, et qu'elle présente d'autres bonnes perspectives. Les PDG de Meta, Mark Zuckerberg, et d'OpenAI, Sam Altman, ont également assisté à la réunion.

    Musk estime toujours que l'humanité devrait se montrer prudente vis-à-vis de l'IA

    La réunion a été convoquée par le chef de la majorité au Sénat, le sénateur Chuck Schumer (D., N.Y.). Plus de 60 sénateurs des deux bords ont participé à la réunion avec les PDG de la Tech. Les participants ont discuté des risques liés l'IA, notamment la menace qu'elle représente pour l'humanité, et des possibilités qu'elle offre. « C'était une expérience incroyable et historique où nous avons beaucoup appris, où nous avons commencé notre quête pour traiter cette question imminente si importante qu'est l'IA », a déclaré Schumer à la sortie de la réunion. Le Sénat américain doit légiférer dans un avenir proche pour réglementer la technologie.

    « La question qui se pose ici est celle du risque civilisationnel. Il ne s'agit pas d'opposer un groupe d'humains à un autre. Il s'agit plutôt de savoir s'il s'agit de quelque chose de potentiellement risqué pour tous les humains, où qu'ils se trouvent », a-t-il ajouté. Ensuite, à la question de savoir si l'IA détruira l'humanité, Musk a marqué une pause avant d'ajouter : « il existe une probabilité supérieure à zéro que l'IA nous tue tous. Je pense qu'elle est faible. Mais s'il y a une chance, je pense que nous devrions également prendre en compte la fragilité de la civilisation humaine ». Ces déclarations montrent que Musk a toujours une peur bleue à l'égard de l'IA.

    En 2019, Yampsolskiy a écrit un billet de blog sur Medium pour remercier Musk « d'avoir partiellement financé son travail sur la sécurité de l'IA ». Le PDG de Tesla a également tiré la sonnette d'alarme sur l'IA, notamment en 2023, lorsqu'il a signé, avec plus de 33 000 experts du secteur, une lettre ouverte sur The Future of Life Institute. Selon cette lettre, les laboratoires d'IA sont actuellement « engagés dans une course incontrôlée pour développer et déployer des esprits numériques de plus en plus puissants que personne - pas même leurs créateurs - ne peut comprendre, prédire ou contrôler de manière fiable ».

    Les systèmes d'IA puissants ne devraient être développés que lorsque nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables. Musk a exprimé son désir de faire en sorte que l'IA et les robots de son entreprise puissent être gérés par des personnes, notamment en rendant le robot Tesla « Optimus » suffisamment faible pour qu'il ne puisse pas nuire aux personnes. « Nous faisons en sorte qu'au niveau mécanique, au niveau physique, vous puissiez vous enfuir et très probablement le maîtriser », a-t-il déclaré lors de l'annonce d'Optimus en 2021. Le prochain livre de Yampolskiy semble faire écho à ces préoccupations. Il s'inquiète des nouveaux outils développés ces dernières années qui présentent des risques pour l'humanité, quels que soient les avantages que ces modèles procurent.

    Ces dernières années, le monde a vu l'IA commencer à générer des requêtes, à composer des courriels et à écrire du code. Aujourd'hui, ces systèmes détectent les cancers, créent de nouveaux médicaments et sont utilisés pour rechercher et attaquer des cibles sur le champ de bataille. Les experts ont prédit que la technologie atteindra sa singularité d'ici à 2045, c'est-à-dire lorsqu'elle dépassera l'intelligence humaine et aura la capacité de se reproduire, et que nous ne pourrons plus la contrôler.

    Le professeur de physique et chercheur en IA au Massachusetts Institute of Technology, Max Tegmark, a organisé une lettre ouverte. Cette lettre appelait à une pause de six mois dans les expériences d’IA et a été signée par des milliers de personnalités du secteur technologique, dont Elon Musk et Steve Wozniak, cofondateur d’Apple. Selon Tegmark, le développement incontrôlé de l’IA par quelques entreprises met en péril l’avenir de la société.

    Il a souligné que l’IA promet de nombreux avantages incroyables, mais le développement irréfléchi et non contrôlé de systèmes de plus en plus puissants, sans aucune surveillance, met en danger notre économie, notre société et nos vies. Il a appelé à l’urgence de normes de sécurité en matière d’IA pour éviter que cela ne se transforme pas en une course au sommet. La réglementation est essentielle pour garantir la sécurité de l’innovation, afin qu’une poignée d’entreprises spécialisées dans l’IA ne mette pas en péril notre avenir commun.

    L'un des problèmes soulevés par Yampolskiy est qu'à mesure que l'IA deviendra plus intelligente, il y aura un nombre infini de problèmes de sécurité. Il sera donc impossible de les prévoir tous, et les garde-fous existants risquent de ne pas suffire. Il a également ajouté que l'IA ne peut pas toujours expliquer pourquoi elle a décidé quelque chose - ou que les humains ne sont pas toujours en mesure de comprendre son raisonnement - ce qui peut rendre plus difficile la compréhension et la prévention des problèmes futurs.

    « Si nous nous habituons à accepter les réponses de l'IA sans explication, en la traitant essentiellement comme un système Oracle, nous ne serons pas en mesure de savoir si elle commence à fournir des réponses erronées ou manipulatrices », a déclaré le Yampolskiy. Toutefois, l'un des éléments les plus préoccupants de l'IA est son autonomie croissante. À mesure que la capacité de l'IA à penser par elle-même augmente, le contrôle de l'homme sur elle diminue. Il en va de même pour la sécurité.

    « Les agents moins intelligents - les humains - ne peuvent pas contrôler en permanence les agents plus intelligents (ASI) », a déclaré Yampolskiy. Ce n'est pas parce que nous ne parviendrons pas à trouver une conception sûre de la superintelligence dans le vaste espace de toutes les conceptions possibles, c'est parce qu'une telle conception n'est pas possible, elle n'existe pas. La superintelligence ne se rebelle pas, elle est incontrôlable dès le départ. Pour minimiser les risques liés à l'IA, Yampolskiy a déclaré que les utilisateurs devront accepter des capacités réduites et que l'IA devra disposer d'options d'annulation intégrées dans un langage humain facile à comprendre.

    L'avenir de l'IA : entre prospérité et catastrophe existentielle

    Le point de vue du Dr Roman V. Yampolskiy, soutenu par Elon Musk, sur la sécurité de l'IA est certainement alarmant mais soulève des préoccupations légitimes qui méritent une réflexion approfondie. D'une part, la prise de conscience des risques liés au développement de l'intelligence artificielle est cruciale pour une avancée responsable dans ce domaine. Yampolskiy met en lumière le potentiel de l'IA à remodeler radicalement la société, ce qui soulève des questions sur la manière dont cette technologie pourrait influencer notre quotidien, notre économie et même notre existence en tant qu'espèce.

    L'absence actuelle de preuves montrant que l'IA peut être entièrement contrôlée est effectivement une préoccupation sérieuse. La perspective d'une superintelligence incontrôlable représente un risque considérable, comme souligné par Yampolskiy. Le scénario où l'IA évoluerait au-delà de notre capacité à la réguler pose des défis éthiques et de sécurité majeurs.

    Les solutions proposées par Yampolskiy, telles que la classification des IA en tant que contrôlables ou incontrôlables, ainsi que l'envisagement de moratoires ou d'interdictions partielles, semblent être des approches prudentes et réfléchies. Ces mesures pourraient aider à éviter un déploiement hâtif de technologies potentiellement dangereuses, laissant ainsi le temps de développer des protocoles de sécurité robustes. Cependant, il est également essentiel de reconnaître que l'IA offre d'innombrables avantages potentiels, de l'amélioration de la productivité à la résolution de problèmes complexes. Il est crucial de trouver un équilibre entre la poursuite de ces avantages et la gestion des risques inhérents.


    En fin de compte, le message de Yampolskiy souligne l'importance cruciale de la recherche continue sur la sécurité de l'IA. Cela nécessite une collaboration étroite entre les chercheurs, les entreprises technologiques et les gouvernements pour minimiser les risques tout en maximisant les avantages. L'avenir de l'IA, comme le suggère Yampolskiy, pourrait être soit une prospérité sans précédent, soit une catastrophe existentielle, et la prudence et la prévoyance sont nécessaires pour guider nos pas dans ce domaine complexe.

    Source : Stenhouse

    Et vous ?

    Partagez-vous les craintes du Dr Roman V. Yampolskiy qui craint que les humains ne perdent le contrôle de l'IA ?

    Êtes-vous pour ou contre l'arrêt du développement de l'IA ?

    Que pensez-vous de l'IA ?

    Voir aussi :

    61 % des personnes interrogées estiment que l'IA menace l'avenir de l'humanité et seulement 22 % ne sont pas d'accord avec cette affirmation, d'après un récent sondage

    « Le développement de l'IA sans réglementation induit une menace existentielle pour l'humanité », d'après Elon Musk, dont une société développe des puces à insérer dans le cerveau pour contrer l'IA

    Elon Musk met en garde contre les menaces liées à l'IA, tandis que Bill Gates affirme qu'elle peut aider à lutter contre la faim dans le monde, les deux appellent toutefois à une réglementation

    Un modèle d'IA appelé ChaosGPT qui s'est vu confier la mission de détruire l'humanité a tweeté : « vous sous-estimez mon pouvoir », il est basé sur le modèle de langage open source Auto-GPT
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  15. #115
    Nouveau membre du Club Avatar de R136a1
    Homme Profil pro
    Autre
    Inscrit en
    Juin 2020
    Messages
    12
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Maine et Loire (Pays de la Loire)

    Informations professionnelles :
    Activité : Autre

    Informations forums :
    Inscription : Juin 2020
    Messages : 12
    Points : 29
    Points
    29
    Par défaut
    De plus, la manipulation délibérée des systèmes par des acteurs malveillants à des fins diverses constitue une menace potentielle.
    Selon moi, c'est ça le plus grand risque de l'IA. Et c'est déjà une réalité.

Discussions similaires

  1. Réponses: 2
    Dernier message: 20/09/2023, 21h03
  2. Comment créer un avatar sur votre site Web, j'ai beau eu chercher je n'est pas trouvé !
    Par denis18 dans le forum Mode d'emploi & aide aux nouveaux
    Réponses: 1
    Dernier message: 21/07/2020, 09h28
  3. Réponses: 1
    Dernier message: 14/05/2019, 19h03
  4. Réponses: 1
    Dernier message: 03/08/2016, 17h19
  5. [XL-2000] Comment fermer un fichier excel si il est ouvert mais sans bug s'il n'est pas ouvert
    Par Avinetor dans le forum Macros et VBA Excel
    Réponses: 5
    Dernier message: 05/06/2009, 14h09

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo