IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

L’IA vous effraie-t-elle ? L’humanité court le risque d’extinction au travers des robots tueurs autonomes


Sujet :

Intelligence artificielle

  1. #1
    Expert éminent sénior

    Homme Profil pro
    Consultant informatique
    Inscrit en
    Avril 2018
    Messages
    1 548
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Côte d'Ivoire

    Informations professionnelles :
    Activité : Consultant informatique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Avril 2018
    Messages : 1 548
    Points : 125 224
    Points
    125 224
    Par défaut L’IA vous effraie-t-elle ? L’humanité court le risque d’extinction au travers des robots tueurs autonomes
    L'IA inspire intrigue, peur et confusion, mais les organisations doivent réduire les risques inhérents,
    Afin de sécuriser leurs propres systèmes intelligents, d’après un nouveau rapport

    L'avenir de l'intelligence artificielle continue d’inquiéter plusieurs, y compris les acteurs dans le domaine de la sécurité de l’information. Un nouveau rapport du Forum sur la sécurité de l'information (ISF) ne dit pas le contraire en indiquant que « l'intelligence artificielle inspire l'intrigue, la peur et la confusion dans la même mesure ». Mais le rapport a toutefois conclu que pour prospérer dans cette nouvelle ère, les organisations doivent réduire les risques posés par l'IA et tirer le meilleur parti des possibilités qu'elle offre. Ce qui signifie sécuriser leurs propres systèmes intelligents et déployer leurs propres défenses intelligentes, d’après le rapport.

    Ces récentes recherches de l’ISF, un organisme international et indépendant dont le but est la recherche des bonnes pratiques dans le domaine de la sécurité de l'information, ont révélé que l'intelligence artificielle présente déjà des risques pour les actifs d'information, ainsi que la possibilité d'améliorer considérablement les cyberdéfenses. Dans son effort de soutien aux organisations à l’échelle mondiale, l'ISF a publié l’édition d’octobre 2019 de son rapport « Demystifying Artificial Intelligence in Information Security », le dernier recueil des organisations qui aide les professionnels de la sécurité à éliminer la confusion, démystifiant l'intelligence artificielle dans le domaine de la sécurité de l'information.

    Nom : isf01.jpg
Affichages : 1641
Taille : 60,8 Ko

    « L'IA crée une nouvelle frontière en matière de sécurité de l'information. Les systèmes qui apprennent, raisonnent et agissent de manière indépendante reproduiront de plus en plus le comportement humain - et comme les humains, ils seront défectueux, mais aussi capables de réaliser de grandes choses. L'IA pose de nouveaux risques pour l'information et rend certains risques existants plus dangereux », a déclaré Steve Durbin, directeur général de l'ISF.

    « Cependant, il peut aussi être utilisé pour le bien et devrait devenir un élément clé de l'arsenal défensif de toute organisation. Les dirigeants d'entreprises et les responsables de la sécurité de l'information doivent comprendre à la fois les risques et les opportunités avant d'adopter des technologies qui deviendront bientôt un élément crucial de leur activité quotidienne », a-t-il ajouté.

    Au fur et à mesure que les systèmes d'IA seront adoptés par les organisations, ils deviendront de plus en plus essentiels aux activités quotidiennes de l'entreprise. Selon le rapport, quelle que soit la fonction pour laquelle une organisation adopte l'IA, ces systèmes et l'information qui les appuie présentent des vulnérabilités inhérentes et sont exposés à des menaces à la fois accidentelles et conflictuelles. Les systèmes d'IA compromis peuvent prendre de mauvaises décisions et par conséquent produire des résultats inattendus, a écrit ISF.

    Le rapport relève également les risques d'attaques sophistiquées basées sur l'intelligence artificielle, qui peuvent compromettre l'information et avoir de graves répercussions sur l'entreprise à une vitesse et à une échelle plus grandes que jamais auparavant. Prendre des mesures à la fois pour sécuriser les systèmes d'IA internes et pour se défendre contre les menaces externes basées sur l’IA deviendra d'une importance vitale pour réduire les risques liés à l'information. Pour cela, L’ISF a noté que les organisations doivent être prêtes à adapter leurs défenses pour faire face à l'ampleur et à la complexité des cyberattaques basée sur l’IA.

    Selon le rapport, l'IA peut automatiser de nombreuses tâches, aidant les services de sécurité en sous-effectif à combler le manque de compétences spécialisées et à améliorer l'efficacité de leurs spécialistes. Cependant, d’après l’ISF, les attaquants ne restent pas les bras croisés. Au fur et à mesure que les menaces basées sur l'IA deviennent plus complexes, les responsables de la sécurité devront utiliser des défenses soutenues par l'IA simplement pour rester à jour, a recommandé le rapport.

    Nom : isf02.jpg
Affichages : 1349
Taille : 36,2 Ko

    « Au fur et à mesure que les premiers adeptes de l'IA défensive s'habituent à une nouvelle façon de travailler, ils en voient les avantages en termes de capacité à contrer plus facilement les menaces existantes. Cependant, une course aux armements se développe. Les outils et techniques d'intelligence artificielle qui peuvent être utilisés pour la défense sont également à la disposition des acteurs malveillants, notamment les criminels, les pirates et les groupes parrainés par des États », a déclaré M. Durbin.

    « Tôt ou tard, ces adversaires trouveront des moyens d'utiliser l'intelligence artificielle pour créer de nouvelles menaces telles que des logiciels malveillants intelligents - et à ce moment-là, l'intelligence artificielle défensive ne sera pas seulement " agréable à avoir ". Ce sera une nécessité. Les praticiens de sécurité qui utilisent les contrôles traditionnels ne seront pas en mesure de faire face à la vitesse, au volume et à la complexité des attaques », a-t-il ajouté.

    Les dérives de l’IA ne s’appliquent pas qu’à la sécurité de l’information. Plusieurs autres applications de la technologie, telle que certaines utilisations de la reconnaissance faciale, sont décriées comme étant néfastes pour l’humanité.

    En mars dernier, à l’occasion de la conférence South by Southwest (SXSW) qui s’est tenue à Austin, au Texas, Elon Musk, le patron de Tesla et de SpaceX, a réitéré ses avertissements concernant le danger de l’intelligence artificielle. Selon Musk, il devrait exister un organisme de réglementation supervisant le développement de cette technologie.

    « Je ne suis pas normalement un partisan de la réglementation et de la surveillance - je pense qu’on devrait généralement pécher par excès de minimisation de ces choses-là, mais il s’agit d’une situation où le public court un très grave danger », avait prévenu Musk.

    Le professeur Jim Al-Khalili a également averti, l’année dernière lors d’un briefing à Londres, que l’intelligence artificielle serait « un plus grand risque pour l’humanité que les changements climatiques et le terrorisme ». Le Président de la British Science Association a ajouté que l’intelligence artificielle, que ce soit en bien ou en mal, impacterait plus le monde que toutes ces autres questions brûlantes de l’heure.

    Il a également évoqué le recours à une réglementation publique en avertissant que le réel potentiel de l’intelligence artificielle ne saurait être révélé sans une plus grande transparence et un engagement public. Pour lui, tant que le gouvernement, l’industrie et les universitaires ne se concertent pas pour agir, l’intelligence artificielle pourrait vite devenir incontrôlable et centralisée entre les mains de quelques sociétés extrêmement puissantes.

    Pour l’heure, l’ISF met à la disposition des entreprises membres le rapport « Demystifying Artificial Intelligence in Information Security » via son site web. 63 % des décideurs informatiques envisagent d'utiliser la technologie de l'intelligence artificielle pour automatiser leurs processus de sécurité, d’après ce rapport.

    Nom : isf03.png
Affichages : 1318
Taille : 34,7 Ko

    Source : ISF

    Et vous ?

    Que pensez-vous du rapport de l’ISF ?
    Les cyberattaques soutenues par l’IA font-elles courir un réel danger à la sécurité de l’information des organisations ?

    Lire aussi

    Pour Elon Musk l'IA est bien plus dangereuse que l'arme nucléaire, alors que Bill Gates estime que l'IA est à la fois porteuse d'espoir et dangereuse
    L'IA représenterait un plus grand risque pour l'humanité, que les changements climatiques et le terrorisme, selon un expert
    L'apocalypse s'accomplira-t-elle avec la création de l'IA ? L'entrepreneur Elon Musk pense que l'IA est la plus grande menace de l'humanité
    Trolldi : cinq dangers émanant de l'utilisation de l'intelligence artificielle et la robotique
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre émérite Avatar de Cpt Anderson
    Profil pro
    Développeur informatique
    Inscrit en
    Novembre 2005
    Messages
    624
    Détails du profil
    Informations personnelles :
    Âge : 49
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Novembre 2005
    Messages : 624
    Points : 2 477
    Points
    2 477
    Par défaut
    Tu vas voir que bientôt, les mecs qui critiqueront l'IA seront considérés comme des complotistes / confusionnistes d'extreme droite. Voir Négationnistes. On le sent arriver.
    Voici la méthode de mon chef:

    copy (DateTimeToStr(Now),7,4)+
    copy (DateTimeToStr(Now),4,2)+copy (DateTimeToStr(Now),1,2)+copy (DateTimeToStr(Now),12,2)+
    copy (DateTimeToStr(Now),15,2)+copy (DateTimeToStr(Now),18,2)

    Je lui ai dit que FormatDateTime irait surement mieux


  3. #3
    Inactif  

    Homme Profil pro
    Écrivain public, Économiste et Programmeur Free Pascal
    Inscrit en
    Août 2005
    Messages
    350
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 48
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Écrivain public, Économiste et Programmeur Free Pascal
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Août 2005
    Messages : 350
    Points : 948
    Points
    948
    Billets dans le blog
    40
    Par défaut
    Ça n'est pas exactement l'IA qui fait peur en ce moment.
    Aucun écolier ne semble avoir compris l'effet de surprise d'un défilement chargeant les images à l'avance.
    Ça peut faire peur même aux gamers, lobotomisés compris.

  4. #4
    Nouveau Candidat au Club
    Homme Profil pro
    historien & product owner
    Inscrit en
    Mai 2018
    Messages
    618
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 33
    Localisation : Algérie

    Informations professionnelles :
    Activité : historien & product owner

    Informations forums :
    Inscription : Mai 2018
    Messages : 618
    Points : 0
    Points
    0
    Par défaut
    Une IA c'est juste un algo ou un ensemble d'algo, l'essentiel des algo catégoriser comme IA, ne sont qu'in fine des formules mathématique : des moyennes, des pondérations...etc.

    A la fin l'ia crée et au mieux aussi performante que l'homme, un exemple classique est la reconnaissance d'image pour différencier un chat d'un chien, les réseaux de neurones utilisé (que l'on peut résumer a des moyennes de moyennes) ne font guère mieux qu'un humain.

    Ce qu'il faut comprendre c'est que si un humain est incapable d'expliquer/trouver un phénomène, l'ia n'arrivera pas non plus a le faire, on ne peut prédire l'imprédictible, on ne peut créer l’increvable.
    Il n'y a pas de supériorité des machines sur les humains, et ceux qui me sorte des ia utilisé dans le jeux de go ou d'échec, honnêtement c'est débile, y'a pas plus inutile sur terre qu'un bête programme statistique d’échec.
    Il y'a rien de supérieure a l'homme la dedans, le machin c'est juste une calculatrice casio... encore heureux qu'elle peut calculer une infinité de chose rapidement mais cela rend pas ce programme supérieure a l'homme. L'homme aussi pourrais faire a la main ces calculs puisque c'est l'homme lui même qui a inventé les échecs et ce programme.

    Il n'est née le jour ou l'homme inventera une machine qui le dépassera, sans parler de conscience, cela devra etre une IA polyvalente qui devra etre bonne dans tous les domaines imaginable, savoir interagir avec n'importe quels humains et enfin créer des nouvelles choses pour l'homme.
    Aujourd'hui on a de bete programme ultra spécialisé (le jeux d'échec, ou bien l'optimiseur/ordonnanceur d'une la chaine de prod), avec une mémoire de poisson et des réponses parfois incohérente (suffit de parler avec cortana/siri) , et enfin et surtout bien incable de créer quelque chose, je n'ai pas connaissance d'une IA ayant inventé un remède contre le cancer ou la solution a la fusion nucléaire. (Vous pouvez trouvé des IA capable de faire de la musique ou de la peinture random... mais c'est quand même très limité niveau utilisé, moi je plare plutot d'ia capable de donner des solutions scientifique a des problèmes scientifique comme qu'elle nous donne la théorie du tout par exemple)

  5. #5
    Nouveau membre du Club
    Homme Profil pro
    Étudiant
    Inscrit en
    Août 2019
    Messages
    8
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Marne (Champagne Ardenne)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Août 2019
    Messages : 8
    Points : 26
    Points
    26
    Par défaut
    Je cite : "Les dérives de l’IA ne s’appliquent pas qu’à la sécurité de l’information. Plusieurs autres applications de la technologie, telles que certaines utilisations de la reconnaissance faciale, sont décriées comme étant néfastes pour l’humanité."
    Le gouvernement français va donc mettre en place un système de reconnaissance faciale pour accéder aux sites gouvernementaux dès novembre me semble-t-il alors que cette information est forcément connue de leur part. Elle n'est certes pas une obligation... pour le moment (tout comme la taxe "temporaire" CSG ) jusqu'à ce qu'il proclame que tu n'auras pas d'autres moyens de te connecter. Comme ça, ça leur fera un gros fichier plein de barbus

  6. #6
    Membre averti
    Profil pro
    AdminSys
    Inscrit en
    Juin 2007
    Messages
    139
    Détails du profil
    Informations personnelles :
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : AdminSys

    Informations forums :
    Inscription : Juin 2007
    Messages : 139
    Points : 344
    Points
    344
    Par défaut
    Citation Envoyé par ShigruM Voir le message
    A la fin l'ia crée et au mieux aussi performante que l'homme, un exemple classique est la reconnaissance d'image pour différencier un chat d'un chien, les réseaux de neurones utilisé (que l'on peut résumer a des moyennes de moyennes) ne font guère mieux qu'un humain.
    Je dirai même plus performante que l'homme sur certaines taches bien précise comme la détection de cancer chez un patient.
    Quand tu peux emmagasiner des décennies de cas en quelques heures ce n'est pas étonnant, vivement qu'on puisse entraîner nos cerveaux de cette manière et apprendre le jujutsu en quelques minutes

  7. #7
    Nouveau Candidat au Club
    Homme Profil pro
    historien & product owner
    Inscrit en
    Mai 2018
    Messages
    618
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 33
    Localisation : Algérie

    Informations professionnelles :
    Activité : historien & product owner

    Informations forums :
    Inscription : Mai 2018
    Messages : 618
    Points : 0
    Points
    0
    Par défaut
    Citation Envoyé par Dgamax Voir le message
    Je dirai même plus performante que l'homme sur certaines taches bien précise comme la détection de cancer chez un patient.
    Quand tu peux emmagasiner des décennies de cas en quelques heures ce n'est pas étonnant, vivement qu'on puisse entraîner nos cerveaux de cette manière et apprendre le jujutsu en quelques minutes
    n'es ce pas mieux d’être polyvalent et avoir une vision d'ensemble plutôt que d’être capable de faire juste 1 chose bien ?

    Je ne parle même pas d'aller a donner une conscience a une ia car cela révèle de la pure sf aujourd'hui et qu'il faut aussi déterminer ce qu'es une conscience, car après tout le cerveau de l'homme c'est juste des réaction chimique, quel différence avec des interaction entre transistors ?

  8. #8
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    1 841
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 1 841
    Points : 51 491
    Points
    51 491
    Par défaut L’IA vous effraie-t-elle ? L’humanité court le risque d’extinction au travers des robots tueurs autonomes
    L’intelligence artificielle vous effraie-t-elle ? L’humanité court le risque d’extinction au travers des robots tueurs autonomes
    Ainsi que l’atteinte du stade d’intelligence artificielle générale

    Israël par exemple déploie des armes pilotées par des intelligences artificielles pour traquer des cibles en Cisjordanie. De façon imagée, il s’agit de robots capables de verrouiller une cible sans intervention humaine et de tirer avec la plus grande précision. Grosso modo, c’est de l’intelligence artificielle mise au service de la guerre. Et le danger il est là : Israël n’est pas dans un îlot isolé et la réalité est que de nombreux pays sont lancés dans la course au développement de telles armes et ne parviennent pas à s’entendre sur des règles de contrôle. C’est fort de ces développements que des chercheurs et chefs d’entreprises mettent en gardent contre un risque d’extinction de l’humanité.

    En septembre 2022, l'armée israélienne a commencé à installer une arme automatique à un poste de contrôle très fréquenté de la ville d'Hébron (Al-Khalil), en Cisjordanie occupée. Les tourelles jumelles ont été installées au sommet d'une tour de garde surplombant le camp de réfugiés d'Al-Aroub. « Elle tire toute seule sans intervention de la part du soldat. Quand un soldat israélien voit un petit garçon, il appuie sur un bouton ou quelque chose comme ça et elle tire toute seule. Elle est très rapide, même plus rapide que les soldats. Les bombes lacrymogènes qu'il tire peuvent atteindre l'extrémité du camp et tout le reste », a déclaré un résident du camp.

    La tourelle télécommandée a été développée par la société de défense israélienne Smart Shooter, qui a mis au point un système de contrôle de tir autonome appelé SMASH, qui peut être fixé sur des fusils d'assaut pour suivre et verrouiller des cibles à l'aide d'un traitement d'image basé sur l'intelligence artificielle. Le site Web de la société appelle ce système "One Shot-One Hit" (qui pourrait être traduit en français par : "un tir - un succès" ). Elle se vante d'avoir réussi à « combiner un matériel simple à installer avec un logiciel de traitement d'image avancé pour transformer des armes légères de base en armes intelligentes du XXIe siècle. »


    La société affirme que la technologie SMASH permet de surmonter les défis auxquels sont confrontés les soldats lors des batailles, tels que l'effort physique, la fatigue, le stress et la pression mentale pour viser avec précision et assurer le succès du tireur. « Notre objectif est de permettre à tous les corps d'infanterie de bénéficier des armes de précision. Quelle que soit l'expérience ou la mission du soldat, notre système lui permet de ne pas faire d'erreur lorsqu'il tire et de toucher la cible sans faute. Tout soldat devient un véritable tireur d'élite », a déclaré Michal Mor, fondateur et PDG de Smart Shooter, lors d'une interview en 2020.

    La tourelle vue à Hébron n'est pas annoncée sur le site Web de l'entreprise israélienne, mais deux autres tourelles automatisées, 'SMASH HOPPER' et 'SMASH HOPPER P', sont équipées de fusils d'assaut et du système Smart Shooter. « Le HOPPER peut être monté dans plusieurs configurations, notamment sur un trépied, un mât fixe, un navire de surface et des véhicules », indique le site Web de l'entreprise. Dans l'ensemble, l'entreprise indique que la technologie SMASH est censée améliorer l'efficacité des missions en engageant avec précision et en éliminant les cibles terrestres, aériennes, statiques ou mobiles, de jour comme de nuit.

    « Habituellement, le terroriste se trouve dans un environnement civil avec de nombreuses personnes que nous ne voulons pas blesser. Nous permettons au soldat de regarder à travers son système de contrôle de tir, pour s'assurer que la cible qu'il veut atteindre est la cible légitime. Une fois qu'il aura verrouillé la cible, le système s'assurera que la balle sera libérée lorsqu'il appuiera sur la gâchette, uniquement sur la cible légitime et qu'aucun des passants ne pourra être touché par l'arme », a déclaré Mor. Les militants des droits de l'Homme s'inquiètent de « la déshumanisation numérique des systèmes d'armes. »

    Selon les médias locaux, l'armée israélienne a déclaré qu'elle teste la possibilité d'utiliser le système pour appliquer des méthodes approuvées de dispersion de la foule, qui n'incluent pas le tir de balles réelles. « Dans le cadre des préparatifs améliorés de l'armée pour faire face aux personnes qui perturbent l'ordre dans la région, elle examine la possibilité d'utiliser des systèmes télécommandés pour employer des mesures approuvées de dispersion de foule. Cela n'inclut pas le contrôle à distance de tirs à balles réelles », explique un porte-parole de l'armée israélienne. Mais cela n'a pas suffi à calmer les craintes des militants des droits de l'homme.

    L'armée israélienne a également précisé qu'au cours de sa phase pilote, le système n'utilisera que des balles à pointe éponge. Cependant, des experts ont signalé qu'à plusieurs reprises, des balles à pointe éponge ont causé des blessures permanentes à des personnes en Cisjordanie occupée et en Israël, certaines ayant même perdu leurs yeux. Des militants des droits de l'homme d'Hébron ont exprimé leur inquiétude quant à la défaillance du système qui pourrait avoir un impact sur de nombreuses personnes, notant que le système a été placé au centre d'une zone fortement peuplée, avec des centaines de personnes passant à proximité.

    En outre, les militants des droits de l'homme, ainsi que d'autres critiques, affirment également que ce dispositif est un nouvel exemple de l'utilisation par Israël des Palestiniens comme cobayes, ce qui lui permettrait de commercialiser sa technologie militaire comme testée sur le terrain auprès des gouvernements du monde entier. « Je vois cela comme une transition du contrôle humain au contrôle technologique. En tant que Palestiniens, nous sommes devenus un objet d'expérimentation et de formation pour l'industrie militaire israélienne de haute technologie, qui n'est pas responsable de ce qu'elle fait », a déclaré un habitant de la région.

    Les guerres du futur mettront de plus en plus à contribution des robots tueurs comme le confirme le général américain Marc Milley

    En 2020, un groupe de soldats fidèles au général libyen Khalifa Haftar a été attaqué par des drones agissant de manière autonome, selon un récent rapport du groupe d'experts du Conseil de sécurité de l'ONU sur la Libye. C’est un tableau parmi tant d’autres désormias qui préfigure des moyens qui seront mis à contribution par les armées du monde dans les guerres du futur.


    Le général américain Marc Milley demande donc aux officiers formés à West Point de garder à l’esprit qu’ils doivent se tenir prêts à relever ces défis :

    « La maturité des diverses technologies qui existent aujourd'hui ou qui sont à un stade avancé de développement, lorsqu'elles sont combinées, sont susceptibles de changer le caractère de la guerre par elles-mêmes. Vous vous battrez avec des tanks, des bateaux et des avions robotisés. Nous avons assisté à une révolution dans la létalité et les munitions de précision. Ce qui était autrefois le domaine exclusif de l'armée américaine est désormais accessible à la plupart des États-nations qui ont l'argent et la volonté de les acquérir », lance-t-il à l’occasion de la sortie d’une nouvelle cuvée d’officiers, ce, sans manquer de rappeler le contexte actuel fait d’affrontements militaires en Ukraine.

    Sur la question de savoir s’il a des idées novatrices sur la façon dont il pense que le combat aérien peut être révolutionné, Elon Musk déclare : « les drones autonomes sont le futur. Ce n’est pas que je veuille que l’avenir soit ainsi fait, mais c’est juste que c’est inéluctable… L’ère des avions de chasse est révolue. »

    C’est le type de tableau auquel on aura de plus en plus droit tant la liste des exemples qui illustrent le fait qu’une machine peut être mise sur pied pour surpasser un humain sur une tâche donnée peut être allongée à souhait. Pour ce qui est du cas spécifique des combats aériens, noter qu’Alpha, une intelligence artificielle mise sur pied par les laboratoires de recherche de l’armée américaine, a défait des experts de cette dernière dans le cadre de simulations de combats aériens.

    « J’ai été surpris par la manière dont elle était consciente et réactive. Elle semblait être consciente de mes intentions et réagir instantanément à mes changements en vol et à mes déploiements de missiles. Elle savait comment déjouer le tir que je faisais. Elle changeait instantanément entre les actions défensives et offensives en fonction des besoins », avait souligné le colonel Gene Lee, décrivant Alpha comme étant l’intelligence artificielle la plus agressive, réactive, dynamique et crédible qu’il ait jamais vue.

    C’est pour ces raisons que les appels au développement responsable des systèmes pilotés par des intelligences artificielles se multiplient

    Les PDG de Google Deepmind, OpenAI et d'autres startups d'IA ont prévenu que les futurs systèmes pourraient être aussi mortels que les pandémies et les armes nucléaires. Le groupe, qui se compose également de chercheurs en IA de renom, a publié une déclaration d'exactement 22 mots afin de tirer la sonnette d'alarme sur un hypothétique « risque d'extinction de l'espèce humaine. »

    Le groupe a publié une déclaration qui se lit comme suit : « l'atténuation du risque d'extinction lié à l'intelligence artificielle devrait être une priorité mondiale au même titre que d'autres risques à l'échelle de la société, tels que les pandémies et les guerres nucléaires ».

    La déclaration de 22 mots, publiée sur le site de l'organisation à but non lucratif "Center for AI Safety", a été raccourcie de la sorte afin de la rendre aussi largement acceptable que possible. Parmi les signataires figurent des dirigeants de trois des principales entreprises d'IA : Sam Altman, PDG d'OpenAI ; Demis Hassabis, PDG de Google DeepMind ; et Dario Amodei, PDG d'Anthropic.

    Nom : 2.png
Affichages : 1069
Taille : 122,6 Ko

    « Certaines préoccupations en matière d’intelligence artificielle ne sont pas simplement techniques. Par exemple, il y a la menace posée par les humains armés d'IA. Comme la plupart des inventions, l'intelligence artificielle peut être utilisée à des fins bénéfiques ou maléfiques. Les gouvernements doivent travailler avec le secteur privé sur les moyens de limiter les risques.

    Il y a aussi la possibilité que les IA deviennent incontrôlables. Une machine pourrait-elle décider que les humains constituent une menace, conclure que ses intérêts sont différents des nôtres ou simplement cesser de se préoccuper de nous ? C'est possible, mais ce problème n'est pas plus urgent aujourd'hui qu'il ne l'était avant les développements de l'IA de ces derniers mois », souligne-t-il.

    C’est une sortie qui rejoint celle de Michael Osborne et Michael Cohen de l’université d’Oxford : « « L’intelligence artificielle est susceptible de devenir plus intelligente que les Hommes contre lesquels elle pourra donc se retourner et les exterminer. »

    Ces différentes sorties font référence à un stade de leur évolution où les machines seraient alors dotées de « bon sens. » Au stade d’intelligence artificielle générale, elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. » C’est ce palier que les équipes de recherche dans le domaine visent. Le professeur Osborne fait une prédiction à ce sujet : « Il y a toutes les raisons de s'attendre à ce que, même ce siècle, nous puissions voir une IA qui soit au moins aussi capable que les êtres humains et très probablement plus capable que tout être humain aujourd'hui. »


    Google par exemple est lancé en secret sur le développement de Pitchfork ou AI Developer Assistance. C’est un outil qui utilise l'apprentissage automatique pour apprendre au code à s'écrire et se réécrire lui-même. Comment ? En apprenant des styles correspondant à des langages de programmation et en appliquant ces connaissances pour écrire de nouvelles lignes de code.

    L’intention initiale derrière ce projet était de créer une plateforme capable de mettre automatiquement à jour la base de code Python chaque fois qu'une nouvelle version était publiée, sans nécessiter l'intervention ou l'embauche d'un grand nombre d'ingénieurs. Cependant, le potentiel du programme s'est avéré beaucoup plus important que prévu. Désormais, l'intention est de donner vie à un système polyvalent capable de maintenir un standard de qualité dans le code, mais sans dépendre de l'intervention humaine dans les tâches de développement et de mise à jour.

    Un tel objectif pourrait ne plus relever de la science-fiction en cas d’atteinte du stade d’intelligence artificielle générale. Le tableau viendrait alors raviver la possibilité pour l’humanité d’entrer dans une ère de domination par les machines comme prédit par de nombreuses productions cinématographiques à l’instar de Terminator, Matrix ou encore i-Robot.


    C’est d’ailleurs la raison pour laquelle Elon Musk travaille sur un projet visant à fusionner un cerveau humain et un ordinateur afin de permettre aux Hommes de rivaliser avec l’intelligence artificielle. Le « Neural Lace » est une interface cerveau-ordinateur permettant de relier le cerveau humain à des ordinateurs sans avoir besoin de connexion physique. Cette technologie donnerait aux humains la possibilité de fusionner avec l’intelligence artificielle et d’améliorer ainsi leur mémoire et leurs facultés cognitives. Cette puce issue de sa société Neuralink peut diffuser de la musique directement au cerveau. C’est l’une des applications de cette interface cerveau-ordinateur à côté d’autres comme la possibilité de guérir la dépression et la dépendance.

    Elon Musk est d’avis que seule la mise sur pied d’une interface cerveau-ordinateur peut permettre à l’Homme de subsister. Son initiative vise une sorte de symbiose avec l'intelligence artificielle, ce, à un degré qui rendrait le langage humain obsolète. Il suffirait alors de penser pour communiquer. Grosso modo, dans les laboratoires de la société d’Elon Musk, on est au « service de l’humanité. » Le projet ne manque néanmoins pas d’être terrifiant puisque la puce est à insérer dans le crâne ; ce qui serait selon certaines interprétations la marque de la bête référence faite à Apocalypse 13:17 dans la Bible : « La deuxième bête d’Apocalypse 13 fait en sorte que “tous, petits et grands, riches et pauvres, libres et esclaves, reçoivent une marque sur leur main droite ou sur leur front, et que personne ne puisse acheter ni vendre, sans avoir la marque, le nom de la bête ou le nombre de son nom. »

    Et vous ?

    Les craintes en lien avec le développement des systèmes d’intelligence artificielle sont-elles justifiées ?
    L’intelligence artificielle peut-elle être le déclencheur d’une apocalypse telle que prédite par différents acteurs et ouvrages de référence comme la Bible ?
    Est-il surprenant que les pays n’arrivent pas à trouver de consensus sur les moyens d’encadrer cette technologie qu’est l’intelligence artificielle ?

    Voir aussi :

    Neuralink, le projet d'Elon Musk pour qu'un cerveau humain interagisse directement avec un PC, et l'Homme fusionne avec l'IA, aberration ou fiction ?
    Neuralink d'Elon Musk annonce que l'interface cerveau - ordinateur est prête pour des tests sur les humains, et entend procéder aux premiers en 2020
    L'apocalypse s'accomplira-t-elle avec la création de l'IA ? L'entrepreneur Elon Musk pense que l'IA est la plus grande menace de l'humanité
    Neuralink d'Elon Musk, la discrète firme qui travaille sur des ordinateurs à implanter dans le cerveau, lève le voile sur le secret, sous peu
    Il n'aura fallu que 10 minutes pour trouver des failles dans le chapelet « intelligent » lancé par le Pape, pour inviter les fidèles à la prière partout dans le monde
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  9. #9
    Membre expérimenté

    Homme Profil pro
    Collégien
    Inscrit en
    Juillet 2010
    Messages
    545
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Afghanistan

    Informations professionnelles :
    Activité : Collégien

    Informations forums :
    Inscription : Juillet 2010
    Messages : 545
    Points : 1 429
    Points
    1 429
    Par défaut
    L'IA généraliste sera-t-elle dépressive?

  10. #10
    Membre expert
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 125
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 125
    Points : 3 457
    Points
    3 457
    Par défaut
    Citation Envoyé par mith06 Voir le message
    L'IA généraliste sera-t-elle dépressive?
    Oui mais elle sera suivie par une IAG psy qui aura fait 3 ans d'études de plus.

  11. #11
    Membre régulier
    Homme Profil pro
    Formateur suite Adobe, Blender, et écrivain de SF
    Inscrit en
    Janvier 2005
    Messages
    34
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 55
    Localisation : France, Nord (Nord Pas de Calais)

    Informations professionnelles :
    Activité : Formateur suite Adobe, Blender, et écrivain de SF

    Informations forums :
    Inscription : Janvier 2005
    Messages : 34
    Points : 100
    Points
    100
    Par défaut l'IA est la baffe que va prendre l'humanité si elle ne change pas
    Le même débat, encore et toujours.

    Imaginez un enfant. Il s'apprête à mettre la main sur une plaque de cuisson bien chaude.
    Il sait que vous l'avez déjà mis en garde et qu'il va faire un truc que vous ne voulez pas qu'il fasse. Il vous regarde dans les yeux en approchant la main.
    Vous le prévenez : Ne touche pas à ça, tu vas te faire du mal.
    Il le fait quand même... et se brûle.

    C'est ce qui pourrait nous arriver avec l'IA.
    "On" a commencé à approcher la main de la plaque de cuisson, quelqu'un de mal intentionné est en train de monter la température, et "on" se demande s'il ne faudrait pas faire un moratoire sur la plaque de cuisson.

    Dirions-nous : puisque le marteau est une arme qui va tuer des milliers de gens, faisons un moratoire sur les marteaux ?

    On oublie un peu vite que derrière ses "machines tueuses", il y a des industriels et des développeurs qui trouvent cool de faire des armes "intelligentes".

    Donc non, l'IA ne m'effraie pas. C'est l'être humain qui me fait peur. L'Humanité est encore un adolescent qui lève les yeux au ciel quand on lui demande de ranger sa chambre parce que... MERDE, mes parents sont des cons.
    Formateur Adobe/Blender/écriture | Ecrivain de SF > Nouvelle Conscience (IA et polar)

Discussions similaires

  1. Réponses: 0
    Dernier message: 12/02/2019, 12h28
  2. Réponses: 2
    Dernier message: 20/09/2016, 14h59
  3. Problème d'exportation dans Desktop Intelligence
    Par xc78370 dans le forum Deski
    Réponses: 3
    Dernier message: 13/04/2010, 11h23
  4. Réponses: 4
    Dernier message: 07/03/2008, 16h21
  5. Réponses: 4
    Dernier message: 18/07/2007, 23h35

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo