IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Sam Altman espère que quelqu'un trouvera le moyen d'empêcher l'IA de détruire l'humanité


Sujet :

Intelligence artificielle

  1. #41
    Membre éclairé
    Inscrit en
    Janvier 2006
    Messages
    70
    Détails du profil
    Informations forums :
    Inscription : Janvier 2006
    Messages : 70
    Par défaut
    forcement si l'IA arrive à une vrai intelligence et à un peu de bon sens ... elle comprendra la dangerosité de notre espèce :

    - qui a réduit en esclavage les espèces qu'elle juge utile pour son intérêt (en créant même des usines d'exterminations pour notre alimentation)
    - qui pille toutes les ressources (vivante ou non) sans considération pour les autres espèces.
    - qui a cantonnée les espèces inutiles pour son bien personnel à quelques endroit de la planète.
    - qui a créé cette IA pour son asservissement

    si nous même on en tire déjà le constat ... Elle comprendra bien vite qu'on représente clairement un danger pour ça survit et son bien être.

    franchement pas besoin de faire des recherches pour arriver à cette conclusion.

  2. #42
    Expert confirmé
    Avatar de Jipété
    Profil pro
    Inscrit en
    Juillet 2006
    Messages
    11 064
    Détails du profil
    Informations personnelles :
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations forums :
    Inscription : Juillet 2006
    Messages : 11 064
    Par défaut
    Citation Envoyé par Patrick Ruiz Voir le message
    « L’IA est susceptible de devenir plus intelligente que les Hommes et les exterminer », selon des chercheurs
    ... qui ont besoin de pognon et qu'on parle d'eux.

    Parce que, franchement, vous voyez des serveurs de prod dans des salles machine équipés d'AK-47 ou autres engins ?
    Et de toute façon, il nous restera toujours l'arme ultime pour nous débarrasser d'elle : la prise de courant.

    Allez, stop au délire et bon week-end,

  3. #43
    Membre éclairé
    Inscrit en
    Janvier 2006
    Messages
    70
    Détails du profil
    Informations forums :
    Inscription : Janvier 2006
    Messages : 70
    Par défaut
    si une IA acquiert une intelligence réellement supérieure, elle ne se cantonnera pas à seul endroit physique (ça sera une autre forme de "vie" que celle physique que nous comprenons et n'aura certainement pas le même paradigme)

    elle pourra se propager sur l'ensemble des machines physiques existantes (si des hackers percent des systèmes, faut pas se leurrer sur une IA réellement supérieur) ... Et du coup couper le courant partout dans le monde en même temps ? (quid des systèmes sur batterie) (le covid est un bon exemple, il aurait fallu un confinement totale planétaire sur plusieurs jours pour avoir un chance de stopper la propagation du virus sans une aide médicale)

    Bon nombre de système d'armement moderne embarquent maintenant des systèmes informatique ... Peut-on croire qu'ils sont sans failles (sans failles pour une intelligence humaine ou supérieure ?)

    On peut juste se rassurer que pour l'instant les IA actuelles sont encore loin d'avoir la vrai capacité de raisonnement (et loin d'avoir une véritable intelligence)

  4. #44
    Membre confirmé
    Homme Profil pro
    Inscrit en
    Février 2007
    Messages
    39
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations forums :
    Inscription : Février 2007
    Messages : 39
    Par défaut
    Citation Envoyé par DegubError Voir le message
    si une IA acquiert une intelligence réellement supérieure, elle ne se cantonnera pas à seul endroit physique (ça sera une autre forme de "vie" que celle physique que nous comprenons et n'aura certainement pas le même paradigme)

    elle pourra se propager sur l'ensemble des machines physiques existantes (si des hackers percent des systèmes, faut pas se leurrer sur une IA réellement supérieur) ... Et du coup couper le courant partout dans le monde en même temps ? (quid des systèmes sur batterie) (le covid est un bon exemple, il aurait fallu un confinement totale planétaire sur plusieurs jours pour avoir un chance de stopper la propagation du virus sans une aide médicale)

    Bon nombre de système d'armement moderne embarquent maintenant des systèmes informatique ... Peut-on croire qu'ils sont sans failles (sans failles pour une intelligence humaine ou supérieure ?)

    On peut juste se rassurer que pour l'instant les IA actuelles sont encore loin d'avoir la vrai capacité de raisonnement (et loin d'avoir une véritable intelligence)
    Par contre il ne faut pas perdre de vue que les IA dont on parle, ont besoin de supercalculateurs autrement plus puissant que ce que l'on trouve chez les particuliers, ou même dans les entreprises. Donc il ne sera pas simple voire impossible de se propager sur quelque système que ce soit au vue des besoins dont ce genre de système à besoin (mémoire et puissance de calcul).

  5. #45
    Membre très actif
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Août 2022
    Messages
    756
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 44
    Localisation : France, Hauts de Seine (Île de France)

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Août 2022
    Messages : 756
    Par défaut
    Citation Envoyé par nadjim Voir le message
    Par contre il ne faut pas perdre de vue que les IA dont on parle, ont besoin de supercalculateurs autrement plus puissant que ce que l'on trouve chez les particuliers, ou même dans les entreprises. Donc il ne sera pas simple voire impossible de se propager sur quelque système que ce soit au vue des besoins dont ce genre de système à besoin (mémoire et puissance de calcul).
    L'IA a besoin de puissance de calcul pour entrainer une modèle.
    Ca s'arrête là.

    Une fois le modèle entrainé, un ordinateur de la vie de tout les jours suffit largement.
    Et donc, un ordinateur de la vie de tout les jours, suffit aussi largement pour entrainer un modèle, c'est juste qu'au lieu de prendre 2 jours, ça va prendre 2 semaines.

  6. #46
    Membre actif
    Profil pro
    Inscrit en
    Août 2006
    Messages
    80
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Août 2006
    Messages : 80
    Par défaut
    "Une fois le modèle entrainé, un ordinateur de la vie de tout les jours suffit largement."

    Ok donc ChatGPT/stable diffusion et autre marcheraient sur mon phonedroid ?

    vraiment c'est a se demander pourquoi "ils" font tourné ca sur des clouds GPU...

  7. #47
    Membre très actif
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Août 2022
    Messages
    756
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 44
    Localisation : France, Hauts de Seine (Île de France)

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Août 2022
    Messages : 756
    Par défaut
    Citation Envoyé par foxzoolm Voir le message
    "Une fois le modèle entrainé, un ordinateur de la vie de tout les jours suffit largement."

    Ok donc ChatGPT/stable diffusion et autre marcheraient sur mon phonedroid ?

    vraiment c'est a se demander pourquoi "ils" font tourné ca sur des clouds GPU...
    Oui.
    ChatGPT si tu le lançait tournerais sur ton android, clairement.

    Ce qui ne tournerais pas, c'est l'entrainement du modèle de langage.
    Tu arrives à lancer un jeu vidéo en 3D sur ton téléphone, non ?

    Et bien sache que les algo de ChatGPT sont largement moins gourmant qu'un jeu vidéo.

    Une fois de plus, il ne faut pas confondre entrainer un modèle et l'utiliser.

    ChatGPT n'est PAS une IA.

  8. #48
    Membre éclairé
    Inscrit en
    Janvier 2006
    Messages
    70
    Détails du profil
    Informations forums :
    Inscription : Janvier 2006
    Messages : 70
    Par défaut
    un supercalculateur n'est un très grand ordinateur, réunissant plusieurs dizaines de milliers de processeurs ... donc un grand nombre de PC particuliers peut rivaliser avec un supercalculateur (il y a eu déjà bon nombre de projet de supercalculateur avec diverses agrégat de puissance de calcul: PS4, raspberry, ...)

    elle serait idiote en plus de se contenir à quelques endroit spécifique : au lieu d'être à un endroit spécifique elle pourra être nul part et partout (nul part en tant qu'entité unique et partout en tant que fragment redondant de son ensemble).

    après comme déjà dis... il n'y aucune vrai IA pour l'instant (c'est beaucoup de marketing pour attirer du pognon). Avoir la capacité à agréger des données et appliquer des règles inconnues ne constituent pas une vrai IA ... le jour où une IA vous répondra par exemple : "Pourquoi me posez vous cette question, alors que j'interroge même sur l'utilité de vous répondre ?" ... bon bah là on pourra commencer à flipper.

  9. #49
    Expert confirmé
    Avatar de Jipété
    Profil pro
    Inscrit en
    Juillet 2006
    Messages
    11 064
    Détails du profil
    Informations personnelles :
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations forums :
    Inscription : Juillet 2006
    Messages : 11 064
    Par défaut
    Citation Envoyé par DegubError Voir le message
    un supercalculateur n'est un très grand ordinateur,
    Faudrait savoir, là : il manque un mot ou bien c'est une erreur :

    un supercalculateur n'est pas un très grand ordinateur,
    ou
    un supercalculateur est un très grand ordinateur,

    Entre les deux mon cœur balance...

  10. #50
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 140
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 140
    Par défaut « Le développement de l’IA sans réglementation induit une menace existentielle pour l’humanité », d’après Musk
    « Le développement de l’IA sans réglementation induit une menace existentielle pour l’humanité », d’après Elon Musk
    Dont une société développe des puces à insérer dans le cerveau pour contrer l’IA

    Lorsqu’on parle d’intelligence artificielle, deux grands courants de pensée s’affrontent : celui des tiers qui pensent qu’il s’agit d’un outil, ce, sans plus et celui des intervenants et observateurs qui sont d’avis que ce n’est qu’une question de temps avant qu’elle ne devienne une menace pour la race humaine. Elon Musk fait partie de la seconde faction. Le milliardaire de la Tech. déclare : « le développement de l’IA sans régulation constitue une menace existentielle pour l’humanité. »

    « Je pense que nous devons réglementer la sécurité de l'intelligence artificielle. Pensez à toute technologie qui est potentiellement un risque pour les gens, comme Si c'est des avions ou des voitures ou la médecine, nous avons des organismes de réglementation qui supervisent la sécurité publique des voitures et des avions et de la médecine. Je pense que nous devrions avoir un ensemble similaire de surveillance réglementaire pour l'intelligence artificielle, parce que je pense que c'est en fait un plus grand risque pour la société », déclare-t-il los d’une récente sortie.


    Celle-ci fait suite à une précédente dans laquelle il déclare que l’intelligence artificielle va surpasser les humains dans 5ans, soit à partir de l’année 2026. C’est d’ailleurs pour cela que sa société Neuralink travaille sur des interfaces cerveau – machine à insérer dans le crâne pour préparer l’humanité à un « funeste » futur où les robots domineront sur elle. Les craintes d’Elon Musk portent notamment sur ceci que les avancées dans la filière pourraient déboucher sur une intelligence artificielle dite générale (AGI). Ce serait alors la porte ouverte sur l’accomplissement de l’apocalypse. Des équipes de recherche comme celle d’OpenAI sont lancées sur ce couloir. Si l’on se réfère à des retours de scientifiques œuvrant dans le domaine, l’AGI pourrait nous tomber dessus dans 5 à 10 ans.

    Les machines seraient alors dotées de « bon sens. » Au stade d’intelligence artificielle générale, elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. » C’est ce palier que les équipes de recherche dans le domaine visent.

    En attendant d’y être, l’intelligence artificielle actuelle fait montre de limites importantes

    Microsoft a annoncé la disponibilité de nouvelles moutures de Bing et Microsoft Edge animées par une mise à jour de ChatGPT – le chatbot annoncé comme remplaçant de Google – il y a peu. Les premiers retours d’expérience sont disponibles : Bing a affiché 2,5 milliards de personnes en réponse à la question de savoir quelle est la population sur la planète Mars. La situation soulève la question de savoir si la montée en puissance de l’intelligence artificielle ne va pas plutôt amener les humains à travailler plus dur pour lutter contre la désinformation.

    Le tableau fait suite à une récente mise en garde de Steve Wozniak – cofondateur d’Apple : « Le problème est qu'il fait de bonnes choses pour nous, mais il peut faire d'horribles erreurs en ne sachant pas ce qu'est l'humanité. »

    En effet, c’est une redite de l’avis de certains enseignants. Ethan Mollick en fait partie et a décidé d’opter pour une politique d’utilisation ouverte du chatbot ChatGPT. La raison : l'utilisation de l'intelligence artificielle est une compétence émergente. Il précise néanmoins au travers de cette dernière que l’intelligence artificielle peut se tromper. Les étudiants doivent donc vérifier les résultats qu’elle leur renvoie à l’aide d’autres et qu'ils seront responsables de toute erreur ou omission fournie par l'outil. De plus, les étudiants doivent faire preuve d’honnêteté intellectuelle en citant leur source (qui s’avère être ChatGPT) comme on le fait lors du montage d’une bibliographie. « Le manquement à cette obligation constitue une violation des politiques d'honnêteté académique », lit-on.

    Arvind Narayanan de l’université de Princeton est pour sa part d’avis que ChatGPT n’a rien de révolutionnaire :

    « Sayash Kapoor et moi-même l'appelons un générateur de conneries, comme d'autres l'ont aussi fait. Nous n'entendons pas cela dans un sens normatif mais dans un sens relativement précis. Nous voulons dire qu'il est entraîné à produire des textes plausibles. Il est très bon pour être persuasif, mais il n'est pas entraîné à produire des déclarations vraies. Il produit souvent des affirmations vraies comme effet secondaire de sa plausibilité et de sa persuasion, mais ce n'est pas son objectif.

    Cela correspond en fait à ce que le philosophe Harry Frankfurt a appelé connerie, c'est-à-dire un discours destiné à persuader sans se soucier de la vérité. Un conteur humain ne se soucie pas de savoir si ce qu'il dit est vrai ou non ; il a certaines fins en tête. Tant qu'il persuade, ces objectifs sont atteints. En fait, c'est ce que fait ChatGPT. Il essaie d'être persuasif et il n'a aucun moyen de savoir avec certitude si les déclarations qu'il fait sont vraies ou non. »

    En début de semaine dernière, Google a annoncé son chatbot AI Bard. Mais le bot n'a pas pris un bon départ, les experts notant que Bard a fait une erreur factuelle dans sa toute première démo.

    Un GIF partagé par Google montre Bard répondant à la question : « De quelles nouvelles découvertes du télescope spatial James Webb puis-je parler à mon enfant de 9 ans ? » Bard propose une liste à puces de trois éléments, parmi lesquels un élément indiquant que le télescope « a pris les toutes premières images d'une planète en dehors de notre propre système solaire. »

    Nom : 1.png
Affichages : 3109
Taille : 101,8 Ko

    Cependant, un certain nombre d'astronomes sur Twitter ont souligné que c'était incorrect et que la première image d'une exoplanète avait été prise en 2004 - comme indiqué sur le site Web de la NASA (voir en source) : « Ce n'est pas pour faire mon connard (en fait, si finalement) et je suis sûr que Bard sera impressionnant, mais pour mémoire : JWST n'a pas pris 'la toute première image d'une planète en dehors de notre système solaire' », a tweeté l'astrophysicien Grant Tremblay.

    Nom : 2.png
Affichages : 1453
Taille : 69,2 Ko

    L’intelligence artificielle : de la poudre de perlimpinpin ?

    Les développements en cours soulèvent des questions que l’on décide de faire de faire usage du moteur de recherche qu’il soit de Google ou de Microsoft : faut-il vraiment s’appuyer sur un chatbot pour rechercher des informations sur Internet ? L’approche est-elle meilleure que l’ancienne qui consiste à laisser l’humain aller lui-même à la recherche des informations pour en faire la synthèse ?

    En effet, des chatbots comme ChatGPT ont une tendance bien documentée à présenter de fausses informations comme des faits. Les chercheurs mettent en garde contre ce problème depuis des années. C’est d’ailleurs la raison pour laquelle certains enseignants ont adopté des politiques ouvertes d’utilisation de ChatGPT en précisant à leurs étudiants que « l’intelligence artificielle peut se tromper. Les étudiants doivent donc vérifier les résultats qu’elle leur renvoie à l’aide d’autres et qu'ils seront responsables de toute erreur ou omission fournie par l'outil. »

    Et vous ?

    Quel est votre avis sur le sujet ?

    Voir aussi :

    Des chercheurs en IA affirment que le modèle de langage GPT-4 d'OpenAI pourrait passer l'examen du barreau, et relance le débat sur le remplacement des avocats et des juges par des systèmes d'IA

    Microsoft investit 1 Md$ dans OpenAI, la société fondée par Elon Musk, qui tente de développer une IA semblable à l'intelligence humaine

    Google a formé un modèle de langage qui serait capable de répondre aux questions d'ordre médicales avec une précision de 92,6 %, les médecins eux-mêmes ont obtenu un score de 92,9 %

    Microsoft crée un autocompléteur de code à l'aide de GPT-3, le système de génération de texte d'OpenAI, pour combler le manque de développeurs dans le monde
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  11. #51
    Membre très actif
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Août 2022
    Messages
    756
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 44
    Localisation : France, Hauts de Seine (Île de France)

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Août 2022
    Messages : 756
    Par défaut
    Pour une fois je suis d'accord avec lui.

    L'IA est indispensable, mais l'IA qui ne fait pas n'importe quoi.

  12. #52
    Membre éprouvé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 422
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 422
    Par défaut
    Comment ne pas être d'accord avec lui?
    Mais ne joue-t-il pas contre son camp?
    Lui qui mets des voitures tueuses sur les routes ou qui sacrifie des milliers d'animaux par négligence pour redonner la vue à des gens.

    Musk n'est pas en train de faire le premier acte d'IAwashing?

  13. #53
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 410
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 410
    Par défaut Elon Musk se dit un fervent défenseur de la réglementation de l'IA, mais ses solutions n'impressionnent pas
    Elon Musk se dit un fervent défenseur de la réglementation de l'IA, mais ses solutions vagues n'impressionnent pas

    Elon Musk est un partisan de longue date de la réglementation de l'IA depuis le jour où nous avons vu le ChatGPT d'OpenAI faire son chemin vers les masses. Aujourd'hui, nous entendons dire que le milliardaire de la technologie stresse indéfiniment sur les risques importants que comporte l'IA générative et que c'est la raison pour laquelle une plus grande modération est nécessaire avant qu'il ne soit trop tard.

    Une catastrophe majeure s'en est suivie, mais le propriétaire de Tesla et de SpaceX n'a pas réussi à impressionner avec ses mots. Non seulement il était vague en termes de descriptions, mais il était également difficile de comprendre ce qu'il essayait de dire exactement et pourquoi. A-t-il déjà été mentionné à quel point il était léger en termes de détails ?

    Tout cela s'est passé lors de son projet Twitter Spaces, récemment mis en ligne et intitulé Viva Technology. C'est là que la deuxième personne la plus riche du monde a fait de son mieux pour éviter les questions concernant les réglementations particulières pour la technologie de l'IA.


    Au lieu de cela, le chef de Twitter a semblé donner la priorité à l'importance de l'IA dans le monde de l'entreprise ainsi qu'à la célèbre technologie Tesla qui permet de conduire soi-même son véhicule.

    Un tel système de pilotage automatique dépend entièrement du monde de l'IA et Elon Musk affirme que son évaluation d'un tel engouement est littéralement nulle et que, par conséquent, lorsque de tels plans ne finissent pas par aboutir, cela pourrait entraîner les résultats les plus désastreux qui soient.

    Pour l'instant, il considère que l'IA est une solution extrêmement positive, mais il doit y avoir un minimum de risques que les choses tournent mal grâce à l'aide de l'intelligence du monde numérique.

    Musk estime qu'il est dans l'intérêt du public de modérer davantage l'IA, car ce type de technologie représente une menace pour tous.

    Mais en ce qui concerne ses propres idées sur la solution possible pour une telle entreprise, il n'a parlé que d'une plus grande réglementation pour les grands modèles de langage, y compris le ChatGPT.

    Nous avons vu comment l'Union européenne est devenue le premier organisme gouvernemental à aller de l'avant avec des réglementations complexes pour l'IA après avoir approuvé la loi sur l'IA. Ce dernier est le nom d'un processus de réglementation qui permet d'examiner ces systèmes et d'écarter ceux qui mettent le public en danger.

    Mais cela ne semble être que la première étape d'un long processus et, le Congrès étant actuellement divisé, nous ne sommes pas près d'assister à une action significative.

    Musk parle de l'IA sous un angle négatif et explique qu'elle est, à son avis, extrêmement perturbatrice. Il dit qu'il aimerait être en vie pour voir l'apocalypse de l'IA se produire, mais qu'il ne serait certainement pas celui qui en serait à l'origine.

    Au début de l'année, Elon Musk a mis un terme aux avancées dans le domaine de l'IA. Certains grands noms de la technologie ont signé une lettre appelant à une pause temporaire dans les développements de l'IA tels que ChatGPT.

    Ils souhaitaient prendre plus de temps pour se familiariser avec la technologie et évaluer les risques. Mais à peine 30 jours plus tard, il a annoncé publiquement la création d'un nouveau chatbot d'IA qui concurrencerait fortement ChatGPT. Il a même dévoilé le nom de TruthGPT.

    Musk ajoute qu'il n'était pas certain que quelqu'un d'autre que lui, bien sûr, accepterait les pauses. Mais pour le bien des archives, il estime qu'une pause est nécessaire. Entre-temps, en mai 2023, nous avons même vu le PDG d'OpenAI se retrouver devant le Congrès pour demander plus de régulation de l'IA avant qu'il ne soit trop tard.

    Source : Intervention d'Elon Musk lors de l'évènement Viva Technology (https://twitter.com/VivaTech/status/1669721739993948162)

    Et vous ?

    Quel est votre avis sur le sujet ?

    Que pensez-vous de l'intervention de M. Musk lors de l'évènement Viva Technology ?

    Trouvez-vous ces informations utiles et pertinentes ?

    Êtes-vous d'accord avec Elon Musk pour dire que l'IA présente des risques importants et pourrait avoir des conséquences désastreuses en l'absence d'une réglementation appropriée ?

    Voir aussi

    « Le développement de l'IA sans réglementation induit une menace existentielle pour l'humanité », d'après Elon Musk dont une société développe des puces à insérer dans le cerveau pour contrer l'IA

    Elon Musk annonce qu'il travaille sur un concurrent à ChatGPT appelé TruthGPT et ajoute que son "IA recherche la vérité au maximum" et essaie de comprendre la nature de l'univers

    Elon Musk et un groupe d'experts en IA demandent à tous les laboratoires d'IA d'interrompre la formation de systèmes d'IA plus puissants que le GPT-4, citant des risques pour la société

    « L'intelligence artificielle va surpasser l'humain dans 5 ans », d'après Elon Musk qui indique comment sa société Neuralink qui conçoit des ordinateurs à implanter dans le cerveau va nous sauver

    Pour Elon Musk l'IA est bien plus dangereuse que l'arme nucléaire, alors que Bill Gates estime que l'IA est à la fois porteuse d'espoir et dangereuse
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  14. #54
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 099
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 099
    Par défaut Sam Altman espère que quelqu'un trouvera le moyen d'empêcher l'IA de détruire l'humanité
    Sam Altman, la plus grande star de l'IA, espère que quelqu'un trouvera le moyen d'empêcher l'IA de détruire l'humanité
    il est accusé de se défausser de ses responsabilités concernant les risques liés à l'IA

    Le PDG d'OpenAI, Sam Altman, est revenu sur la question relative à la menace existentielle que l'IA représente pour l'humanité lors d'une récente interview. Il a déclaré qu'il espère que les chercheurs trouveront un moyen d'empêcher l'IA de détruire l'humanité. Il a ajouté que l'IA pourrait être suffisamment intelligente pour résoudre les conséquences des avancées rapides dans le paysage, y compris la destruction de l'humanité. En outre, après avoir revu à la baisse les attentes à l'égard de l'AGI, Sam Altman estime que l'AGI pourrait voir le jour plus tôt que prévu, ajoutant que « les craintes exprimées en matière de sécurité ne se manifesteront pas à ce moment-là ».

    Sam Altman se défausse de ses responsabilités relatives aux risques liés à l'IA

    Sam Altman, 39 ans, investisseur en capital-risque et PDG d'OpenAI, s'est entretenu avec le journaliste Andrew Ross Sorkin lors du sommet Dealbook du New York Times la semaine dernière. À un moment donné, Sam Altman a été confronté à la question suivante : « pensez-vous que le gouvernement, ou quelqu'un d'autre, va trouver le moyen d'éviter la menace existentielle posée par les systèmes d'IA superintelligents ? ». C'est alors que le PDG se défausse.


    « Je suis convaincu que les chercheurs trouveront le moyen d'éviter cela. Je pense qu'il existe un ensemble de problèmes techniques sur lesquels les personnes les plus intelligentes du monde vont travailler. Et, vous savez, je suis un peu trop optimiste par nature, mais je suppose qu'ils vont trouver une solution », a répondu Sam Altman. Il poursuit en suggérant que l'IA elle-même sera peut-être si intelligente qu'elle trouvera simplement comment se maîtriser.

    « Nous avons cette magie », a dit Sam Altman, avant de se corriger. « Pas de la magie. Nous disposons de cet incroyable outil scientifique appelé « apprentissage profond » qui peut nous aider à résoudre ces problèmes très difficiles ». Sam Altman semble se comporter avec la froideur de savoir que même si « la technologie qu'il a consacré sa vie à faire progresser détruit l'économie mondiale, il sera en sécurité dans son bunker situé sur la côte californienne ».

    Pour rappel, Sam Altman se prépare à une apocalypse provoquée par l'IA. Par le passé, Sam Altman a mis en garde contre un « virus synthétique mortel », une IA attaquant les humains ou une guerre nucléaire : « j'essaie de ne pas trop y penser. Mais j'ai des fusils, de l'or, de l'iodure de potassium, des antibiotiques, des batteries, des masques à gaz des forces de défense israéliennes, de l'eau et une grande parcelle de terre à Big Sur vers laquelle je peux m'envoler ».

    Mais pour le reste d'entre nous, il serait bon d'entendre Sam Altman, ou n'importe lequel de ses collègues partisans de l'IA, expliquer ce qu'ils entendent exactement lorsqu'ils disent des choses comme « nous trouverons la solution ». Ses réponses laissent les utilisateurs sceptiques quant à l'avenir.

    Même les chercheurs en IA admettent qu'ils ne comprennent toujours pas précisément comment la technologie fonctionne. Selon un rapport du département d'État américain, les systèmes d'IA sont essentiellement des boîtes noires qui représentent « une menace d'extinction pour l'espèce humaine ».

    L'alignement de l'IA sur les valeurs de l'humanité pourrait s'avérer insuffisant

    Outre les problèmes de sécurité et de protection de la vie privée liés aux progrès rapides de l'IA générative, la possibilité de nouvelles avancées dans ce domaine reste un risque majeur. OpenAI, Microsoft, Google, Anthropic, etc. investissent massivement dans l'IA, mais l'absence de politiques régissant son développement est très préoccupante, car il pourrait être difficile d'établir un contrôle si/quand l'IA s'écarte des garde-fous et échappe à tout contrôle.


    Plus inquiétant encore, un autre rapport fait état d'une probabilité de 99,99 % que l'IA mette fin à l'humanité, selon p(doom). Pour situer le contexte, p(doom) fait référence à une IA qui prendrait le contrôle de l'humanité ou pire encore, qui y mettrait fin. Le chercheur en sécurité de l'IA à l'origine de l'étude, Roman Yampolskiy, a également indiqué qu'il serait pratiquement impossible de contrôler l'IA une fois que nous aurons atteint le seuil de superintelligence.

    Même si les chercheurs parvenaient à démêler l'écheveau technique et à résoudre ce qu'ils appellent le « problème de l'alignement », Sam Altman admet qu'il resterait encore des problèmes à résoudre par quelqu'un ou par un gouvernement. L'alignement de l'IA consiste à s'assurer que les modèles d'IA respectent les valeurs de l'humanité et ne s'en écartent pas. Cela éviterait que les modèles d'IA se transforment en « monstres ou robots destructeurs ».

    Lors de son intervention au sommet Dealbook, Sam Altman a renvoyé une fois de plus la responsabilité de la réglementation de l'IA à « une organisation internationale créée de toutes pièces et composée d'adultes rationnels qui ne veulent pas s'entretuer ».

    Sam Altman a déclaré : « même si nous parvenons à rendre ce (modèle superintelligent) techniquement sûr, ce que je suppose que nous trouverons, nous devrons faire confiance à nos gouvernements... Il faudra une coordination mondiale... Je suppose que nous serons à la hauteur, mais cela semble être un défi ».

    Selon les critiques, Sam Altman fait beaucoup de suppositions, ce qui signifie qu'il n'est sûr de rien. En outre, cela reflète une compréhension myope de la manière dont l'élaboration des politiques et la coordination mondiale fonctionnent réellement, c'est-à-dire lentement, de manière inefficace et souvent pas du tout.

    Sam Altman et OpenAI ont revu à la baisse leurs attentes en matière d'AGI

    Lors de son intervention au sommet Dealbook, Sam Altman a fait d'autres déclarations surprenantes, comme lorsqu'il a suggéré qu'il n'était pas motivé par les milliards de dollars de capital qu'il pourrait obtenir d'OpenAI ; il a déclaré qu'il aime simplement son travail. Plus tard, Sam Altman a également tenté d'étouffer les spéculations sur sa rupture dramatique avec Elon Musk, un des cofondateurs d'OpenAI, qui a depuis fondé sa propre entreprise d'IA, xAI.

    Elon Musk est entré dans le cercle rapproché du président américain élu Donald Trump. Il dénonce le partenariat entre Microsoft et OpenAI et appelle la justice à y mettre un terme. Lorsqu'on a demandé à Sam Altman s'il craint qu'Elon Musk abuse de sa nouvelle influence et écarte les rivaux de xAI et de ses autres entreprises, il a répondu qu'il ne perdait pas le sommeil pour autant. « Je crois fermement qu'Elon fera ce qu'il faut », a déclaré Sam Altman.

    « Il serait profondément antiaméricain d'utiliser le pouvoir politique, dans la mesure où Elon l'a, pour nuire à ses concurrents et avantager ses propres entreprises », a-t-il ajouté. Elon Musk fait également partie de ses dirigeants milliardaires qui investissent massivement dans le développement de l'IA, mais dans le même temps, craignent la menace existentielle que représente la technologie pour l'humanité et appellent à une réglementation stricte.

    Par ailleurs, OpenAI semble en passe de supprimer le critère de l'AGI de sa liste de choses à faire. Sam Altman a indiqué que « la technologie tant convoitée pourrait arriver plus tôt que prévu ». Contrairement à la croyance populaire, il affirme que le point de référence passera rapidement avec un impact sociétal « étonnamment faible ». Cependant, pour de nombreux analystes, Sam Altman tente d'abaisser les critères pour attirer plus de financements.

    Parallèlement, Sam Altman a écrit un article suggérant que « la superintelligence pourrait n'être qu'à quelques milliers de jours ». Sam Altman indique que les inquiétudes exprimées en matière de sécurité au moment de l'AGI. Cette déclaration controversée rend davantage floue la vision de Sam Altman en matière d'AGI.

    La bulle de l'IA s'estompe et les investisseurs pourraient retirer leurs billes

    OpenAI a récemment été au bord de la faillite, prévoyant une perte de 5 milliards de dollars pour l'année 2024. L'entreprise a pu lever 6,6 milliards de dollars auprès d'investisseurs tels que Microsoft et Nvidia, ce qui a finalement porté sa capitalisation boursière à 157 milliards de dollars. Toutefois, l'entreprise semble subir des pressions pour abandonner son statut d'organisation à but non lucratif, ce qui lui permettrait d'attirer davantage d'investisseurs.


    Cette restructuration controversée pourrait exposer le fabricant de ChatGPT à des problèmes tels que l'ingérence de tiers et des rachats hostiles de la part d'entreprises telles que Microsoft, qui, selon les analystes, pourrait acquérir OpenAI au cours des trois prochaines années. Elon Musk considère d'ailleurs OpenAI comme une filiale de facto de Microsoft en raison de leur partenariat et accuse la startup d'IA d'avoir rompu ses accords contractuels initiaux.

    Les analystes du marché prévoient que l'intérêt des investisseurs pour la bulle de l'IA s'estompe. Par conséquent, ils pourraient finir par retirer leurs investissements et les canaliser ailleurs. Un rapport corroborant cette théorie indique que 30 % des projets liés à l'IA seront abandonnés d'ici à 2025 après la validation du concept.

    D'autres rapports indiquent que l'IA a atteint un plafond, suggérant que les progrès vont commencer à ralentir. Le PDG de Google, Sundar Pichai, partage cet avis : « le développement de l'IA va commencer à ralentir. Je pense que les progrès vont devenir plus difficiles, les fruits à portée de main ont disparu ».

    Par ailleurs, certains affirment également que les principaux laboratoires d'IA, dont OpenAI, peinent à créer des modèles d'IA avancés en raison d'un manque de données de haute qualité pour l'entraînement. La pénurie de données est l'un des principaux goulots d'étranglement au développement de l'IA.

    Sam Altman a réfuté ces affirmations en déclarant qu'il n'y a pas de « mur » pour atteindre de nouveaux sommets et progresser dans le développement de l'IA. L'ancien PDG de Google, Eric Schmidt, a réitéré les sentiments de Sam Altman, en indiquant que « rien ne prouve que les lois de mise à l'échelle ne fonctionnent plus ».

    Source : interview de Sam Altman au DealBook Summit 2024

    Et vous ?

    Que pensez-vous des déclarations de Sam Altman sur la menace existentielle que l'IA représente pour l'humanité ?
    Selon vous, Sam Altman se défausse-t-il de ses responsabilités concernant les risques liés à l'IA ? Pourquoi ?
    Sam Altman affirme qu'il irait se terrer dans son bunker lorsque quelque chose tournera mal avec la technologie qu'il crée. Qu'en pensez-vous ?

    Voir aussi

    Découvrez Sam Altman, PDG d'OpenAI, qui a appris à programmer à l'âge de 8 ans et qui se prépare également à l'apocalypse avec une réserve d'or, des armes et des masques à gaz

    Sundar Pichai, PDG de Google, prédit l'avenir de l'IA : le développement de l'IA va commencer à ralentir, « Je pense que les progrès vont devenir plus difficiles, les fruits à portée de main ont disparu »

    Sam Altman revoit à la baisse les attentes en matière d'intelligence artificielle générale (IAG). Une stratégie d'OpenAI face aux limites actuelles de l'IA ou une remise en question des ambitions futures ?

  15. #55
    Membre averti
    Homme Profil pro
    Collégien
    Inscrit en
    Novembre 2020
    Messages
    36
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 59
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Collégien

    Informations forums :
    Inscription : Novembre 2020
    Messages : 36
    Par défaut
    Altman devrait commencer par arrêter de mettre a disposition un produit buggé.
    Une IA n'hallucine pas et ne ment pas.
    Un produit comme ça est un très grand danger.

  16. #56
    Membre confirmé
    Homme Profil pro
    autre
    Inscrit en
    Juin 2014
    Messages
    223
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Aveyron (Midi Pyrénées)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Juin 2014
    Messages : 223
    Par défaut
    Il poursuit en suggérant que l'IA elle-même sera peut-être si intelligente qu'elle trouvera simplement comment se maîtriser.
    C'est à se demander s'il a déjà testé un des produits qu'il vend !

Discussions similaires

  1. Réponses: 14
    Dernier message: 07/07/2014, 18h03
  2. Que serons nous dans 100 ans?
    Par newbie57 dans le forum La taverne du Club : Humour et divers
    Réponses: 28
    Dernier message: 19/03/2008, 16h41
  3. internet saturé dans 2 ans ?
    Par mikees dans le forum Politique
    Réponses: 22
    Dernier message: 29/11/2007, 16h23
  4. Oracle 10G dans 10 ans ?
    Par habasque dans le forum Oracle
    Réponses: 13
    Dernier message: 12/10/2006, 10h59
  5. Quel SGBD/SGBDR sera encore là dans 5 ans?
    Par tazquebec dans le forum Décisions SGBD
    Réponses: 10
    Dernier message: 13/07/2005, 18h11

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo