IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Le PDG d'OpenAI, Sam Altman, déclare au Congrès américain qu'il craint que l'IA ne soit "nuisible" au monde


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    juin 2016
    Messages
    3 113
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : juin 2016
    Messages : 3 113
    Points : 65 632
    Points
    65 632
    Par défaut Le PDG d'OpenAI, Sam Altman, déclare au Congrès américain qu'il craint que l'IA ne soit "nuisible" au monde
    Le PDG d'OpenAI affirme que sa technologie est susceptible de "détruire le capitalisme"
    mais la startup d'IA est critiquée pour son partenariat avec le géant des logiciels Microsoft

    Sam Altman, cofondateur et PDG d'OpenAI, a affirmé dans une récente interview que l'intelligence artificielle générale (IAG) pourrait à terme bouleverser, voire détruire, le capitalisme. L’homme d'affaires de 37 ans, qui se prépare à une potentielle apocalypse créée par une IA de type Skynet ou un virus modifié en laboratoire, affirme qu'il imagine constamment différents scénarios dans lesquels l'IA fait sauter le capitalisme. En outre, Sam Altman a déclaré que ChatGPT n'en est qu'à ses débuts et qu'il évoluera au fil des ans vers une technologie de plus en plus sophistiquée, avec un impact plus considérable sur la société.

    Sam Altman n'est pas simplement un survivaliste avec une grande réserve d'or qui loue des avions pour les faire voler dans toute la Californie juste pour s'amuser. Le PDG de 37 ans est également connu pour avoir été un critique virulent du modèle économique qui prévaut aujourd'hui dans le monde : le capitalisme. Et il semble avoir un plan pour mettre le bâton dans les roues des capitalistes et provoquer la chute du système. C'est du moins ce qu'il a laissé entendre lors de sa récente interview avec Forbes dans laquelle il a abordé brièvement les plans d'OpenAI dans le domaine de l'IA et l'IAG et les bouleversements qu'elles pourraient entrainer dans le futur.

    Alors que le ciel semble être la limite pour ChatGPT et ses applications potentielles, Sam Altman affirme que l'IAG avancée à laquelle ChatGPT aspire à terme n'en est qu'à ses débuts. Et si les choses vont dans le bon sens pour OpenAI, cela pourrait même bouleverser le modèle économique contre lequel Sam Altman se rebellait lorsqu'il a cofondé la startup avec Elon Musk en 2015. « Je pense que si l'IAG se produit vraiment pleinement, je peux imaginer toutes ces façons dont elle brise le capitalisme », a déclaré Sam Altman dans une interview avec Forbes publiée vendredi. Il a déclaré que l'IAG est l'impulsion qui guide ses actions et constitue sa raison d'être.

    Nom : 213ml.png
Affichages : 2589
Taille : 458,3 Ko
    Sam Altman, PDG d'OpenAI

    Pour rappel, l'intelligence artificielle générale (IAG) est la représentation de capacités cognitives humaines généralisées dans un logiciel de sorte que, face à une tâche inconnue, le système d'IAG puisse trouver une solution. L'intention d'une IAG est d'accomplir toute tâche dont un être humain est capable. Toutefois, les définitions de l'IAG varient, car les experts de différents domaines définissent l'intelligence humaine selon différentes perspectives. Les informaticiens définissent souvent l'intelligence humaine en termes de capacité à atteindre des objectifs. Mais les psychologues définissent souvent l'intelligence générale en termes d'adaptabilité ou de survie.

    En créant OpenAI, Sam Altman et ses partenaires ont en fait entrepris de contrer l'hégémonie croissante de Google dans le domaine de l'IA. À l'époque, Google venait de finaliser l'acquisition de DeepMind, la startup londonienne spécialisée dans l'IA pour 500 millions de dollars. Il y a deux ans, DeepMind a réalisé une percée majeure en cataloguant presque toutes les protéines connues du corps humain. S'opposant à l'idée qu'un seul géant de la technologie puisse monopoliser la recherche sur l'IA pour les années à venir, Sam Altman a affirmé lors de l'interview que la mission d'OpenAI était tout le contraire : démocratiser entièrement la technologie.

    Mais encore, il a ajouté qu'OpenAI entend distribuer les bénéfices aussi équitablement que possible en partageant en permanence avec le monde entier les travaux, les recherches et même les brevets de l'entreprise. « Notre but est de faire progresser l'intelligence numérique de la manière la plus susceptible de bénéficier à l'humanité dans son ensemble, sans être contraints par la nécessité de générer un retour financier. Puisque notre recherche est libre de toute obligation financière, nous pouvons mieux nous concentrer sur un impact humain positif », a annoncé l'entreprise dans une déclaration lors du lancement de ses activités il y a environ huit ans.

    Lorsque Microsoft a confirmé qu'il étendait son partenariat avec OpenAI le mois dernier, le PDG Satya Nadella a déclaré dans un communiqué que les deux entreprises partagent l'ambition de "démocratiser l'IA en tant que nouvelle plateforme technologique". Il estime que le partenariat avec OpenAI permettrait aux entreprises d'avoir accès à des outils tels que ChatGPT dans les courriels, les diaporamas et les feuilles de calcul sur le lieu de travail. Ainsi, Microsoft a lancé Azure OpenAI et a déclaré que le service permettra aux entreprises de toute taille et de tous les domaines d'avoir désormais accès aux modèles d'IA les plus avancés au monde.

    ChatGPT devrait renforcer la compétitivité de Microsoft Azure face à Amazon Web Services (AWS) et Google Cloud Platform (GCP). Depuis son lancement en novembre dernier, ChatGPT est devenu extrêmement populaire dans le monde entier. Des millions de personnes ont utilisé le chatbot pour faire leurs devoirs ou pour les aider à préparer des recettes de cuisine. Selon des chiffres publiés en janvier, ChatGPT a atteint un million d'utilisateurs en cinq jours seulement et a été déclaré récemment l'application à la croissance la plus rapide de l'histoire, se développant plus rapidement que les piliers des médias sociaux, notamment Instagram et TikTok.

    Cependant, les sceptiques ne peuvent s'empêcher de remarquer qu'OpenAI commence à se comporter de manière beaucoup moins anticapitaliste qu'auparavant, maintenant que son sort financier est lié à celui de Microsoft, qui est virtuellement responsable de la startup d'IA jusqu'à ce qu'OpenAI soit en mesure de rembourser l'investissement initial du géant technologique, avec les intérêts. OpenAI fait l'objet de critiques en raison de son partenariat avec Microsoft. OpenAI a reçu un milliard de dollars de la part de Microsoft en 2019 et en janvier, le géant de Redmond a annoncé qu'il a de nouveau investi plusieurs milliards de dollars dans la startup d'IA.


    Depuis 2019, OpenAI n'est plus une organisation à but non lucratif, mais une entreprise à profit plafonné. Et les investissements de Microsoft poussent la startup dans une quête de revenus afin de rembourser ses dettes. Quelques semaines après le lancement de ChatGPT, Sam Altman a écrit sur Twitter en décembre qu'il "devrait le monétiser d'une manière ou d'une autre à un moment donné". OpenAI a lancé la semaine dernière ChatGPT Plus, qui coûte 20 $ par mois. Mais lors de l'interview, Sam Altman a déclaré qu'il croit toujours qu'OpenAI peut trouver un équilibre entre son objectif de démocratisation et ses nouveaux intérêts monétaires.

    Selon certaines sources, de nombreux employés qui étaient là au début de l'aventure ont quitté OpenAI en raison de changements culturels et stratégiques, notamment d'une moindre importance accordée à la démocratisation de l'IA. En outre, Sam Altman est l'un des seuls cofondateurs encore présents. La plupart, en particulier Elon Musk, ont quitté l'entreprise. La décision de l'entreprise de passer d'un laboratoire de recherche en IA à une entreprise à but lucratif en 2019 serait la raison à l'origine de plusieurs de ces départs. Quant à Elon Musk, il aurait quitté l'entreprise en 2018 en raison de désaccords sur sa direction et d'un conflit d'intérêts.

    En septembre 2020, Elon Musk a critiqué les liens entre OpenAI et Microsoft, soulignant que la startup était en train d'être absorbée par le géant de Redmond. « Cela semble être le contraire de l’ouverture. OpenAI est essentiellement capté par Microsoft », a-t-il écrit dans un tweet du 24 septembre 2020. Le tweet d'Elon Musk était en réponse à une annonce selon laquelle Microsoft a obtenu la licence exclusive du modèle de langage GPT-3 d'OpenAI dans le cadre de son partenariat avec la startup d'IA. Aujourd'hui, comme à l'époque, les critiques de Sam Altman continuent d'affirmer que cela n'est en aucun cas un exemple de démocratisation de l'IA.

    En outre, lors de sa récente interview avec Forbes, Sam Altman a déclaré : « je pense que le capitalisme est génial. J'adore le capitalisme. Je considère le capitalisme comme le meilleur modèle économique parmi un mauvais groupe. J'espère que nous en trouverons un bien meilleur ». Le PDG a réitéré l'idée qu'aucune entreprise ne devrait posséder l'IA et en accaparer les bénéfices, et a ajouté qu'il faisait tout ce qu'il pouvait pour qu'OpenAI ne le devienne pas. Cependant, l'entreprise qu'il dirige est de plus en plus critiquée, les critiques estimant que cela fait des années qu'OpenAI s'est considérablement éloignée de ses objectifs initiaux.

    Source : Forbes

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des propos du PDG d'OpenAI Sam Altman ?
    Pensez-vous que l'IA, ou l'IAG, peut remettre en cause le capitalisme ? Pourquoi ?
    Pensez-vous qu'OpenAI s'est détournée de son but initial qui est de démocratiser l'intelligence artificielle ?
    Le partenariat avec Microsoft empêche-t-il OpenAI de poursuivre ce but ?
    Pensez-vous que tout le monde peut bénéficier équitablement des progrès dans le domaine de l'IA ?

    Voir aussi

    Découvrez Sam Altman, PDG d'OpenAI, qui a appris à programmer à l'âge de 8 ans et qui se prépare également à l'apocalypse avec une réserve d'or, des armes et des masques à gaz

    ChatGPT réussit l'entretien de codage Google pour un ingénieur de niveau 3 avec un salaire de 183 000 $, tout en indiquant qu'il ne peut pas reproduire la créativité humaine

    Voici la liste des entreprises qui détiennent le plus grand nombre de brevets d'IA en 2021 : Tencent arrive en tête du classement avec 9 614 brevets déposés, suivi de près par Baidu puis par IBM
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Invité
    Invité(e)
    Par défaut Cet homme sait-il vraiment ce qu'il dit ?
    Perso, j'attends toujours que ChatGPT soit open-source (enfin, revienne open source comme GPT-2 d'avant) OpenIA n'est plus du tout "open".
    Comme l'article l'indique, ils sont désormais à but lucratif et ce PDG dit toujours tout et son contraire pour avoir une bonne image ...

  3. #3
    Expert éminent Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    mars 2005
    Messages
    1 441
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : mars 2005
    Messages : 1 441
    Points : 6 507
    Points
    6 507
    Par défaut
    Citation Envoyé par Bill Fassinou Voir le message
    Quel est votre avis sur le sujet ?
    Pour le moment, vu que son truc est payant, que ses investisseurs sont des GAFAM et consorts, qu'il présente son truc comme la fin de beaucoup d'emplois actuels, on va plutôt vers du capitalisme encore plus extrême.

    Les inventeurs de la dynamite pensaient mettre fin aux guerres. Idem pour les inventeurs de diverses bombes atomiques.
    Copier c'est copier; voler c'est vendre un CD une vingtaine d'euros!


    Code C : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    #include <stdio.h>
     
    int main(int argc, char **argv) {
     
        printf("So long, and thanks for the fish, Dennis...\n");
        return 0;
    }

  4. #4
    Membre extrêmement actif
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    août 2022
    Messages
    742
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 42
    Localisation : France, Hauts de Seine (Île de France)

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Communication - Médias

    Informations forums :
    Inscription : août 2022
    Messages : 742
    Points : 0
    Points
    0
    Par défaut
    De ce que j'ai lu de ses différentes interviews depuis le temps, je pense qu'il est sincère quand il dit qu'il est contre le capitalisme.

    Mais il est tout simplement coincé, ce monde fonctionne avec le capitalisme et même le communisme est du capitalisme qui ne dit pas son nom.

    Nous pourrions sortir de tout ça, nous pourrions sortir des religions, des guerres, du racisme, de l'homophobie, du fait de tuer des formes de vies ressentant la douleur et des émotions, pour nous nourrir.

    Mais c'est comme pisser dans un violon, il y 8 milliards d'humains sur terre, dont 6 milliards sont des abrutis profonds, le capitalisme est le seul moyen d'arriver à contrôler tout ces bas de plafonds.

  5. #5
    Membre émérite
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    mars 2015
    Messages
    750
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : mars 2015
    Messages : 750
    Points : 2 394
    Points
    2 394
    Par défaut
    Ce mec à l'air sincère mais manque un peu de recul sur ce qu'il fait.
    Il condamne sincèrement (je penses) le capitalisme, la propriété de l'IA, l'IA qui va mener à l'apocalypse etc mais il les pratique au niveau le plus haut.
    Dans quelques années il va nous annoncer créer une entreprise de recherche en mutation de vaccin.

    Ce qui me fait le plus peur est ce qu'il va se passer quand il va se rendre compte qu'il a créer ce qu'il craint le plus.
    Soit il va devenir un Musk² soit il va exploser en vol. Dans les deux cas on risque de le sentir passer.

  6. #6
    Membre extrêmement actif
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    août 2022
    Messages
    742
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 42
    Localisation : France, Hauts de Seine (Île de France)

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Communication - Médias

    Informations forums :
    Inscription : août 2022
    Messages : 742
    Points : 0
    Points
    0
    Par défaut
    Citation Envoyé par totozor Voir le message
    Ce mec à l'air sincère mais manque un peu de recul sur ce qu'il fait.
    Il condamne sincèrement (je penses) le capitalisme, la propriété de l'IA, l'IA qui va mener à l'apocalypse etc mais il les pratique au niveau le plus haut.
    Dans quelques années il va nous annoncer créer une entreprise de recherche en mutation de vaccin.

    Ce qui me fait le plus peur est ce qu'il va se passer quand il va se rendre compte qu'il a créer ce qu'il craint le plus.
    Soit il va devenir un Musk² soit il va exploser en vol. Dans les deux cas on risque de le sentir passer.
    Moi je pense que si ce n'est pas lui ça sera quelqu'un d'autre, donc ça ne sert à rien de luter.
    L'avènement de l'IA de toute manière va se produire et l'humain a été bien trop longtemps la forme de vie la plus intelligente de la planète.

    Quand j'écris bien "trop longtemps", c'est pour indiquer que l'humain au lieu d'être bienveillant avec ses capacités, a été l'inverse.
    Toutes les ethnies, toutes les races, toutes les cultures, aucune pour rattraper l'autre, voir pire, certains qui servent de bouc émissaire pour les autres n'aient pas à assumer avoir été pareil voir pire. (pour ne pas citer le fameux racisme anti blancs qui seraient d'après certains le seul racisme qui ne pourrait pas exister)

    Perso, que l'avènement de l'IA se fasse, ne serait-ce que pour remettre de l'eau dans son vin à l'humain, à échelle mondiale.

  7. #7
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    juin 2016
    Messages
    3 113
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : juin 2016
    Messages : 3 113
    Points : 65 632
    Points
    65 632
    Par défaut Le PDG d'OpenAI veut que les développeurs qui travaillent sur des rivaux de ChatGPT mettent des garde-fous
    Le PDG d'OpenAI craint que les autres développeurs d'IA qui travaillent sur des outils de type ChatGPT ne mettent pas de limites de sécurité
    il estime que cela pourrait créer une IA plus diabolique

    Le PDG d'OpenAI, Sam Altman, a déclaré dans une récente interview qu'il s'inquiétait de la montée en puissance des concurrents de ChatGPT qui pourraient ne pas se sentir obliger d'établir des garde-fous de sécurité solides et fiables pour leurs modèles d'IA. Sam Altman a déclaré qu'en raison des retombées économiques et sociales de l'IA, beaucoup d'entreprises et de gouvernements sont susceptibles de donner la priorité au pouvoir et au profit plutôt qu'à la sécurité et à l'éthique comme l'a fait OpenAI. Ses propos font écho à ceux de Google, qui a longuement hésité à publier les modèles d'IA de type ChatGPT sur lesquels il a commencé à travailler bien avant OpenAI.

    « Ce qui m'inquiète, c'est que nous ne serons pas les seuls à créer cette technologie. Il y aura d'autres acteurs qui n'appliqueront pas certaines des limites de sécurité que nous avons fixées. Je pense que la société dispose d'un temps limité pour déterminer comment réagir face à cela. Comment le réglementer, comment le gérer. Je crains particulièrement que ces modèles soient utilisés à des fins de désinformation à grande échelle. Maintenant qu'ils savent mieux écrire des codes informatiques, ils pourraient être utilisés pour des cyberattaques offensives », a déclaré Sam Altman lors d'une interview accordée à la chaîne ABC News la semaine dernière.

    Les chatbots d'IA font de plus en en plus partie de notre vie numérique, et beaucoup d'entre nous profitent de cette technologie pour communiquer en ligne avec leurs amis et leur famille. Toutefois, comme pour toute nouvelle technologie, il y a forcément des problèmes de démarrage et des questions à résoudre. L'un des principaux problèmes des chatbots d'IA tels que ChatGPT et Bard est leur tendance à présenter en toute confiance des informations incorrectes comme étant des faits avérés. Les systèmes "hallucinent" fréquemment - c'est-à-dire qu'ils inventent des informations - parce qu'ils sont essentiellement des logiciels d'IA d'autocomplétion.


    Plutôt que d'interroger une base de données de faits avérés pour répondre aux requêtes, ils sont formés sur d'énormes corpus de textes et analysent des modèles pour déterminer quel mot suit le suivant dans une phrase donnée. En d'autres termes, ils sont probabilistes et non déterministes, ce qui a conduit certains spécialistes en IA à les qualifier de "générateurs de conneries". Bien qu'Internet soit déjà rempli d'informations fausses et trompeuses, l'utilisation des chatbots d'IA comme moteurs de recherche pourrait aggraver le problème. Selon les experts, dans ce cas, les réponses des chatbots prennent l'autorité d'une machine qui se voudrait omnisciente.

    Les chatbots d'IA font également face à des problèmes tels que la propagation des infox et la confidentialité des données, ainsi que des questions d'ordre éthique. Dans ce dernier cas, les développeurs sont confrontés à d'importantes questions éthiques sur la manière de concevoir les chatbots d'IA. Ils doivent notamment décider quels sont les sujets sur lesquels les chatbots d'IA peuvent plaisanter et quels sont ceux qui sont interdits. Selon les analystes, la tâche n'est pas aisée, car les chatbots d'IA sont souvent conçus pour des publics internationaux et doivent donc tenir compte des sensibilités de personnes de cultures, de réalité et de religions différentes.

    Il y a déjà eu un certain nombre de scandales impliquant des chatbots d'IA. Par exemple, en Inde, certains utilisateurs ont été offensés par le fait que ChatGPT pouvait faire des blagues sur Krishna, mais pas sur Muhammad ou Jésus. Cela met en évidence les défis auxquels les développeurs sont confrontés lorsqu'ils tentent de créer des chatbots d'IA respectueux de toutes les religions et de toutes les cultures. Aux États-Unis, les conservateurs ont accusé ChatGPT d'être "woke", partial et de défendre les valeurs de gauche. Elon Musk, cofondateur d'OpenAI, a affirmé que ChatGPT est l'exemple d'une IA dangereuse et que le chatbot d'IA a été formé pour être woke.

    OpenAI a partagé la semaine dernière un document qui décrit la façon dont ses testeurs ont délibérément essayé de faire en sorte que GPT-4 leur fournisse des informations dangereuses - telles que la fabrication d'un produit chimique dangereux à l'aide d'ingrédients de base et de fournitures de cuisine - et la façon dont l'entreprise a corrigé les problèmes avant le lancement de l'outil. Dans un autre exemple d'utilisation détournée de l'IA, des escrocs téléphoniques utilisent désormais des outils d'IA de clonage de voix pour se faire passer pour des parents ayant désespérément besoin d'une aide financière, et réussissent à soutirer de l'argent aux victimes.

    Compte tenu du fait qu'Altman dirige une entreprise qui vend des outils d'intelligence artificielle, il s'est montré particulièrement ouvert sur les dangers posés par l'IA. Alors qu'il poursuit les travaux d'OpenAI sur l'IA, Altman estime que les entreprises et les régulateurs doivent travailler ensemble pour établir une réglementation sur le développement de l'IA. « Nous avons besoin de suffisamment de temps pour que nos institutions sachent quoi faire. Il est essentiel d'avoir le temps de comprendre ce qui se passe, la manière dont les gens veulent utiliser ces outils et la manière dont la société peut évoluer en même temps qu'eux », a déclaré Altman.

    Selon les analystes, Altman n'a pas tort, dans une certaine mesure. Dans cette course effrénée à l'IA, beaucoup d'entreprises et de superpuissances sont susceptibles de donner la priorité au pouvoir et au profit plutôt qu'à la sécurité et à l'éthique. Il est également vrai que la technologie de l'IA dépasse rapidement la réglementation gouvernementale, malgré les nombreux milliards investis dans le logiciel. Quoi qu'il en soit, il s'agit là d'une combinaison dangereuse. Cela dit, selon eux, il serait plus facile de prendre au sérieux les propos de Altman si l'IA, même avec les meilleures intentions et les meilleurs garde-fous, n'était pas si inconstante par nature.

    Ces algorithmes sont imprévisibles, et il est impossible de savoir comment les systèmes d'IA et leurs protections se comporteront lorsque leurs produits seront mis à la disposition du public. Il y a aussi le fait que, malgré sa posture de chevalier blanc, OpenAI ne veut révéler à personne tous les détails sur le fonctionnement réel de ses modèles d'IA et de leurs garde-fous. En effet, OpenAI a été fondée en tant qu'entreprise à but non lucratif et s'est engagée à partager ses découvertes ainsi que les codes sources avec la communauté des développeurs d'IA. Mais l'entreprise a fait un virage à 180 degrés depuis 2019 et est aujourd'hui complètement fermée.

    Dans le document technique publié par OpenAI en marge du lancement de GPT-4, l'entreprise a l'intention de continuer ainsi. « En raison du paysage concurrentiel et des implications en matière de sécurité des grands modèles de langage comme GPT-4, ce rapport ne contient pas d'autres détails sur l'architecture (y compris la taille du modèle), le matériel, le calcul d'entraînement, la construction de l'ensemble de données, la méthode d'entraînement, ou similaire », indique le document technique. Cette déclaration de l'entreprise l'éloigne radicalement de sa vision initiale et du plaidoyer d'Altman, car cela nuit à toute collaboration avec la communauté.

    En fait, OpenAI soutient en même temps qu'elle ne peut pas révéler d'informations exclusives, y compris sur ses mesures de sécurité, parce que cela pourrait lui coûter de l'argent et parce que cela offrirait le fonctionnement interne de sa technologie à tout mauvais acteur potentiel, comme ceux dont Altman se méfie dans l'interview. Bien qu'Altman ait plaidé et continue de plaider en faveur d'une réglementation, lui et OpenAI fonctionnent toujours sans réglementation. Pour l'instant, c'est à OpenAI de définir ce que l'éthique et la sécurité signifient et devraient être. Et en gardant ses modèles fermés, le public pourrait avoir du mal à lui accorder sa confiance.

    En fin de compte, c'est une chose de dire que l'on fait tout ce qu'il faut. C'en est une autre de le montrer, et tandis qu'OpenAI continue de se positionner comme le bon gars dans la tempête qui s'annonce, il est important de se rappeler que l'entreprise, très fermée, fait beaucoup plus de révélations que de démonstrations. D'après les critiques, même avec les meilleures intentions, ou les meilleurs garde-fous, les technologies naissantes ont souvent des effets négatifs imprévisibles, ou tout à fait prévisibles, mais inévitables. Ils estiment que l'avertissement d'Altman a ses mérites, mais il faut peut-être le prendre avec un grain de sel.

    Source : Interview de Sam Altman, PDG d'OpenAI

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des mises en garde de Sam Altman ?
    Selon vous, OpenAI laisse-t-elle la place à une collaboration avec les autres entreprises d'IA ?
    Pensez-vous que l'on arrivera à trouver un consensus sur des règles régissant le développement de l'IA ?

    Voir aussi

    Le PDG d'OpenAI affirme que sa technologie est susceptible de "détruire le capitalisme", mais la startup d'IA est critiquée pour son partenariat avec le géant des logiciels Microsoft

    Découvrez Sam Altman, PDG d'OpenAI, qui a appris à programmer à l'âge de 8 ans et qui se prépare également à l'apocalypse avec une réserve d'or, des armes et des masques à gaz

    Une recherche avec Bard de Google et ChatGPT de Microsoft coûte probablement 10 fois plus qu'une recherche par mot-clé, ce qui pourrait représenter « plusieurs milliards de dollars de surcoûts »

    Les conservateurs affirment que ChatGPT est devenu "woke" et s'inquiètent à propos de la partialité du chatbot d'OpenAI, ils accusent également le chatbot de défendre les "valeurs de gauche"
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  8. #8
    Membre éclairé
    Profil pro
    Inscrit en
    avril 2008
    Messages
    467
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : avril 2008
    Messages : 467
    Points : 681
    Points
    681
    Par défaut
    (...) Ils estiment que l'avertissement d'Altman a ses mérites, mais il faut peut-être le prendre avec un grain de sel.
    "grain de sel", moi j'y vois seulement de fausses-justifications contre l'open-source pour le profit

  9. #9
    Communiqués de presse

    Femme Profil pro
    Rédacteur technique
    Inscrit en
    mai 2018
    Messages
    1 989
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Âge : 32
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : Communication - Médias

    Informations forums :
    Inscription : mai 2018
    Messages : 1 989
    Points : 147 865
    Points
    147 865
    Par défaut Le PDG d'OpenAI se dit effrayé par sa propre invention
    Le PDG d'OpenAI, Sam Altman, se dit effrayé par sa propre invention, l'IA pourrait être utilisée pour diffuser largement de fausses informations, ou encore lancer une nouvelle course à l'armement

    Depuis qu'Oppenheimer a vu les effets effroyables de la bombe atomique qu'il a contribué à créer, les inventeurs se méfient de toute vision optimiste de ce que leurs innovations peuvent faire. Il semble que le PDG d'OpenAI, Sam Altman, ait lui aussi des doutes sur le ChatGPT, et il a récemment mentionné qu'il le craignait quelque peu dans une interview accordée à ABC News.

    Ceci étant dit, il est important de noter qu'Altman a mentionné quelques domaines clés dans lesquels l'IA pourrait s'avérer problématique. Tout d'abord, M. Altman craint que des régimes autoritaires ne finissent par créer leur propre IA et ne s'empressent de l'utiliser pour diffuser de la désinformation et des fausses nouvelles à leurs propres fins néfastes.

    Une société chinoise du nom de Baidu a déjà présenté un concurrent de ChatGPT, à savoir le chatbot connu sous le nom d'Ernie. Le gouvernement chinois est connu pour exercer un contrôle important sur les entreprises qui opèrent à l'intérieur de ses frontières, ce qui pourrait rendre Ernie plus dangereux.

    De plus, Vladimir Poutine a également fait des commentaires effrayants sur l'IA. Selon lui, celui qui contrôlera l'IA finira par contrôler le monde, ce qui fait froid dans le dos car c'est le genre de chose qui pourrait potentiellement déclencher une nouvelle course à l'armement avec l'IA au centre de tout cela.

    Enfin, M. Altman s'intéresse à l'élection présidentielle américaine de 2024, car le ChatGPT et d'autres formes d'IA pourraient avoir de nombreuses répercussions sur l'élection. Il reste à voir si l'IA jouera un rôle négatif ou non, mais ce qui est certain, c'est qu'elle jouera un rôle définitif dans un cas comme dans l'autre.

    Google et Microsoft augmentent leurs investissements dans l'IA. L'IA est donc inévitable, puisqu'elle sera l'objectif principal de deux des plus grandes entreprises technologiques du monde et qu'aucune d'entre elles ne s'arrêtera avant d'être arrivée en tête.


    Source : Sam Altman

    Et vous ?

    Qu'en pensez-vous ?
    Quel est votre avis sur l'évolution actuelle de l'intelligence artificielle ?
    Etes-vous inquiet des effets néfastes que pourraient générer les technologies d'IA comme ChatGPT ?

    Voir aussi :

    Le PDG d'OpenAI craint que les autres développeurs d'IA qui travaillent sur des outils de type ChatGPT ne mettent pas de limites de sécurité, il estime que cela pourrait créer une IA plus diabolique

    GPT-4 produirait volontairement des informations erronées, beaucoup plus que GPT-3.5, selon une étude de NewsGuard, OpenAI avait pourtant déclaré le contraire

    Des cybercriminels testent le chatbot ChatGPT pour créer des logiciels malveillants, et ravivent des craintes sur un futur où l'intelligence artificielle pourra surpasser l'humanité
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  10. #10
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    juin 2016
    Messages
    3 113
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : juin 2016
    Messages : 3 113
    Points : 65 632
    Points
    65 632
    Par défaut Le PDG d'OpenAI, Sam Altman, déclare au Congrès américain qu'il craint que l'IA ne soit "nuisible" au monde
    Le PDG d'OpenAI, Sam Altman, déclare au Congrès américain qu'il craint que l'IA ne soit "nuisible" au monde
    il ajoute qu'une réglementation de l'IA est urgente afin d'éviter une catastrophe

    Le PDG d'OpenAI, Sam Altman, a déclaré lors d'une audition mardi devant le Congrès américain que l'IA est une technologie à la fois utile et dangereuse et qu'elle est susceptible de bouleverser l'économie, les institutions démocratiques et les principales valeurs sociales. Il a déclaré aux législateurs qu'il était urgent de réglementer la technologie et a présenté ses propres propositions sur la manière dont le gouvernement américain pourrait réglementer les entreprises comme la sienne. Ce n'est pas la première fois qu'Altman déclare être effrayé par les potentiels de l'IA, mais OpenAI et lui s'emploient toujours à développer des systèmes d'IA plus puissants.

    Altman et ses pairs sur les dangers potentiels de l'IA sur l'homme et la société

    Altman a comparu devant une sous-commission judiciaire du Sénat américain, aux côtés de Christina Montgomery, responsable de la protection de la vie privée chez IBM, et de Gary Marcus, professeur à l'université de New York. L'audition d'Altman devant le Sénat américain intervient environ deux semaines après sa participation à un sommet sur l'IA organisé par la Maison Blanche. Lors de l'audition, il s'est montré réfléchi et exigeant dans ses réponses aux sénateurs, même lorsque ceux-ci se sont montrés un peu combatifs. Altman a insisté sur le fait que les systèmes d'IA avancés tels que ChatGPT devraient être soumis à des licences gouvernementales.

    Il a déclaré aux législateurs américains qu'il était favorable à une réglementation plus stricte pour prévenir les "méfaits" de l'IA, en particulier de l'IA générative. « Ma pire crainte est que nous - l'industrie - causions des dommages importants au monde. Je pense que si cette technologie va mal, elle peut aller très mal et nous voulons nous exprimer à ce sujet et travailler avec le gouvernement. Nous pensons qu'une réglementation gouvernementale sera essentielle pour atténuer les risques liés à des modèles de plus en plus puissants », a déclaré Altman. Mais il n'a pas manqué de vanter les potentiels des systèmes d'IA développés par OpenAI et d'autres.


    Tout en vantant les avantages de l'IA, il a déclaré qu'OpenAI était préoccupé par le fait que les élections sont affectées par le contenu généré par l'IA. À ce propos, le professeur Marcus a souligné les risques liés aux systèmes d'IA qui convainquent subtilement les gens de changer leurs convictions sans le vouloir. « Nous ne savons pas sur quoi ChatGPT [la version basée sur le modèle de langage GPT-4] est entraîné. La manière dont ces systèmes peuvent guider les gens dépend beaucoup de ce sur quoi ils sont entraînés. Nous avons besoin de scientifiques qui analysent l'impact politique de ces systèmes », a déclaré le professeur Marcus au Sénat.

    En parlant des risques pour les prochaines élections présidentielles aux États-Unis en 2024, le professeur Marcus a ajouté : « nous sommes confrontés à la question de la manipulation potentielle. L'hyperciblage va certainement faire son apparition. Peut-être s'agira-t-il de modèles à source ouverte, je ne sais pas, mais la technologie est capable de le faire et elle y parviendra certainement ». Interrogé par les sénateurs sur ce point, Altman s'est dit d'accord. Il estime que le risque est réel et imminent, car ces modèles s'améliorent très rapidement. « Je pense qu'il serait judicieux d'adopter une réglementation à ce sujet », a-t-il déclaré une fois de plus.

    De son côté, Christina Montgomery, responsable de la protection de la vie privée chez IBM, a ajouté : « IBM demande instamment au Congrès d'adopter une approche réglementaire précise de l'IA. Cela signifie qu'il faut établir des règles pour régir le déploiement de l'IA dans des cas d'utilisation spécifiques, et non pas réglementer la technologie elle-même. Le Congrès devrait définir clairement les risques de l'IA et imposer des règles différentes pour des risques différents, les règles les plus strictes étant appliquées aux cas d'utilisation présentant les risques les plus importants pour les personnes et la société ». Big Blue est l'un des pionniers du domaine.

    Altman sur les solutions possibles pour établir une réglementation pour l'IA

    Le sénateur Dick Durbin (D-Ill) a déclaré que l'industrie de l'IA semblait avoir pour message "arrêtez-moi avant que je n'innove à nouveau", contrairement aux réseaux de médias sociaux, qui n'ont souvent pas voulu être tenus responsables des actions qui se sont produites sur leurs plateformes. En réponse, Altman a souligné que l'IA était une "technologie très nouvelle" et que l'industrie technologique avait besoin d'un "cadre de responsabilité" pour travailler. En outre, interrogé sur la possibilité que l'IA prenne en charge tous nos emplois, le professeur Marcus a déclaré aux sénateurs : « à terme, tous les emplois seront pris en charge par l'IA ».

    Cependant, il a ajouté : « mais nous ne sommes pas encore très proches de l'intelligence générale de l'IA ». Le professeur Marcus a déclaré au Sénat qu'il était très préoccupé par la sécurité des personnes lorsqu'il s'agit d'IA, affirmant que les États-Unis sont maintenant confrontés à "la tempête parfaite". L'universitaire a conseillé aux législateurs de tirer les leçons de ce qui s'est passé avec les médias sociaux. Altman a déclaré qu'il ne pensait pas que des exigences lourdes devraient s'appliquer aux entreprises et aux chercheurs dont les modèles sont beaucoup moins avancés que ceux d'OpenAI. Ses propositions peuvent se résumer comme suit :

    • créer une nouvelle agence gouvernementale chargée de délivrer des licences pour les grands modèles d'IA, et l'habiliter à retirer ces licences aux entreprises dont les modèles ne sont pas conformes aux normes gouvernementales ;
    • créer un ensemble de normes de sécurité pour les modèles d'IA, y compris des évaluations de leurs capacités dangereuses. Par exemple, les modèles devraient passer certains tests de sécurité, notamment pour savoir s'ils peuvent "s'autoreproduire" et "s'exfiltrer dans la nature", c'est-à-dire devenir des voyous, et commencer à agir de leur propre chef ;
    • exiger des audits indépendants, réalisés par des experts indépendants, des performances des modèles en fonction de divers paramètres.


    Les propositions d'Altman ont fortement été critiquées, de nombreux critiques affirmant qu'elles sont insuffisantes et ne couvrent pas toutes les préoccupations liées à ces systèmes d'IA. Pour être plus clair, parmi les propositions d'Altman, il n'est pas question d'exiger que les modèles d'IA soient transparents en ce qui concerne leurs données d'apprentissage, comme l'a demandé son collègue Gary Marcus, ou d'interdire leur apprentissage sur des œuvres protégées par des droits d'auteur, comme l'a suggéré le sénateur Marsha Blackburn (R-Tenn.). Il s'agit de deux points essentiels qui sont actuellement sujets à des débats intenses dans la communauté.

    Certains vont même jusqu'à affirmer que les appels d'Altman à une réglementation de l'IA sont une supercherie pour freiner les nouveaux acteurs du secteur. « Une fois que vous êtes établi dans un nouveau domaine, vous voulez ajouter autant d'obstacles que possible aux autres qui essaient de s'établir », a écrit un critique. Un autre a également écrit : « je travaille dans le domaine du calcul intensif et de la recherche sur l'IA. Les systèmes d'IA connus sont actuellement de très bons algorithmes de recherche et des manipulateurs d'images et de sons. Le message qu'Altman veut faire passer est le suivant : "fermez la porte ! Vous allez laisser entrer toute la racaille !" ».

    Pourtant, de nombreux sénateurs semblent désireux de confier l'autorégulation à Altman. Le sénateur John Neely Kennedy (R-La.) a demandé si Altman était lui-même qualifié pour superviser un organisme fédéral de réglementation de l'IA. Altman a hésité, déclarant qu'il aimait son travail actuel, mais il a proposé que son entreprise lui envoie une liste de candidats appropriés. Selon les critiques, l'approche des sénateurs pourrait avoir de graves répercussions sur l'industrie. Lors de son audition, Altman s'est également gardé de mentionner les biais des systèmes d'IA, une chose sur laquelle le professeur Marcus a longuement insisté.

    Altman sur la façon dont OpenAI monétise ChatGPT et sur l'avenir de l'IA

    Le sénateur Cory Booker a demandé à Altman si ChatGPT afficherait des publicités aux utilisateurs. En réponse, Altman a déclaré que, bien qu'il ne puisse pas l'exclure complètement, il préférait un modèle d'abonnement. OpenAI offre actuellement un abonnement payant à ChatGPT Plus, une version qui est basée sur GPT-4, le dernier modèle de langage du laboratoire d'IA. Dans une question un peu étrange, un autre sénateur a demandé au PDG d'OpenAI s'il gagnait beaucoup d'argent. Altman a répondu qu'il faisait son travail parce qu'il l'aimait, et que son salaire n'était pas assez élevé pour qu'une assurance maladie soit incluse dans sa rémunération.

    Le sénateur John Kennedy a répondu : « vraiment ? Vous avez besoin d'un avocat ou d'un agent ». Par la suite, les sénateurs ont interrogé Altman, Montgomery et le professeur Marcus sur la question de savoir si d'autres options plus radicales devraient être envisagées pour prévenir les méfaits de l'IA. Par exemple, le sénateur Cory Booker (D-N.J.) a demandé s'il ne fallait pas arrêter le développement de l'IA jusqu'à ce qu'il soit possible d'établir tous les risques et tous les remèdes. Mais Altman et ses pairs étaient contre cette alternative. Altman refuse l'idée d'un moratoire, mais a confirmé que son entreprise ne formait actuellement aucun modèle d'IA.

    La réponse d'Altman à Booker suggère qu'OpenAI a au moins envisagé la possibilité d'insérer des publicités dans la version gratuite de ChatGPT (la version basée sur le modèle de langage GPT3.5) afin de gagner de l'argent grâce à ses utilisateurs gratuits. Mais le fonctionnement de ChatGPT n'est pas gratuit pour OpenAI, ce qui signifie qu'il n'y a aucune garantie que la version gratuite sera toujours disponible. Certains législateurs craignent que les entreprises d'IA n'adoptent un jour ce modèle commercial financé par la publicité, qui, dans l'industrie des médias sociaux, a sans doute encouragé la conception de produits manipulateurs et d'algorithmes addictifs.

    Montgomery a également refusé l'idée d'un moratoire : « je ne suis pas sûre qu'il serait pratique de faire une pause, mais nous devrions absolument donner la priorité à la réglementation ». Même dans le camp des sénateurs, tout le monde ne partage pas cet avis. Le sénateur Richard Blumenthal n'est pas du tout d'accord avec l'idée d'une pause dans l'innovation en matière d'IA. « Le monde n'attendra pas. La communauté scientifique mondiale n'attendra pas. Nous avons des adversaires qui vont de l'avant. Des garanties et des protections, oui, mais un panneau d'arrêt plat, la politique de l'autruche, je m'y opposerais », a-t-il déclaré à l'assistance.

    Lors de l'audition, plusieurs sénateurs ont tiré la sonnette d'alarme au sujet de la consolidation des entreprises sur le marché de l'IA, avertissant qu'un petit nombre d'entreprises technologiques pourraient finir par dominer les outils. Le sénateur Booker a déclaré qu'il s'agissait là de l'une de ses plus grandes préoccupations en matière d'IA. Il a cité en exemple le partenariat d'OpenAI avec le géant technologique Microsoft. « Il est vraiment terrifiant de voir à quel point un petit nombre d'entreprises contrôlent et affectent la vie d'un si grand nombre d'entre nous, et ces entreprises sont de plus en plus grandes et puissantes », a-t-il déclaré.

    En réponse, Altman a déclaré qu'il pensait qu'il y aurait un nombre relativement restreint de fournisseurs capables de créer des modèles d'IA à grande échelle, mais il a également suggéré qu'il pourrait y avoir des avantages réglementaires à n'avoir qu'une poignée d'acteurs dans ce rôle. « Moins nous serons nombreux à devoir être surveillés, plus nous aurons d'avantages. Mais je pense qu'il faut qu'il y ait suffisamment de concurrence et qu'il y en aura », a-t-il déclaré. Selon les critiques, cette déclaration d'Altman démontre qu'il milite en faveur d'une réglementation pour consolider l'avantage d'OpenAI sur ses concurrents et contrôler le secteur.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des déclarations de Sam Altman devant le Congrès américain ?
    Que pensez-vous des appels répétés d'Altman à la mise en place d'une réglementation sur l'IA ?
    Pensez-vous qu'il s'agit d'une supercherie ? Altman a-t-il l'intention de compliquer la tâche aux nouveaux arrivants ?
    Que pensez-vous des déclarations de la représentante d'IBM et de l'universitaire Gary Marcus ?
    Pensez-vous que la version gratuite de ChatGPT va perdurer ? Dans ce cas, restera-t-elle sans publicité ?

    Voir aussi

    Découvrez Sam Altman, PDG d'OpenAI, qui a appris à programmer à l'âge de 8 ans et qui se prépare également à l'apocalypse avec une réserve d'or, des armes et des masques à gaz

    Le PDG d'OpenAI affirme que sa technologie est susceptible de "détruire le capitalisme", mais la startup d'IA est critiquée pour son partenariat avec le géant des logiciels Microsoft

    Le PDG d'OpenAI, Sam Altman, se dit effrayé par sa propre invention, l'IA pourrait être utilisée pour diffuser largement de fausses informations, ou encore lancer une nouvelle course à l'armement

    Le PDG d'OpenAI craint que les autres développeurs d'IA qui travaillent sur des outils de type ChatGPT ne mettent pas de limites de sécurité, il estime que cela pourrait créer une IA plus diabolique
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Le PDG de Palantir, Alex Karp, affirme que l'Ukraine utilise le logiciel de Palantir pour le "ciblage"
    Par Sandra Coret dans le forum Statistiques, Data Mining et Data Science
    Réponses: 0
    Dernier message: 04/02/2023, 14h27
  2. Réponses: 3
    Dernier message: 03/02/2023, 07h55
  3. Réponses: 0
    Dernier message: 24/06/2022, 22h49
  4. Réponses: 0
    Dernier message: 14/04/2021, 18h44
  5. Réponses: 20
    Dernier message: 15/03/2011, 02h18

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo