IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #141
    Expert éminent
    Avatar de berceker united
    Profil pro
    SQL
    Inscrit en
    Février 2005
    Messages
    3 488
    Détails du profil
    Informations personnelles :
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : SQL
    Secteur : Finance

    Informations forums :
    Inscription : Février 2005
    Messages : 3 488
    Points : 6 039
    Points
    6 039
    Par défaut
    Et qui va faire évoluer les intelligences artificiel ? Une intelligence artificiel ?
    Mon avatar ? Ce n'est rien, c'est juste la tête que je fais lorsque je vois un code complètement frappa dingue !...

  2. #142
    Membre éprouvé
    Homme Profil pro
    Développeur .net - Office - Quadiant
    Inscrit en
    Février 2020
    Messages
    585
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Loir et Cher (Centre)

    Informations professionnelles :
    Activité : Développeur .net - Office - Quadiant
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2020
    Messages : 585
    Points : 1 080
    Points
    1 080
    Par défaut
    Citation Envoyé par berceker united Voir le message
    Et qui va faire évoluer les intelligences artificiel ? Une intelligence artificiel ?
    Skynet

  3. #143
    Expert éminent sénior
    Homme Profil pro
    Analyste/ Programmeur
    Inscrit en
    Juillet 2013
    Messages
    4 630
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Analyste/ Programmeur

    Informations forums :
    Inscription : Juillet 2013
    Messages : 4 630
    Points : 10 556
    Points
    10 556
    Par défaut
    Citation Envoyé par berceker united Voir le message
    Et qui va faire évoluer les intelligences artificiel ?
    Je pense qu'il n'y a pas vraiment de débat cela fait 10 ans qu'il y a 1 débat entre ingénieur vs programmeur vs développeur.
    En gros:
    • l'ingénieur c'est la personne qui code le ""bas niveau"" (<- gros diplômes, gros parcours formation initiale, grosses expériences, grosses références)
    • le programmeur c'est la personne qui code "les briques" (bibliothèques, API, outils, …)
    • le développeur c'est la personne qui assemble "les briques" et intègre les processus entreprises (réunions, protocoles, documents, … <- compétences fonctionnelles, "soft skills" en anglais)

    donc on peut penser que les ingénieurs vont coder ""l'IA"", les programmeurs vont être remplacés et le développeur ne sera plus qu'1 superviseur.

  4. #144
    Membre chevronné
    Profil pro
    Inscrit en
    Octobre 2005
    Messages
    940
    Détails du profil
    Informations personnelles :
    Âge : 44
    Localisation : France

    Informations forums :
    Inscription : Octobre 2005
    Messages : 940
    Points : 1 817
    Points
    1 817
    Par défaut
    Je serai à la retraite avant Java. Et avant Cobol aussi.

  5. #145
    Nouveau membre du Club
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Avril 2020
    Messages
    6
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Essonne (Île de France)

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Avril 2020
    Messages : 6
    Points : 26
    Points
    26
    Par défaut Allez, j'ose contredire le pdg NVIDIA
    Allez, j'ose contredire le pdg NVIDIA par ce que ce genre d'actu comment a être soûlante
    Sur l'état actuel de l'art, le PDG d'Nvidia se trompe à 94%.
    Sur le sujet faire monter l'action nvidia par contre.....

    Qu'est-ce qui fait un développeur ce qu'il est ? Il y a développeur et développeur.
    Un mauvais développeur c'est un mec qui pisse des lignes de code, un bon développeur , c'est un mec qui pisse des lignes de code, mais lui il le fait bien, il comprend ce qu'il fait.

    Si c'était si simple, tout le monde pourrait le faire. Hormis la grammaire et le vocabulaire, que faut-il de plus pour aligner deux lignes de code ?
    Personne ne s'est jamais posé la question ? Hormis aligner 10 lignes pour faire une simple action. Qu'est-ce qui permet de faire de grand logiciel ?
    La capacité de la maîtrise du contexte et la capacité d'articuler un ensemble pour le rendre fonctionnel, soit la créativité.

    Les modèles de langage sont intrinsèquement incapables en eux même uniquement de faire preuve de créativité ou alors elle est aussi limitée que ce que peut faire un moineau. Au mieux elle n'est capable que d'imitation.
    La créativité est l'étape au-dessus de la capacité de maîtrise du contexte. On est tranquille ce n'est pas quelque chose que les simples réseaux de neurones peuvent faire.
    Lorsque l'on aura produit un système capable de maîtriser le contexte et l'environnement dans lequel il évolue, alors, un très grand nombre de métiers dans le secteur tertiaire pdg compris sera grandement inutile et remplaçable par ce type d'automates.
    Mais intrinsèquement la manière dont ils seront construits feront que leur créativité seront limité et ne seras pas capable de prendre des décisions avancées permettant "une croissance d'activité" en dehors du strict chemin sur lequel ils sont déjà lancés, donc une incapacité économiquement parlant de ce diversifier/d'innover donc à terme de survivre .

    Une machine capable de faire preuve de conscience de contexte et d'environnement ainsi que de créativité sera plus proche d'une conscience artificielle que d'une IAG. C'est là que le risque cette pose. Celui de la SF et d'un dérapage possible.
    En attendant, si c'était si simple que de coder, tout le monde pourrait déjà le faire, passer en n'importe quel langage logiciel vers un langage naturel ne rendra pas la chose plus simple en dehors du Scripting. Et ça ne fonctionnera pas mieux qu'aujourd'hui avec des gens qui ne savent pas concevoir de logiciel et qui nous font un patchwork de code spaghetti qui ne fonctionne pas.

    Les GPU de nvidia ne sont pas magique et ne créer pas d'intelligence, on est en pleine mode des réseaux de neurones qui sont très gourmands en calcule pour leur formation, mais ce n'est ni ce type de matériel ni se type d'architecture qui donnera quelque chose capable de remplacer l'homme.

    On aurait pu écrire comme titre. <Apprendre a écrire est inutile, dans 5 ans tous le monde aura des tablettes dans les mains>
    Pas besoin de faire un dessin en quoi scripter un bout de code a la main en 5minutes reste toujours pratique que de devoir se connecter a internet pour accéder à un servie d'IA après s'être authentifié avec la double authentification de sa banque sur son smartphone 5G pour pondre un script que l'on va passer 2H a débugger pour traiter un csv qu'une simple boucle for aurait pu en venir à bout si c'était juste pour supprimer les espaces inutiles dans les cases et conversion de caractère pour le recensement des pingouins du Groenland. Ben quoi cet exemple vous paraît-il hors sol ?

    Moi j'y vois un effondrement intellectuel de la société si on ne peut plus rien faire sans qu'une machine nous assiste parce que l'on nous a vendu que nous n'avions plus besoin de rien faire, parce demain il suffit d'acquérir la machine T2000 pour tout faire a notre place, et après demain il faudra acheter la T3000 qui fait des choses en plus que la T2000 ne savait pas faire comme remplir la nouvelle case du formulaire des impôts des machines autonomes T2000 que nous avons chez nous.

    A force de faire monter les enchères, ce n'est pas dit q'Nvidia arrive a tenir la montgolfière action aussi haute. ce sera plutot le tobogan dans 5-10ans lorsque l'on se rendra compte qu'il y a mieux et moins gourmand que les réseaux de neurones, les gens aurons une montagne de GPU que personne ne sait quoi en faire et que l'on pourra même pas recycler pour autre chose...

    """Les développements en cours dans la filière du génie logiciel donnent-ils lieu à des inquiétudes légitimes quant à l’avenir des informaticiens humains dans la filière ?""
    Les googlers et scripts kiddies pourront ce poser la question de si il ne serait pas mieux de réaliser une reconversion. Si c'est ça qui compose la "filière informatique" à 50%, je comprends mieux pourquoi une machine bug quand je la touche.

    Les vrais concepteurs de logiciel sont tranquilles jusqu'à la retraite (si ce mot existe encore). Comprendre un métier et ensemble de besoins pour le traduire en un ensemble de spécification qui fonctionne sans bug ( le cœur de métier) qui dépasse le logiciel type calculette Windaube ne sont pas près d'être remplacé.
    Il faudra toujours un humain pour faire ce que la machine ne sait pas faire, à minima saisir les specs (en français et pas en cromagnion). Le jour où l'on dépassera ce stade, l'intégralité de notre économie/finance n'aura plus aucun sens.

    ""Comment voyez-vous l'intelligence artificielle dans 5 à 10 ans ? Comme un outil ou comme un danger pour votre poste de développeur ?""

    Sur les 50 prochaines années à venir l'IA ne restera qu'un outil, des percé et avancé dans la robotique aurons fait leur apparaîtrons.
    Dans 30-40ans nous verrons des automates majors d'homme/conseiller clientèle dans les rayons des magasins.

    Dans 50ans nous verrons des automates a grande autonomie, qui seront sur les chaines de production pour combler le manque de main-d'œuvre suite à la Grande Guerre qui aura lieu après la crise énergétique mondiale. On aura le droit au débat pour ceux qui sont "pro machine" et militeront pour que la ville et la vie soient conçues pour que les machines puissent se déplacer librement. Si entre temps le dérèglement climatique ne nous a pas déjà dézingué tous ça. On aura une crise ou des pirates rendrons des machines folles poursuivant des gens avec les flic qui leur courrons derrière avec leur taser....

    Mais ce qui est sûr c'est que le monde de l'emploi à part des diminutions de besoin de personnelle dans certain secteurs, tant qu'il y aura des gens assis dans les bureaux de banque ou d'assurance, le monde de l'emploi ne sera jamais radicalement différent.
    Des métiers apparaissent d'autres disparaissent mais sur le siècle. Jamais il n'y aura un secteur d'activité entier composé uniquement de machine ou supprimé du jour au lendemain. Sinon ça veut dire que ce secteur est complètement inutile depuis le début et tourne a l'aide de subvention (vous en connaissez ?).

    Ceux qui dise que l'IA va tout remplacer sur terre sont eux même en train d'exercer une activité non essentielle. Passer la journée à remplir des cases Excel pour avoir un salaire pour se payer un costard et une Rolex pour vendre à un autre type ton remplissage de case Excel, je n'appelle pas ça un métier utile à l'humanité. (les vendeurs de formation sur YouTube ont déjà tout compris )
    Si une machine peut fabriquer la Rolex et le costard, elle pourra remplacer le gars qui saisit les cases. Dans ce cas qui est inutile ?
    L'homme ou le travail qu'il faisait.

    Je finirai par : Doit-on exterminé les humains par ce qu'ils sont la preuve (dans le cadre artificiel choisi et créer pour cette étude) qu'ils ne servent à rien ? Ou n'avions nous pas créé un système qui part en roue libre et dont sa fonction optimale de créer de la richesse pour les humains ce conclu en : "il faut supprimer les humains de l'équation pour créer encore plus de richesse ?".

    Le grand biais de la création : on créer un système au service de quelque chose, à force de l'optimiser on fini par retirer de l'équation le pourquoi du comment pour qui le service a été créé....

  6. #146
    Membre éprouvé
    Homme Profil pro
    Consultant informatique
    Inscrit en
    Décembre 2008
    Messages
    106
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 51
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Consultant informatique
    Secteur : Finance

    Informations forums :
    Inscription : Décembre 2008
    Messages : 106
    Points : 907
    Points
    907
    Par défaut
    La bonne question : qui va valider que la réponse de l'IA n'est pas mauvaise? Les données qui ont servi à entraîner l'IA peuvent être mauvaises ou biaisées. L'IA a déjà démontré sa capacité dans des cas de droits à inventer des procès de toute pièce.

    Quis custodiet ipsos custodes? [qui va surveiller les résultats de l'IA]
    des développeurs compétents.

    Comment devient-on un développeur compétent?
    En travaillant sur des programmes et algorithmes (longtemps). Et, surtout, en apprenant de ses erreurs, etc...

    Accessoirement un programme n'est pas juste du code: c'est un code qui répond à un besoin fonctionnel émis dans un domaine précis (bancaire, crash-test, calculateur de voiture, etc..). Il ne suffit pas de savoir écrire du code il faut aussi comprendre le contexte dans lequel il va être utilisé!

  7. #147
    Membre averti
    Homme Profil pro
    Ergonome
    Inscrit en
    Octobre 2016
    Messages
    163
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 59
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Ergonome
    Secteur : Arts - Culture

    Informations forums :
    Inscription : Octobre 2016
    Messages : 163
    Points : 310
    Points
    310
    Par défaut
    L'IA ne va pas discuter avec un expert métier pour comprendre un problème en profondeur.
    L'IA (neurones) commet des erreurs dont on sait qu'on ne peut pas les filtrer.
    L'IA a besoin de prompts. Une courte phrase suffit pour résoudre un problème simple mais il faut des milliers de lignes de prompt pour décrire un logiciel complexe.

    Y' a-t-il des IDE spéciales pour rédiger les prompts ?
    1. C'est quasi impossible
    2. Ca va à l'encontre du principal atout des IA qui consiste à comprendre le langage naturel.

    A la fin de ce raisonnement, on finit par rendre le texte du prompt aussi déterministe qu'un langage de programmation. Mais dans ce cas, gagnons du temps et utilisons de vrais langages longuement améliorés au fil des décennies.

    L'implémentation de prompts intelligents sur les IDE aurait son utilité.

    Mais remplacer un humain, c'est de la SF

    J'adore la SF, j'écris de la SF, la SF, c'est génial.

    Mais, monsieur le CEO de NVidia, écrire un programme et écrire un roman, ce n'est pas la même chose.

  8. #148
    Expert confirmé
    Homme Profil pro
    Développeur
    Inscrit en
    Août 2003
    Messages
    1 273
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Charente Maritime (Poitou Charente)

    Informations professionnelles :
    Activité : Développeur

    Informations forums :
    Inscription : Août 2003
    Messages : 1 273
    Points : 4 102
    Points
    4 102
    Par défaut
    Quand je vois ce que Copilot ou Tabnine propose pour du Rust, avec ce langage nous allons être tranquille un moment.

    Les assistants m'aident généralement à pré-remplir des classes ou struct (en fonction du langage) mais derrière j'ai toujours de petites correction à faire.

  9. #149
    Membre chevronné Avatar de Mister Nono
    Homme Profil pro
    Ingénieur Mathématiques et Informatique
    Inscrit en
    Septembre 2002
    Messages
    2 232
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 60
    Localisation : France, Haute Garonne (Midi Pyrénées)

    Informations professionnelles :
    Activité : Ingénieur Mathématiques et Informatique
    Secteur : Santé

    Informations forums :
    Inscription : Septembre 2002
    Messages : 2 232
    Points : 1 897
    Points
    1 897
    Par défaut
    Dès qu'il y a un article de ce type, tout le monde démarre au quart de tour.
    La connaissance ne sert que si elle est partagée.
    http://ms2i.net

  10. #150
    Membre chevronné
    Profil pro
    MOA
    Inscrit en
    Décembre 2002
    Messages
    1 019
    Détails du profil
    Informations personnelles :
    Localisation : France, Eure et Loir (Centre)

    Informations professionnelles :
    Activité : MOA

    Informations forums :
    Inscription : Décembre 2002
    Messages : 1 019
    Points : 1 779
    Points
    1 779
    Par défaut
    Citation Envoyé par sergio_is_back Voir le message
    Déjà qu'à l'école on n'apprend plus à lire ni à écrire... Autant supprimer l'Education Nationale, ça fera des économies !
    Il y a besoin d'écrire pour commande l'IA


    Citation Envoyé par berceker united Voir le message
    Et qui va faire évoluer les intelligences artificiel ? Une intelligence artificiel ?
    Il manquerait plus que ce soit nous qui l'améliorons . Il s'améliore lui-même, il apprend tout seul

  11. #151
    Membre à l'essai
    Homme Profil pro
    Consultant en sécurité
    Inscrit en
    Mars 2024
    Messages
    2
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Sarthe (Pays de la Loire)

    Informations professionnelles :
    Activité : Consultant en sécurité
    Secteur : Conseil

    Informations forums :
    Inscription : Mars 2024
    Messages : 2
    Points : 12
    Points
    12
    Par défaut
    Citation Envoyé par pboulanger Voir le message
    La bonne question : qui va valider que la réponse de l'IA n'est pas mauvaise? Les données qui ont servi à entraîner l'IA peuvent être mauvaises ou biaisées. L'IA a déjà démontré sa capacité dans des cas de droits à inventer des procès de toute pièce.

    Quis custodiet ipsos custodes? [qui va surveiller les résultats de l'IA]
    des développeurs compétents.

    Comment devient-on un développeur compétent?
    En travaillant sur des programmes et algorithmes (longtemps). Et, surtout, en apprenant de ses erreurs, etc...

    Accessoirement un programme n'est pas juste du code: c'est un code qui répond à un besoin fonctionnel émis dans un domaine précis (bancaire, crash-test, calculateur de voiture, etc..). Il ne suffit pas de savoir écrire du code il faut aussi comprendre le contexte dans lequel il va être utilisé!
    Officiellement, le machine learning est une technologie "à taux d'erreur" càd que les les maths donnent un indice de précision à chaque situation. Ce taux est variable mais jamais nul. Autrement dit, l'IA ne peut retourner de résultat fiable à 100%.
    Parfois, on se sert de cette imprécision, surtout pour améliorer des images actuellement. Si on ne pousse pas trop de degré d'hallucination de l'IA, le résultat est bluffant.

    Actuellement, écrire un prompt IA de 2000 lignes est un effort énorme rendu encore plus difficile par l'absence d'aide à la rédaction du prompt. Décrire une application entière en langage naturel, C'est incroyablement complexe et demande des milliers de tests avant de trouver les bonnes formulations. Cette fonctionnalité existera peut-être un jour mais s'il faut plus de temps de cette manière qu'en codant l'application, personne ne le fera.

    Le CEO de Nvidia vend sa technologie .

  12. #152
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    542
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 542
    Points : 9 921
    Points
    9 921
    Par défaut Le PDG de Nvidia, Jensen Huang, a déclaré que l'industrie pourrait atteindre une forme d'AGI d'ici à cinq ans
    Le PDG de Nvidia, Jensen Huang, a déclaré que l'industrie pourrait atteindre une forme d'AGI d'ici à cinq ans
    mais précise que ce calendrier dépend de la définition que l'on donne à la technologie

    Le PDG de Nvidia, Jensen Huang, a évoqué une nouvelle fois l'intelligence artificielle générale (AGI) en marge de l'événement GTC de l'entreprise qui a lieu cette semaine. Il a déclaré que l'industrie pourrait atteindre une forme d'AGI d'ici les cinq prochaines années. Mais il a nuancé ses propos en ajoutant que l'atteinte d'une forme d'AGI dépendra de la définition que l'industrie donne à la technologie. Cela suggère que la définition de l'AGI peut ne pas faire l'unanimité et peut changer au fur et à mesure que la technologie se développe. Jensen Huang est également convaincu que l'industrie peut venir facilement à bout des problèmes d'hallucination de l'IA.

    L'intelligence artificielle générale (AGI) est une forme hypothétique d'IA dans laquelle "une machine peut apprendre et penser comme un humain". Pour que cela soit possible, l'AGI devrait avoir une conscience de soi et de son environnement afin de pouvoir résoudre des problèmes, s'adapter à son environnement et effectuer un plus large éventail de tâche. L'on s'attend à ce que l'AGI puisse révolutionner les industries, relever des défis mondiaux complexes et remodeler notre façon de travailler et de vivre. Et la question qui revient le plus souvent est : « quand atteindrons-nous une forme d'intelligence artificielle générale ? »

    S'adressant à la presse cette semaine lors de l'événement annuel Nvidia GTC (GPU Technology Conference), le PDG Jensen Huang a été confronté une nouvelle fois à cette question. Il a semblé se lasser de discuter de ce sujet, car, selon lui, il est souvent mal cité. Huang a toutefois répondu à la question en déclarant dans un premier temps que prédire l'arrivée d'une AGI dépend de la définition que l'on donne à la technologie. L'industrie tente depuis plusieurs années de proposer une définition formelle et complète de l’intelligence, de l’IA et de l’AGI, mais à ce jour aucune des propositions n’est sans problèmes ou controverses.


    Pour illustrer son point de vue, Huang établit quelques parallèles avec des situations de la vie : « même en tenant compte des complications liées aux fuseaux horaires, vous savez le moment où arrive le Nouvel An et le moment où arrive l'année 2025. Si vous vous rendez en voiture au San Jose Convention Center (où se tient cette année la conférence GTC), vous savez généralement que vous êtes arrivé lorsque vous voyez les énormes bannières de la GTC. Donc, l'essentiel est que nous puissions nous mettre d'accord sur la manière de mesurer que vous êtes arrivé, sur le plan temporel ou géospatial là où vous espériez aller ».

    L'homme d'affaires ajouté également : « si nous spécifions que l'AGI est quelque chose de très précis, un ensemble de tests qu'un logiciel peut réussir très bien (ou peut-être 8 % de mieux que la plupart des gens), je pense que nous y arriverons d'ici cinq ans ». Il suggère que les tests pourraient être un examen du barreau, des tests de logique, des tests économiques ou peut-être la capacité à réussir un examen de médecine. À moins que l'auteur de la question ne soit en mesure de préciser la signification de l'AGI dans le contexte de la question, l'homme d'affaires affirme qu'il n'est pas en mesure de faire une prédiction.

    La réponse du PDG de Nvidia à la question relative à l'arrivée de l'AGI contraste avec celle de certains acteurs de l'industrie. Les plus enthousiastes parmi eux affirment même que nous sommes déjà en présence d'une forme d'AGI. La position de Huang se rapproche toutefois de celle d'autres acteurs. Par exemple, le PDG d'OpenAI, Sam Altman, a déclaré l'année dernière que le monde aurait considéré ChatGPT comme une AGI si l'outil d'IA lui avait été présenté dix ans auparavant. Selon lui, les gens ont du mal à considérer ChatGPT comme une AGI en raison de l'absence d'un consensus sur la définition de l'intelligence.

    Altman a laissé entendre que ChatGPT est victime de l'effet IA. L'effet IA est dû au fait que la communauté de l'IA (experts, chercheurs, etc.) a tendance à ajuster ses attentes en matière d'IA à mesure que la technologie progresse et que certaines tâches deviennent courantes. « Aujourd'hui, les gens se disent qu'il s'agit d'un gentil petit chatbot ou autre », a déclaré Altman. Il regrette le fait que les gens banalisent le potentiel de sa technologie en le réduisant à un simple agent conversationnel. En novembre, Google DeepMind a décidé de classer ChatGPT d'OpenAI et Bard de Google comme étant des formes d'AGI émergentes.

    « Nous ne pourrons jamais dire ce qu'est réellement l'AGI si nous continuons à repousser les limites. La technologie peut toujours être améliorée. Qu'est-ce que nous devrions collectivement reconnaître comme étant une AGI, un comportement ou une sensibilité de niveau humain ? Ou bien des connaissances générales sur un large éventail de sujets ? », note un critique. L'effet IA est perceptible tout au long de l'histoire de l'IA. À titre d'exemple, lorsque le programme de jeu d'échecs Deep Blue a vaincu le grand maître des échecs Garry Kasparov en 1997, cette victoire a été saluée comme une réalisation importante de l'IA.

    Mais depuis cette victoire, les programmes d'IA jouant aux échecs sont maintenant communément considérés comme des algorithmes conventionnels plutôt que comme une IA révolutionnaire. Certains experts en IA ont fini par résumé l'effet IA en ces termes : « l'IA est tout ce qui n'a pas encore été fait ». L'effet IA montre à quel point il est difficile de définir l'intelligence et comment le terme est utilisé différemment selon les contextes, comme le comportement ou la cognition. Altman ajoute toutefois : « je pense que c'est une bonne chose que les règles du jeu changent constamment. Cela nous pousse à travailler plus dur ».

    Par ailleurs, lors de l'interview mardi, Huang a également abordé la question des hallucinations des modèles d'IA actuels. Pour rappel, l'hallucination fait référence à la tendance des modèles d'IA à inventer des réponses qui semblent plausibles, mais qui ne sont pas fondées sur des faits. Huang a semblé visiblement frustré par la question, mais a suggéré que les hallucinations pouvaient être résolues facilement, en veillant à ce que les réponses soient bien documentées. « Ajoutez une règle. Pour chaque réponse, vous devez vérifier la réponse », dit-il. Il appelle cette pratique la "génération augmentée par la recherche d'information".

    Telle que décrite par Huang, la génération augmentée par la recherche d'information (retrieval augmented generation - RAG) est une approche très similaire à l'éducation aux médias de base : examiner la source et le contexte. Comparez les faits contenus dans la source à des vérités connues, et si la réponse est inexacte - même partiellement - écartez toute la source et passez à la suivante. « L'IA ne doit pas se contenter de répondre ; elle doit d'abord faire des recherches pour déterminer quelles sont les meilleures réponses », a déclaré Huang.

    Pour les réponses critiques, telles que les conseils de santé ou autres, le PDG de Nvidia suggère de vérifier plusieurs ressources et sources de vérité connues. Bien entendu, cela signifie que le logiciel d'IA qui crée une réponse à une question doit avoir la possibilité de dire "Je ne connais pas la réponse à votre question" ou "Je n'arrive pas à trouver un consensus sur la bonne réponse à cette question".

    Source : Jensen Huang, PDG de Nvidia

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des déclarations du PDG de Nvidia sur l'arrivée de l'AGI ?
    Partagez-vous son avis ? Pensez-vous que nous atteindrons une forme d'AGI d'ici à 5 ans ?
    Selon vous, pourquoi l'industrie est divisée sur la définition de l'intelligence artificielle générale ?

    Voir aussi

    Le PDG de Nvidia, Jensen Huang, affirme qu'une percée de l'IA appelée AGI aura lieu d'ici cinq ans, avec des machines "assez compétitives" par rapport à l'homme dans tous les domaines

    « L'AGI est le mensonge de l'année. L'intelligence artificielle générale n'existe pas », selon un critique qui affirme que ce mensonge est raconté pour des raisons financières et politiques

    Google DeepMind vient de publier une liste de niveaux d'AGI et définir des niveaux de performance, elle suggère des principes tels que se focaliser sur les capacités plutôt que sur les mécanismes

  13. #153
    Membre averti
    Homme Profil pro
    Ergonome
    Inscrit en
    Octobre 2016
    Messages
    163
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 59
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Ergonome
    Secteur : Arts - Culture

    Informations forums :
    Inscription : Octobre 2016
    Messages : 163
    Points : 310
    Points
    310
    Par défaut
    "Peut-être" 5 ans pour arriver à un objectif "probablement mal défini"... Difficile de faire plus avec moins, ou de l'art d'instiller du positif/négatif sans donner d'information.
    L'IA réseau de neurones est une technologie "à taux d'erreur". Dans certains cas, c'est plutôt utile puisque c'est dans la marge d'erreur qu'on trouve l'imagination.
    Mais ici, on parle de développement de programmes, un métier au périmètre assez flou. Le développeur fixe-t-il lui même les specs de son programme ?
    Mais si le périmètre est obscur, l'écriture du code est, quant à elle, très stricte. Je crains que ce terrain soit à jamais fermé à la technologie des neurones qui excelle par ailleurs dans les domaines ambigüs voire créatifs.
    Ce métier n'est pas exercé de la même manière dans les différentes équipes de développement. Mais à vrai dire, que ce soit dans la conception ou dans la réalisation, je vois difficilement l'IA réussir à coder une application ni à faire une synthèse utile des sources d'information métier.
    Il faudra des gens très bien formés au code pour débugger, modifier, reprendre.
    Plus que jamais , la fable du remplacement des codeurs n'est pas accessible à une technologie quelconque. S'il faut écrire 5000 lignes de prompt pour décrire un projet, il sera plus adéquat de s'en servir comme un outil de synthèse pour chaque unité de code avec écriture finale par l'humain.

    Je crois que le rêve de NVidia ne se réalisera jamais.

  14. #154
    Expert éminent sénior
    Avatar de Mat.M
    Profil pro
    Développeur informatique
    Inscrit en
    Novembre 2006
    Messages
    8 361
    Détails du profil
    Informations personnelles :
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Novembre 2006
    Messages : 8 361
    Points : 20 381
    Points
    20 381
    Par défaut
    Citation Envoyé par commandantFred Voir le message
    L'IA ne va pas discuter avec un expert métier pour comprendre un problème en profondeur.
    L'IA (neurones) commet des erreurs dont on sait qu'on ne peut pas les filtrer.
    L'IA a besoin de prompts. .
    pour ma part c'est évident qu'une IA ne changera jamais un joint sur une chasse d'eau qui fuit...

  15. #155
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    542
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 542
    Points : 9 921
    Points
    9 921
    Par défaut L'intelligence artificielle générale ne sera pas possible tant que l'IA ne sera pas dotée d'un corps physique
    Selon un groupe de chercheurs en IA, les LLM actuels ne mèneront pas à l'AGI, mais les robots dotés d'une IA qui se développent dans le monde 3D pourraient le faire

    Les chercheurs de Meta pensent qu'une intelligence artificielle générale (AGI) ne sera pas possible tant que l'IA ne sera pas dotée d'un corps physique. Il s'agit de l'hypothèse de l'IA incarnée. Selon cette approche, une IA de niveau humain ne peut émerger que si elle est capable de sentir et de naviguer dans un environnement physique, comme le font les bébés. À travers ce corps, l'IA peut interagir avec le monde physique et en tirer des enseignements. Cette hypothèse suscite de nombreuses discussions et pousse certains investisseurs à investir massivement dans les entreprises qui fabriquent des robots humanoïdes à usage général. Bien sûr, l'idée ne fait pas l'unanimité.

    L'intelligence artificielle générale (AGI) est un système d'IA théorique dont les capacités rivalisent avec celles de l'homme. Pour atteindre ce niveau, l'IA doit maîtriser de nombreuses capacités, notamment : la perception sensorielle (vue, ouïe, touché, etc.), une motricité fine, le traitement du langage naturel, la résolution de problème, la navigation, la créativité, un engagement social et émotionnel, etc., et peut-être aussi le bon sens. Les plus optimistes affirment que l'on pourrait attendre une forme d'AGI d'ici cinq à dix ans, mais d'autres experts pensent que nous sommes encore à des décennies, voire des siècles, de l'AGI.

    L'atteinte de l'AGI reste un défi de taille. Et de plus en plus de chercheurs affirment que l'industrie ne pourra pas atteindre cet objectif si elle ne change pas son approche actuelle. Ils plébiscitent une approche dans laquelle des agents artificiels adaptent leurs réseaux neuronaux ("cerveaux") en fonction des réactions de leur corps et de leur environnement, c'est-à-dire qu'ils apprennent à naviguer dans leur environnement. Selon ces chercheurs, cette approche constitue la prochaine étape fondamentale dans la poursuite de l'AGI et elle doit être juxtaposée aux progrès actuels de l'IA, en particulier les grands modèles de langage.


    Cette approche est connue sous le nom de : IA incarnée. Elle défend l'hypothèse selon laquelle le seul moyen pour qu'une IA développe une véritable intelligence est de lui donner un corps et la capacité de se déplacer et d'expérimenter le monde. En comparaison, les IA exclusivement numériques peuvent être excellentes pour des tâches limitées, mais elles se heurteront toujours à un plafond en matière d'intelligence. Par exemple, selon certains chercheurs, l'action incarnée a des effets causaux sur la nature et les statistiques des entrées sensorielles, qui peuvent à leur tour entraîner des processus neuronaux et cognitifs.

    Les statistiques des entrées sensorielles peuvent être saisies en e utilisant des méthodes issues de la théorie de l'information, en particulier des mesures d'entropie, d'information mutuelle et de complexité, sur des flux de données sensorielles. « Les systèmes d'IA qui n'ont pas d'incarnation physique ne pourront jamais être vraiment intelligents. Pour comprendre pleinement le monde, il est essentiel d'interagir avec lui et d'observer les résultats de ces interactions », explique Akshara Rai, chercheur chez Meta. Les robots humanoïdes comme Atlas et Optimus représentent peut-être le pas nécessaire dans la bonne direction.

    L'hypothèse de l'IA incarnée est soutenue par les chercheurs du laboratoire Noah's Ark de Huawei basé à Paris. Ils ont évoqué cette idée dans un rapport d'étude publié en février. Selon l'équipe de Huawei, donner un corps à l'IA est le seul moyen pour elle d'apprendre le monde par l'interaction. « On croit généralement que le simple fait d'augmenter la taille de ces modèles, en matière de volume de données et de puissance de calcul, pourrait conduire à l'AGI. Nous contestons ce point de vue », écrit l'équipe. Comme les chercheurs de Meta, l'équipe de Huawei affirme qu'il s'agit d'une étape fondamentale pour atteindre l'AGI.

    Nom : AI habitat.png
Affichages : 81050
Taille : 177,3 Ko

    Cependant, tous les développeurs d'IA n'adhèrent pas à l'hypothèse de l'incarnation - il pourrait s'avérer possible de créer une superintelligence uniquement numérique qui ne sentirait jamais la Terre sous ses pieds robotiques. Les critiques de cette approche affirment qu'elle pose de nombreux risques pour l'homme et l'environnement. L'un des défis majeurs du développement de l'IA incarnée est le risque d'erreurs au cours du processus d'apprentissage, qui peut entraîner des dommages à la fois pour l'IA et pour son environnement. Pour atténuer ces risques, les chercheurs se sont tournés vers les simulations informatiques.

    Selon les chercheurs, ces simulations fournissent un environnement virtuel où l'IA peut apprendre par essais et erreurs sans conséquences dans le monde réel. Par exemple, AI Habitat, une plateforme open source développée par Meta et dévoilée en 2019, permet à l'IA de s'entraîner à naviguer et à interagir avec différents environnements, de la maison au bureau, dans un monde simulé. Cette approche permet à l'IA d'acquérir des compétences essentielles avant de passer à des robots physiques. Cette méthode réduit considérablement la courbe d'apprentissage et les risques associés aux interactions dans le monde réel.

    Mais AI Habitat reste un environnement simulé et n'est pas le monde réel. Malgré les avantages des simulations, le passage du monde virtuel au monde physique présente sa propre série de défis, connus sous le nom de "fossé entre la simulation et la réalité". Ce fossé résulte de la difficulté de reproduire avec précision la physique complexe et l'imprévisibilité du monde réel dans un environnement virtuel. Boyuan Chen, de l'université Duke, souligne les limites inhérentes aux simulations, en notant que "même des choses simples, comme une balle qui rebondit [...], ne peuvent pas être très bien modélisées dans une simulation".


    L'amélioration continue des technologies et des stratégies de simulation est essentielle pour réduire cet écart et faciliter la transition de l'IA du virtuel au tangible. En gros, le test ultime pour l'IA incarnée se produit lorsqu'elle entre dans le monde réel. L'IA incarnée en est maintenant au point où certaines entreprises sont prêtes à passer à l'étape suivante et à envoyer leurs robots dotés d'IA dans le monde réel, comme des parents qui déposent leurs enfants à l'école pour la première fois. Le fabricant de robots Agility Robotics a déployé des exemplaires de son robot humanoïde Digit comme dans certains entrepôts d'Amazon.

    Le fabricant de robots humanoïdes Apptronik envoie ses robots Apollo travailler dans une usine Mercedes-Benz afin de prouver qu'ils sont capables fonctionner efficacement et en toute sécurité à côté de personnes. La startup Figure AI déploie ses humanoïdes IA dans une usine de fabrication BMW. Figure AI a présenté le mois dernier une mise à jour de son robot Figure 01 équipé d'un modèle de vision-langage (Vision-language model - VLM) développé par OpenAI. Avec ce modèle, Figure 01 peut maintenant comprendre le langage naturel, exécuter des commandes verbales et même expliquer pourquoi il fait ce qu'il fait.

    Si l'hypothèse de l'incarnation se vérifie, l'association d'une entreprise qui développe des cerveaux d'IA parmi les plus avancés et d'une autre qui construit des corps de robots à la pointe de la technologie pourrait être la combinaison qui permettra de doter un être artificiel d'une intelligence comparable à celle de l'homme, et ce dans un avenir proche.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de l'approche dite de l'IA incarnée décrite ci-dessus ?
    Les agents physiques dotés d'une IA sont-ils indispensables pour atteindre l'AGI ?
    L'IA peut-elle apprendre et évoluer en interagissant avec le monde réel comme un humain ?
    Quelles sont les limites de cette nouvelle approche ? Et quelles sont les préoccupations qu'elle pose ?

    Voir aussi

    L'IA a besoin d'un corps pour passer à l'étape suivante de l'IA générale (AGI), un corps est le seul moyen pour elle d'apprendre le monde par l'interaction, d'après les chercheurs d'Huawei

    L'intelligence générale artificielle (AGI), qui surpasse l'intelligence humaine dans presque tous les domaines, verrait le jour d'ici 10 ans, a déclaré Masayoshi Son, PDG de SoftBank

    « L'AGI est le mensonge de l'année. L'intelligence artificielle générale n'existe pas », selon un critique qui affirme que ce mensonge est raconté pour des raisons financières et politiques

  16. #156
    Membre du Club
    Homme Profil pro
    Collégien
    Inscrit en
    Novembre 2020
    Messages
    15
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 58
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Collégien

    Informations forums :
    Inscription : Novembre 2020
    Messages : 15
    Points : 55
    Points
    55
    Par défaut
    Les personnes dyspraxiques sont donc condamnées à être moins intelligente que la moyenne. J'irai jusqu'à donner un mauvais exemple comme Stephen Hawking...
    Le jour où l'IAg arrive, nous aurons une connaissance infinie en mathématiques, est-ce que cette AI prendra le temps de discuter avec nous, sa curiosité naturelle lui demandant d'explorer tous les champs de la connaissance qui sont sans limite ! Hormis les mathématiques, il faut faire des expériences car la réalité nécessite de connaître les limites à appliquer aux modèles. Le temps n'est pas négatif, etc ...
    Tu veux de l'argent, raconte une grosse bêtise, il y aura toujours quelques investisseurs rêveurs qui auront envie de te croire.
    Avant l'AIg, nous aurons les véhicules autonomes. Il y a des accidents car quand l'humain conduit, il ne peut tout appréhender. L'IA ne pourra pas tout appréhender, il y aura des accidents. Nous aurons confiance à l'IA quand elle sera responsable de 10, 20 ou 100 fois moins d'accident ?

    Fin de la récréation ! l'IA ne bossera pas pour les fainéants ;-)))

  17. #157
    Candidat au Club
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Avril 2024
    Messages
    1
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Isère (Rhône Alpes)

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Avril 2024
    Messages : 1
    Points : 2
    Points
    2
    Par défaut
    Il faudrait déjà définir ce qu'est l'AGI... Si c'est une AI capable d'interagir avec l'environnement immédiat et les êtres humains, oui, il faut probablement passer par des robots. Si c'est une AI capable de raisonner mieux et plus vite que nous, capable de faire des découvertes en sciences, je ne vois pas l'utilité d'un corps.

  18. #158
    Expert confirmé

    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    1 428
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 41
    Localisation : France, Aube (Champagne Ardenne)

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 1 428
    Points : 5 631
    Points
    5 631
    Par défaut
    avec un corps, le robot pourrait manipuler l'environnement et auto apprendre du monde.




    un robot pourrait apprendre tout seul à effectuer certaines actions, (les 1eres générations feraient n'importe quoi ).

  19. #159
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    1 842
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 1 842
    Points : 51 504
    Points
    51 504
    Par défaut Elon Musk prédit que l’IA va surpasser l’humain le plus intelligent en 2025 ou dès 2026
    Elon Musk prédit que l’IA va surpasser l’humain le plus intelligent en 2025 ou dès 2026
    Et que les capacités de l’IA vont dépasser celles de l’ensemble des humains dans les 5 prochaines années

    De 2017 (où Elon Musk affirmait que l’intelligence artificielle est un risque fondamental pour l’humanité) à 2020 en passant par 2019 (où il a déclaré que l’IA est bien plus dangereuse que l’arme nucléaire), sa position sur la question reste constante. Ses craintes portent notamment sur ceci que les avancées dans la filière pourraient déboucher sur une intelligence artificielle dite générale (AGI). Et à ce sujet, il se veut précis dans une récente entrevue en indiquant que « l’intelligence artificielle va surpasser l’humain le plus intelligent en 2025 ou dès 2026 et que les capacités de l’intelligence artificielle vont dépasser celles de l’ensemble des humains dans les 5 prochaines années. » Sa sortie intervient dans un contexte où des observateurs estiment que le concept d’intelligence artificielle générale est un mensonge.

    C’est en raison de ces prédictions que Neuralink d’Elon Musk projette de développer des implants cérébraux susceptibles d’augmenter les capacités des êtres humains pour rivaliser avec l’intelligence artificielle. En des termes simples, cela voudrait dire s’appuyer sur l’intelligence artificielle pour mettre l’humain en capacité de rivaliser avec les robots. Cela s’entend transformer l’humain en une espèce de dispositif connecté à Internet comme le personnage Kusanagi dans Ghost in the Shell.


    La perspective de l’atteinte d’une intelligence artificielle trouve en sus écho dans certains cercles académiques. « L'idée que l'IA puisse devenir plus intelligente que les gens, quelques personnes y ont cru. Mais la plupart des gens pensaient que c'était une erreur. Et je pensais personnellement que c'était loin d'être le cas. Je me disais qu'il fallait attendre dans les 30 à 50 ans, voire plus. Évidemment, je ne le pense plus », prévient Geoffrey Hinton – l’un des pionniers de l’apprentissage profond.


    Des observateurs sont néanmoins d’avis que le concept d’intelligence artificielle générale est un mensonge raconté pour des raisons financières et politiques

    Dans une analyse publiée sur le sujet, le journaliste Blankenhorn expose les aspects critiques de son point de vue comme suit :

    Avant que tout le monde ne commence à publier des articles sur le "meilleur de 2023", voici le mensonge de l'année.

    L'intelligence artificielle générale (AGI)

    Ce mensonge a été élaboré lorsque l'OpenAI a commencé à pousser des programmes d'"intelligence artificielle générative" comme son ChatGPT, et il continue de se répandre. L'IA générative est issue de l'informatique de base de données basée sur le cloud que nous avons depuis une décennie. Elle est issue d'entreprises telles que Salesforce.com, qui vendaient des bases de données en tant que service dans le sillage de l'explosion de l'année 2000.

    L'IA générative combine l'apprentissage automatique à partir d'une grande base de données avec une sortie flexible. Vous voulez une photo d'Elon Musk en rat ? Que diriez-vous d'une chanson sur les arbres dans le style de Steely Dan ? Voulez-vous une histoire sur l'actualité racontée par Mark Twain ? Que diriez-vous de rendre le pare-feu de votre entreprise proactif plutôt que réactif ? Il existe un programme d'IA générative qui vous aide à accomplir toutes ces tâches. C'est génial.

    L'apprentissage automatique sur le Big Data

    Mais l'IA générative n'est pas la même chose que l'intelligence générale.

    Il s'agit d'un apprentissage automatique fondé sur un grand modèle de langage. Il s'agit d'un logiciel dont les résultats imitent ce que les gens ont fait avant lui. Cela signifie qu'elle a besoin d'informations sur ce qui a déjà été fait et d'algorithmes basés sur des données humaines pour faire quoi que ce soit.

    L'IA générative ne peut pas penser. Elle ne peut que calculer.

    Le mensonge sur l'intelligence artificielle générale est, comme la plupart des autres mensonges aujourd'hui, raconté pour des raisons politiques. Sam Altman veut que les grandes entreprises technologiques contrôlent le marché. Il veut que le gouvernement "réglemente" l'IA afin que seules quelques personnes et entreprises puissent l'utiliser, et il veut bien sûr faire partie des élus. Au minimum, son objectif est d'élever considérablement les barrières à l'entrée du nouveau marché.

    En effet, l'IA générative peut rapporter beaucoup d'argent. Elle peut augmenter la productivité. Par exemple, elle peut planifier les ressources d'un hôpital, y compris son personnel, plus efficacement que la direction, parce qu'elle connaît toutes les ressources dont dispose l'hôpital, ainsi que les schémas d'utilisation.

    C'est ce que nous montrent les travaux des entreprises de bases de données existantes. Elles s'appellent toutes vendeuses d'"IA" aujourd'hui. Palantir et ServiceNow connaissent une croissance de 20 à 30 % par an, de manière rentable.

    L'utilisation des clouds pour traiter les données des programmes d'IA a également permis au fabricant de puces Nvidia de croître de 60 % par an. La capacité des clouds est absorbée par les clients, impatients de former de nouveaux modèles, aussi vite qu'elle est installée.

    Mais il ne s'agit pas d'intelligence. Il s'agit de logiciels, d'algorithmes spécifiques conçus pour des ensembles de données spécifiques, avec des cas d'utilisation spécifiques, écrits, installés et gérés par des êtres humains. Ce n'est rien sans vous.

    L'argumentaire de Blankenhorn a suscité de nombreuses réactions dans la communauté. Selon les critiques qui abondent dans son sens, il est important de contrer ce battage médiatique, car il exploite la naïveté des consommateurs afin de leur vendre tout produit estampillé "IA", qu'il soit efficace ou non. « ChatGPT, c'est comme la voyance. Le public est tellement désireux d'obtenir un miracle que même un tour de passe-passe bidon semble miraculeux. Lorsque tant de gens sont soit résignés à l'idée que l'AGI est une chose inévitable, il devient chaque jour plus facile pour une machine de passer le test de Turing sur le plan sociétal », indique un critique.

    Un autre écrit : « nous avons inventé de nouveaux modèles d'apprentissage automatique capables de produire des images et des passages de texte convenables, si bien que les entreprises technologiques pensent que nous sommes sur le point de donner naissance à des esprits numériques qui pensent. Pour le dire simplement, il s'agit de fantasmes stupides et naïfs fondés sur une vision du monde axée sur la fiction. L'IA a changé et continuera de changer le monde en fonction de la façon dont les gens l'utilisent, mais l'idée que des formes de vie numériques conscientes d'elles-mêmes sont sur le point de naître est une fanfaronnade d'entreprise ».

    D'un autre côté, l'analyse de Blankenhorn est sujette à contradictions. « Je suis d'accord pour dire que nous n'avons pas atteint l'AGI, mais son analyse est vraiment stupide. Il a oublié de fournir des preuves. L'ensemble de cet article peut être complètement rejeté. C'est en grande partie d'un argument d'homme de paille. L'argument principal était que les grands modèles de langage ne sont pas des AGI. Mais OpenAI et d'autres groupes travaillant sur les grands modèles de langages (et l'IA en général) ne prétendent pas attendre une AGI d'un grand modèle de langage », a écrit un critique. Selon lui, l'analyse de Blankenhorn n'apporte aucune information utile.

    Un autre critique a écrit : « il s'agit donc de l'argument standard : "il n'y a pas d'intelligence, ce n'est que de l'autocomplétion". La réponse à cela est "qui s'en soucie ?". Si le système est capable d'augmenter la productivité, de nous aider à résoudre des problèmes qui étaient auparavant insolubles (le repliement des protéines) et de remplacer des emplois, alors on se moque de savoir s'il est réellement intelligent ». Mais ce critique est controversé à son tour, puisqu'il semble minimiser l'influence du battage médiatique autour de l'IA et de l'AGI sur les décisions des consommateurs. À la limite, son argument encourage la surmédiatisation de la technologie.

    En somme, bien que Blankenhorn ne remette pas en cause le concept de l'AGI, il s'offusque contre le battage médiatique autour de cette technologie "hypothétique" et ses dangers potentiels pour l'humanité. Il affirme que tout ceci est fait afin de permettre à un petit groupe d'entreprises de contrôler le secteur de l'IA et d'entraver la concurrence en rendant difficile l'entrée de nouveaux acteurs sur le marché.


    Source : Twitter Spaces Nicolai Tangen

    Et vous ?

    Quelle analyse faites-vous du positionnement de Dana Blankenhorn sur l'AGI ?
    Partagez-vous l’avis selon lequel l’IA bénéficie de plus de battage médiatique qu’elle n’a de réelle substance ?
    ChatGPT et les autres célèbres modèles d’IA sont-ils à la hauteur de leur succès ou cela est-il simplement dû à la surmédiatisation ?
    Que pensez-vous de l'AGI ? Sera-t-elle un jour une réalité ou restera-t-elle insaisissable pour toujours ?

    Voir aussi :

    Comment saurons-nous que nous avons atteint une forme d'intelligence générale artificielle ? Pour certains experts en IA, ce sera lorsque la machine aura une cognition de niveau humain

    Comment vous préparez-vous à la probabilité d'un effondrement économique causé par l'AGI ? Certains suggèrent l'achat d'actions technologiques et d'autres pensent que cela n'arrivera pas

    Sam Altman, PDG d'OpenAI, affirme que ChatGPT aurait pu être considéré comme une intelligence générale artificielle il y a 10 ans, il a laissé entendre que le chatbot est victime de l'effet IA
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  20. #160
    Membre extrêmement actif Avatar de Jon Shannow
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    Avril 2011
    Messages
    4 384
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 60
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Responsable de service informatique
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Avril 2011
    Messages : 4 384
    Points : 9 751
    Points
    9 751
    Par défaut
    Citation Envoyé par Patrick Ruiz Voir le message
    Et vous ?

    Quelle analyse faites-vous du positionnement de Dana Blankenhorn sur l'AGI ?
    Je pense que son analyse est bonne. L'AI actuelle n'est qu'une supercherie médiatique pour vendre un produit. Produit que l'on a déjà sous une forme peu abordable pour le grand public. Mais, le "I" de IA, dans ce cas, n'a pas grand chose avec "Intelligence".
    Citation Envoyé par Patrick Ruiz Voir le message
    Partagez-vous l’avis selon lequel l’IA bénéficie de plus de battage médiatique qu’elle n’a de réelle substance ?
    Tout à fait. Ça permet à des entreprises, comme OpenAI d'obtenir des financements sur du vent. C'est un phénomène connu, et généralement, ça fait pshiiit tôt ou tard, entrainant des pertes colossales (que le système fera payer aux plus pauvres, donc pas d'inquiétude)
    Citation Envoyé par Patrick Ruiz Voir le message
    ChatGPT et les autres célèbres modèles d’IA sont-ils à la hauteur de leur succès ou cela est-il simplement dû à la surmédiatisation ?
    Bien sûr que c'est dû à la surmédiatisation. Le reste n'a que peu d'intérêt.
    Citation Envoyé par Patrick Ruiz Voir le message
    Que pensez-vous de l'AGI ? Sera-t-elle un jour une réalité ou restera-t-elle insaisissable pour toujours ?
    Ça, je n'en sait rien. Mais je ne pense pas que je le connaitrai, et c'est tant mieux. Car, quoi qu'il arrive, ce sera toujours le pire que les hommes choisiront.
    Au nom du pèze, du fisc et du St Estephe
    Au nom du fric, on baisse son froc...

Discussions similaires

  1. Réponses: 1
    Dernier message: 09/11/2009, 09h53
  2. Réponses: 0
    Dernier message: 23/09/2009, 12h22
  3. L'État pourrait être le seul actionnaire de l'AFP
    Par ®om dans le forum Politique
    Réponses: 7
    Dernier message: 16/09/2009, 19h20
  4. Steve Jobs pourrait être présent à la WWDC 09 !?
    Par Marcos Ickx dans le forum Apple
    Réponses: 2
    Dernier message: 07/06/2009, 13h09
  5. L'université pourrait être bien?
    Par johankonigsberg dans le forum Etudes
    Réponses: 13
    Dernier message: 07/01/2009, 15h36

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo