IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #381
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 075
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 075
    Points : 209 461
    Points
    209 461
    Par défaut Les départs des membres de direction d'OpenAI suscitent le scepticisme quant aux échéances imminentes de l'IAG
    Les départs des membres de direction d'OpenAI suscitent le scepticisme quant aux échéances imminentes de l'IAG,
    si OpenAI est sur le point de développer une technologie IA révolutionnaire, pourquoi ces experts de l'IA ne restent pas ?

    Au cours de la dernière semaine, OpenAI a connu un bouleversement significatif au niveau de sa direction : Greg Brockman, président et co-fondateur de l’entreprise, prend un congé sabbatique prolongé jusqu’à la fin de l’année. Un autre co-fondateur, John Schulman, a quitté définitivement OpenAI pour rejoindre la société concurrente Anthropic. Peter Deng, vice-président du produit grand public, a également quitté l’équipe derrière ChatGPT.

    L'IAG (intelligence artificielle générale) est le niveau d’intelligence artificielle qui peut accomplir n’importe quelle tâche intellectuelle qu’un humain peut faire. Bien que les chercheurs peinent à trouver une définition universelle, il s’agit d’un objectif ambitieux et controversé, qui soulève de nombreuses questions tant éthiques et sociales que techniques. Certains experts estiment que l’IAG est impossible à atteindre, tandis que d’autres prédisent qu’elle pourrait se produire dans les prochaines décennies.

    Sam Altman a accepté de participer au Hawking Fellowship Award 2023 au nom de l'équipe derrière OpenAI avec les étudiants de Cambridge. À cette occasion, des étudiants ont eu l'opportunité d'échanger avec lui pendant une séance d'une heure environ. Altman a alors affirmé que l’IAG était l’un des plus grands défis de l’humanité, mais aussi l’une des plus grandes opportunités. Il a expliqué que l’IAG pourrait résoudre des problèmes majeurs comme le changement climatique, la pauvreté, la santé ou l’éducation, mais qu’elle pourrait aussi représenter un risque existentiel si elle n’était pas contrôlée.

    En janvier, Sam Altman a affirmé que l'IAG pourrait être développée dans un « avenir raisonnablement proche ». Puis, en juin, l'estimation de trois ans a été sortie du chapeau d'un ingénieur d'OpenAI. Une affirmation qui contraste avec les prédictions plus conservatrices du PDG de Google DeepMind, qui anticipe une décennie, et de Shane Legg, cofondateur de DeepMind, qui évalue à 50 % la probabilité d'atteindre l'IAG d'ici 2028.


    De multiples départs dans la direction d'OpenAI qui entraînent des interrogations sur l'imminence de cette réalisation

    Au cours de la semaine dernière, OpenAI a connu un important bouleversement de sa direction, trois personnalités clés ayant annoncé des changements majeurs. Greg Brockman, président et cofondateur de l'entreprise, prend un congé sabbatique prolongé jusqu'à la fin de l'année, tandis qu'un autre cofondateur, , a quitté définitivement l'entreprise pour sa rivale Anthropic.

    Peter Deng, un chef de produit qui a rejoint OpenAI l'année dernière après avoir travaillé chez Meta Platforms, Uber et Airtable, a également quitté l'entreprise, bien que nous ne sachions pas encore où il se dirige. En mai, le cofondateur d'OpenAI, Ilya Sutskever, a quitté l'entreprise pour fonder une startup rivale, et l'éminent ingénieur logiciel Andrej Karpathy a quitté l'entreprise en février, lançant récemment une entreprise éducative.

    Schulman s'est montré optimiste quant à l'avenir d'OpenAI dans sa note d'adieu sur X. « Je suis convaincu qu'OpenAI et les équipes dont je faisais partie continueront à prospérer sans moi », a-t-il écrit. « Je suis incroyablement reconnaissant d'avoir eu l'occasion de participer à une partie aussi importante de l'histoire et je suis fier de ce que nous avons accompli ensemble. Je continuerai à vous encourager tous, même si je travaille ailleurs ».

    Dans un post sur X, Brockman a écrit : « Je prends un congé sabbatique jusqu'à la fin de l'année. C'est la première fois que je me détends depuis que j'ai cofondé OpenAI il y a 9 ans. La mission est loin d'être achevée ; nous avons encore une IAG sûr à construire ».

    Ces mouvements ont conduit certains à se demander si OpenAI est proche de la percée d'une sorte d'intelligence artificielle raisonnante dont on parle depuis longtemps, si les employés les plus en vue quittent le navire (ou prennent de longues pauses, dans le cas de Brockman) si facilement. Comme l'a déclaré le développeur d'IA Benjamin De Kraker sur X, « si OpenAI est sur le point de parvenir à l'IAG, pourquoi les personnes les plus en vue continuent-elles de partir ? »

    Si OpenAI est sur le point de développer une technologie d'IA révolutionnaire, pourquoi ces experts de l'IA ne restent pas ?

    Et d'ajouter que si OpenAI est sur le point de développer une technologie d'IA révolutionnaire, ces vétérans de l'IA très en vue ne voudraient-ils pas rester dans le coin et participer à ce moment historique ? « C'est une vraie question », écrit-il. « Si vous étiez presque sûr que l'entreprise dont vous êtes un élément clé - et dans laquelle vous avez des parts - est sur le point de mettre au point l'IA d'ici un ou deux ans... pourquoi quitteriez-vous le navire ? »

    L'IAG fait référence à un système d'IA hypothétique qui pourrait égaler l'intelligence humaine dans un large éventail de tâches sans formation spécialisée. C'est l'objectif ultime d'OpenAI :

    « Notre mission est de veiller à ce que l'intelligence artificielle générale, c'est-à-dire les systèmes d'intelligence artificielle qui sont généralement plus intelligents que les humains, profite à l'ensemble de l'humanité. Si l'IAG est créée avec succès, cette technologie pourrait nous aider à élever l'humanité en augmentant l'abondance, en donnant un coup de fouet à l'économie mondiale et en contribuant à la découverte de nouvelles connaissances scientifiques qui repoussent les limites du possible.

    « L'IAG a le potentiel de donner à chacun d'incroyables nouvelles capacités ; nous pouvons imaginer un monde où chacun d'entre nous aurait accès à de l'aide pour presque toutes les tâches cognitives, ce qui multiplierait considérablement la force de l'ingéniosité et de la créativité humaines.

    « D'un autre côté, l'IAG s'accompagnerait également d'un risque sérieux de mauvaise utilisation, d'accidents graves et de perturbations sociétales. Étant donné l'importance des avantages de l'IAG, nous ne pensons pas qu'il soit possible ou souhaitable pour la société d'arrêter définitivement son développement ; au contraire, la société et les développeurs de l'IAG doivent trouver le moyen de bien faire les choses ».

    L'IAG est également un concept qui a suscité des inquiétudes quant aux risques existentiels potentiels pour l'humanité et au remplacement des travailleurs du savoir. Toutefois, le terme reste assez vague, et la communauté de l'IA débat considérablement de ce qui constitue véritablement l'IAG ou de la mesure dans laquelle nous sommes sur le point d'y parvenir.

    L'émergence de la « prochaine grande avancée » en matière d'IA a été considérée par des critiques tels qu'Ed Zitron comme une étape nécessaire pour justifier les investissements massifs dans des modèles d'IA qui ne sont pas encore rentables. L'industrie retient son souffle en espérant qu'OpenAI, ou un concurrent, fasse une percée secrète qui justifiera les coûts massifs associés à la formation et au déploiement des LLM.

    Mais d'autres critiques de l'IA, comme Gary Marcus, ont émis l'hypothèse que les grandes entreprises d'IA ont atteint un plateau de capacité des grands modèles de langage (LLM) centré sur les modèles de niveau GPT-4, étant donné qu'aucune entreprise d'IA n'a encore fait un grand pas au-delà du LLM révolutionnaire qu'OpenAI a publié en mars 2023. Le directeur technique de Microsoft, Kevin Scott, a réfuté ces affirmations en déclarant que les « lois d'échelle » des LLM (qui suggèrent que les capacités des LLM augmentent proportionnellement à la puissance de calcul qui leur est attribuée) continueront à apporter des améliorations au fil du temps et qu'il faudra faire preuve de plus de patience pendant la formation de la prochaine génération (par exemple, GPT-5).

    Nom : acc.png
Affichages : 4042
Taille : 30,0 Ko

    Atteindre l'IAG est-il possible ?

    Jusqu'à présent, aucun système d'IA n'a démontré de manière convaincante les capacités d'IAG, bien que certains aient montré des exploits impressionnants d'ANI dans des domaines spécifiques. Par exemple, GPT-4 peut générer des textes cohérents et diversifiés sur divers sujets, ainsi que répondre à des questions et effectuer des calculs simples basés sur des entrées textuelles ou visuelles. Cependant, GPT-4 repose toujours sur de grandes quantités de données et des invites prédéfinies pour bien fonctionner. Il fait souvent des erreurs ou produit des résultats insensés lorsqu'il est confronté à des scénarios inconnus ou complexes. Mais cela pourrait changer avec GPT5.

    Certains experts affirment que pour atteindre l'IAG, il faudra une compréhension approfondie des interactions complexes entre la cognition, la perception et l'action, ainsi que la capacité d'intégrer de multiples sources de connaissances et d'expériences.

    Malgré les défis et les incertitudes entourant la signification de l'IAG, de nombreux chercheurs et organisations poursuivent activement cet objectif, motivés par le potentiel d'importants avantages scientifiques, économiques et sociétaux.

    Pour mémoire, il existe différents types d’IA selon leur niveau de complexité et de généralité. Voici les principales différences entre l’IA générale, l’IA étroite et la superintelligence artificielle :
    • L’IA générale (IAG ou IA forte) est un type d’IA qui serait capable de comprendre et d’interagir avec n’importe quelle tâche ou domaine, qu’il s’agisse de langage naturel, d’image, de musique, de logique ou d’autres domaines. L’IA générale serait à la hauteur des capacités humaines dans tous les aspects cognitifs et non seulement dans une seule tâche spécifique. L’IA générale n’existe pas encore dans le monde réel, mais c’est le but ultime de beaucoup de chercheurs en IA.
    • L’IA étroite (ANI ou IA faible) est un type d’IA qui existe actuellement et qui est spécialisée dans une seule tâche ou domaine particulier. Par exemple, l’IA étroite peut reconnaître les visages, les voix ou les objets sur une image; jouer aux échecs; traduire des textes; conduire une voiture; ou rechercher des informations sur Internet. L’IA étroite est très performante pour accomplir sa tâche spécifique, mais elle ne peut pas s’étendre à d’autres domaines ou situations.
    • La superintelligence artificielle (ou ASI) est un type hypothétique d’IA qui serait capable de dépasser les capacités humaines dans tous les domaines et aspects cognitifs. La superintelligence artificielle serait plus intelligente que les meilleurs humains dans toutes les disciplines scientifiques, techniques, artistiques et sociales. La superintelligence artificielle pourrait aussi avoir une conscience et une sensibilité propres à elle-même. La superintelligence artificielle n’existe pas encore dans le monde réel, mais c’est une possibilité théorique qui suscite beaucoup d’intérêt et aussi beaucoup de craintes.

    Sources : OpenAI, Ed Zitron, Gary Marcus

    Et vous ?

    Quel pourrait être l’impact de ces départs sur la direction de l’entreprise et sur la réalisation de l’IAG ?
    Comment définiriez-vous l’intelligence artificielle générale ? Partagez votre compréhension de l’IAG et discutez de la proximité de sa réalisation.
    Quelles sont les implications de l’IAG pour la société et la vie quotidienne ? Réfléchissez aux avantages et aux risques potentiels de l’IAG, notamment en matière d’emploi, d’éthique et de sécurité.
    Quelles sont les limites actuelles des modèles de langage basés sur des lois d’échelle ? Explorez les critiques concernant les progrès récents dans l’IA et discutez des défis restants.
    Comment pouvons-nous garantir que l’IAG soit développée de manière bénéfique pour l’humanité ? Evoquez les mesures nécessaires pour éviter les dérives potentielles de l’IAG.

  2. #382
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    991
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 991
    Points : 17 621
    Points
    17 621
    Par défaut Des scientifiques espèrent accélérer la création de l'AGI avec un grand réseau de supercalculateurs
    Des scientifiques espèrent accélérer le développement de l'AGI avec un réseau de supercalculateurs dont le premier nœud sera bientôt déployé
    mais le projet suscite le scepticisme et plusieurs préoccupations

    Des scientifiques de SingularityNET espèrent accélérer le développement de l'intelligence artificielle générale (AGI) à l'aide d'un réseau de superordinateurs. L'objectif de l'entreprise est d'établir "un réseau d'informatique cognitive à plusieurs niveaux" qui hébergera et formera les architectures nécessaires à l'AGI. Les superordinateurs intégreront des éléments de systèmes d'IA avancés comme les réseaux neuronaux profonds, les LLM et des systèmes multimodaux qui relient les comportements humains aux sorties multimédias. Le premier supercalculateur sera mis en service prochainement, mais son achèvement est prévu pour la fin 2024 ou le début 2025.

    Un grand réseau de supercalculateurs visant à accélérer le développement de l'AGI

    L'AGI est un concept futuriste qui vise à concevoir une machine dotée d'une cognition de niveau humain et capable d'autodidacte. L'objectif est que le logiciel soit capable d'effectuer des tâches pour lesquelles il n'est pas nécessairement formé ou développé. L'AGI une avancée significative par rapport aux systèmes d'IA actuels qui excellent dans des domaines spécifiques sur la base de leurs données d'apprentissage, mais peinent à accomplir des tâches cognitives ou de raisonnement dans d'autres domaines. Par exemple, les modèles d'IA entraînés à la génération d'image ne sont pas capables de créer des sites Web.


    En théorie, l'AGI peut résoudre des problèmes complexes dans des situations et des contextes qui ne lui ont pas été enseignés au moment de sa création. Cependant, l'industrie encore est loin de cette révolution en raison de plusieurs défis qu'elle peine à relever. Et pour accélérer les choses, l'entreprise d'IA SingularityNET a annoncé qu'elle s'apprête à déployer un réseau de superordinateurs. SingularityNET est une plateforme décentralisée basée sur la blockchain qui vise à créer un marché mondial pour les services d'IA. Elle a été lancée en 2017 par Ben Goertzel, mathématicien et chercheur américain en IA.

    Mais l'initiative suscite le scepticisme. Précédemment, Yann LeCun, lauréat du prestigieux prix Turing et responsable de l'IA chez Meta, a déclaré que l'AGI est inévitable, mais qu'elle n'arrivera pas l'année prochaine et qu'elle ne sera pas uniquement l'œuvre des LLM. Pour lui, ces modèles d'IA ne sont pas en mesure de résoudre les défis cognitifs tels que le raisonnement, la planification, la mémoire persistante et la compréhension du monde physique. En outre, certains critiques pensent que l'industrie peut augmenter la puissance de calcul à sa guise, mais que cela ne suffit pas de créer une machine capable de penser par elle-même.

    Citation Envoyé par Critique

    Ils peuvent s'assurer que le matériel existe et qu'il est suffisamment puissant pour l'AGI, bien sûr. Cependant, la partie sur laquelle nous sommes toujours bloqués n'est pas la puissance de traitement brute, mais comment faire pour créer quelque chose qui pense par lui-même.

    Les systèmes d'IA dont nous disposons aujourd'hui n'en sont même pas proches, et si l'on considère la façon dont ils fonctionnent sous le capot, je dirai qu'ils ne constituent même pas un pas dans la bonne direction.
    Les superordinateurs développés par SingularityNET intégreront des éléments de systèmes d'IA avancés. Il s'agit notamment des réseaux neuronaux profonds, des grands modèles de langage (LLM) et des systèmes multimodaux qui relient les comportements humains, tels que la parole et les mouvements, aux sorties multimédias. Le tout premier superordinateur devrait être mis en service prochainement, mais son achèvement est prévu pour la fin 2024 ou le début 2025, en fonction des délais de livraison des fournisseurs. Il s'agira d'un supercalculateur modulaire qui intégrera de nombreux composants de pointe.

    Ces composants comprennent : des processeurs graphiques (GPU) L40S de Nvidia, des processeurs Instinct et Genoa d'AMD, des baies de serveurs Tenstorrent Wormhole dotées de GPU H200 de Nvidia, ainsi que des systèmes Blackwell GB200 de Nvidia. L'ensemble constitue l'un des matériels d'IA les plus puissants disponibles sur le marché. Ces composants font partie du matériel le plus puissant disponible aujourd'hui pour la formation et l'inférence des modèles d'IA.

    Un framework open source pour faciliter le développement d'une superintelligence

    « Ce supercalculateur constituera en soi une percée dans la transition vers l'AGI. Bien que les nouvelles approches d'IA neuronale-symbolique développées par l'équipe d'IA de SingularityNET réduisent quelque peu les besoins en données, en traitement et en énergie par rapport aux réseaux neuronaux profonds standard, nous avons toujours besoin d'importantes installations de supercalculateurs », a déclaré Ben Goertzel, cofondateur et PDG de SingularityNET.

    SingularityNET vise à fournir un accès aux données pour la croissance de l'AGI et d'une future superintelligence artificielle, un système hypothétique beaucoup plus avancé cognitivement que n'importe quel humain. Pour ce faire, SingularityNET a développé un logiciel unique appelé "OpenCog Hyperon" pour gérer le cluster de calcul fédéré (distribué). « OpenCog Hyperon est un logiciel libre conçu spécifiquement pour l'architecture des systèmes d'IA. Cette nouvelle infrastructure matérielle est spécialement conçue pour mettre en œuvre OpenCog Hyperon et son écosystème AGI », a déclaré Goertzel.

    Pour permettre aux utilisateurs d'accéder au superordinateur, Goertzel et son équipe utilisent un système de jetons, courant dans le domaine de l'IA. Les utilisateurs ont accès au supercalculateur et, grâce à leurs jetons, ils peuvent utiliser et ajouter des données aux ensembles existants sur lesquels les autres utilisateurs s'appuient pour tester et déployer les concepts de l'AGI. Dans leur forme la plus simple, les jetons d'IA imitent les jetons des jeux vidéo autonomes des salles d'arcade. Les joueurs devaient acheter des jetons qu'ils inséraient ensuite dans le jeu vidéo pour obtenir un certain nombre de chances de jouer.

    Dans ce cas, les données collectées en jouant au jeu sont accessibles à tous les autres joueurs, non seulement dans une salle d'arcade, mais aussi dans les autres salles d'arcade du monde entier. « Le GPT-3 a été entraîné sur 300 milliards de jetons (généralement des mots, des parties de mots ou des signes de ponctuation), et le GPT-4 sur 13 000 milliards », a laissé entendre Nabeel S. Qureshi, chercheur au sein du think tank Mercatus et ingénieur en logiciel.

    Lors d'une conférence en 2018, Goertzel a déclaré : « je ne pense pas que nous ayons besoin d'algorithmes fondamentalement nouveaux. Je pense que nous devons connecter nos algorithmes d'une manière différente de ce que nous faisons aujourd'hui. Si j'ai raison, alors nous avons déjà les algorithmes de base dont nous avons besoin. Je pense que nous sommes à moins de dix ans de la création d'une IA de niveau humain ». Une prédiction audacieuse qui suscite le scepticisme.

    Cependant, il est loin d'être le seul à faire ce type de déclaration audacieuse. Shane Legg, cofondateur de Google DeepMind, a déclaré que l'IA pourrait atteindre ou dépasser l'intelligence humaine d'ici 2028. Mark Mark Zuckerberg, PDG de Meta, poursuit activement l'AGI en investissant 10 milliards de dollars dans la construction de l'infrastructure nécessaire à la formation de modèles d'IA avancés en janvier. Meta envisage même de décupler sa puissance de calcul.

    Les réseaux électriques n'étaient pas préparés à la croissance subite de la demande

    La création de ce réseau de superordinateurs met en lumière la demande croissante d'une immense puissance de calcul pour la recherche sur l'IA. Bien que le projet en soit encore à ses débuts, le déploiement du premier nœud constitue une étape importante. Si le projet est couronné de succès, ce réseau pourrait devenir l'épine dorsale de la recherche sur l'AGI, en fournissant l'infrastructure nécessaire pour relever certains des défis les plus complexes dans ce domaine. Cependant, l'impact climatique de cette nouvelle infrastructure potentiellement énergivore suscite de profondes préoccupations.

    La croissance rapide de l'IA a fait grimper la demande en énergie à un niveau plus élevé que ce qui était prévu. Aux États-Unis, elle mettrait déjà à rude épreuve les capacités de production du pays. Grid Strategies estime que les prévisions de croissance sur neuf ans pour l'Amérique du Nord ont pratiquement doublé par rapport à l'année dernière, car les entreprises construisent des centres de données pour l'IA qui font paraître minuscules les besoins des centres de données traditionnels. Où cela nous mène-t-il ? Comment pouvons-nous naviguer dans un avenir énergétique durable avec l'explosion de l'utilisation de l'IA ?

    Aux États-Unis, les analystes rapportent que les réseaux électriques atteignent peu à peu leur limite. L'année dernière, les prévisions à cinq ans de Grid Strategies tablaient sur une croissance de 2,6 %. Depuis, ce chiffre a presque doublé pour atteindre 4,7 % et les planificateurs de Grid Strategies s'attendent à ce que la demande de pointe augmente de 38 gigawatts. Cela équivaut à la quantité nécessaire pour alimenter 12,7 millions de foyers, soit un peu plus que le nombre total d'unités d'habitation au Texas. Mais plus inquiétant encore, les analystes pensent que ce chiffre est probablement une sous-estimation des besoins réels.

    L'IA est un élément majeur du problème en ce qui concerne l'augmentation de la demande. Les leaders du secteur, comme OpenAI, Amazon, Microsoft et Google, construisent ou recherchent des sites où construire d'énormes centres de données pour héberger l'infrastructure nécessaire au développement de grands modèles de langage, et les entreprises plus petites du secteur sont également très demandeuses d'énergie. Par exemple, selon l'Agence internationale de l'énergie, "une recherche pilotée par ChatGPT consomme environ 10 fois plus d'électricité qu'une recherche sur le moteur de recherche Google".

    La consommation annuelle d'énergie d'un centre de données de Meta basé dans l'Iowa est équivalente à celle de 7 millions d'ordinateurs portables fonctionnant huit heures par jour. L'appétit énergétique de l'IA remet aussi en question les engagements en faveur du climat. La résurgence de l'énergie fossile dans les centres de données pour répondre aux besoins de l'IA contraste fortement avec les engagements de durabilité des entreprises comme Microsoft, Google et Meta.

    Elles prévoient de supprimer entièrement leurs émissions d'ici à 2030. Cependant, l'IA remet en question ces initiatives. Ces entreprises sont les acteurs les plus importants d'une constellation de plus de 2 700 centres de données à travers les États-Unis. Et la construction de nouveaux centres de données est envisagée.

    Source : SingularityNET

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous du réseau de superordinateurs annoncé par SingularityNET ?
    Cette infrastructure va-t-il accélérer le développement de l'AGI comme le prétend SingularityNET ?

    Voir aussi

    « La bulle de la GenAI n'éclatera pas, car les applications à haute valeur ajoutée arriveront assez vite pour éviter que les PDG des Big Tech ne s'épuisent sur la GenAI », affirme l'expert en IA Ben Goertzel

    Si l'humanité parvient à franchir le goulot d'étranglement que constitue la sécurité de l'AGI, on pourrait entrer dans une nouvelle ère d'épanouissement maximal de l'humanité, selon Demis Hassabis

    Meta va décupler sa puissance de calcul dans le cadre de la formation de Llama 4 et pourrait le lancer l'année prochaine, mais l'impact climatique de cette infrastructure potentiellement énergivore inquiète

  3. #383
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 537
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 537
    Points : 2 962
    Points
    2 962
    Par défaut
    C'est quoi, l'idée, exactement ?

    On nous annonce qu'on a besoin de nous faire augmenter le prix de l'énergie (vous savez, ce truc accessoire qui a suscité la création du mouvement des Gilets Jaunes), dans le seul but de créer du chômage.

    Une chose à préciiser : c'est urgent ?

    Non parce que comme pain sur la planche nous avons encore d'autres trucs complètement accessoires à gérer, en France en tout cas, comme mettre sur pied un gouvernement, s'assurer qu'il soit crédible et pas seulement auprès des gros investisseurs, vaguement aligner quelques têtes dans la perspective de répondre au défi consécutif à la présence de Macron au pouvoir ...

    Bon alors je disais, faire augmenter le coût de l'énergie pour créer du chômage, c'est urgent ?

    Si nous nous occupons de la dette avant nous ne nous en remettrons pas ?

  4. #384
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    991
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 991
    Points : 17 621
    Points
    17 621
    Par défaut Andrew Ng : « l'AGI n'arrivera pas avant plusieurs dizaines d'années, voire plus »
    « L'AGI n'arrivera pas avant plusieurs décennies, voire plus », affirme le chercheur en IA Andrew Ng
    qui ajoute que les prédictions sur une arrivée imminente s'appuient sur des définitions biaisées de l'AGI

    Andrew Ng, chercheur en IA, dénonce le battage médiatique autour de l'intelligence artificielle générale (AGI). Il réfute les prédictions audacieuses sur l'arrivée imminente de l'AGI et déclare que les entreprises à l'origine de ces prédictions utilisent des définitions erronées ou biaisées de la technologie. Le chercheur en IA a déclaré que ces définitions douteuses permettent à ces acteurs de la course à l'AGI d'abaisser la barre. Selon lui, si l'on prend en compte la définition standard de l'AGI, l'industrie est encore à des décennies de cette technologie, voire plus, et cette dernière ne sera pas là dans un an ni deux ans.

    Un pionnier de l'IA affirme que l'industrie est encore à des décennies de l'AGI

    Les investisseurs et les entreprises spécialisées dans l'IA injectent actuellement des centaines de milliards de dollars dans la course à l'IA, et une grande partie de cette somme est consacrée au développement d'une technologie encore théorique : l'intelligence artificielle générale. OpenAI, le fabricant du chatbot d'IA ChatGPT, a fait de la création de l'AGI une priorité absolue. Ses rivaux tels que Google, Meta et Microsoft consacrent également leurs meilleurs chercheurs au même objectif. Mais le développement de l'AGI fait face à de nombreux défis et l'un des principaux défis concerne la définition même de la technologie.

    En effet, la définition de l'AGI n'est pas la même pour tout le monde. Cet état de choses crée une certaine confusion quant à la distance qui sépare l'industrie de l'invention de cette technologie qui est censée changer le monde. Cela donne lieu à des prédictions audacieuses de la part de certains acteurs de la course à l'IA. À titre d'exemple, Elon Musk, PDG du constructeur automobile Tesla, s'attend à ce que l'IA surpasse l'intelligence humaine d'ici la fin de l'année 2025.

    Mais le chercheur en IA Andrew Ng affirme que ces prédictions relèvent plus du battage médiatique que de la réalité. Andrew Ng, 48 ans, est chercheur américain en IA et professeur associé au département de science informatique de l'université Stanford. Son travail concerne principalement l'apprentissage automatique et la robotique. Lors d'une récente interview avec Techsauce, Andrew Ng a déclaré que ces prédictions reposent sur des définitions biaisées de l'AGI.

    Citation Envoyé par Andrew Ng

    En ce qui concerne l'AGI, la définition standard est qu'il s'agit d'une IA capable d'accomplir toutes les tâches intellectuelles que l'homme peut accomplir. Par conséquent, lorsque nous aurons l'AGI, l'IA devrait être capable d'apprendre à conduire une voiture, à piloter un avion ou à rédiger une thèse de doctorat à l'université.

    Pour cette définition de l'AGI, je pense que nous en sommes encore à plusieurs décennies, voire plus. J'espère que nous y parviendrons de notre vivant, mais je n'en suis pas sûr.

    L'une des raisons pour lesquelles l'AGI a fait l'objet d'un battage médiatique selon lequel elle sera là dans quelques années seulement est que certaines entreprises utilisent des définitions très inhabituelles de l'AGI et si l'on redéfinit l'AGI de façon à abaisser la barre, alors bien sûr nous pourrions y arriver en 1 ou 2 ans.

    Mais si l'on s'en tient à la définition standard de l'AGI, à savoir une IA capable d'accomplir n'importe quelle tâche intellectuelle que l'homme peut accomplir, je pense que nous en avons encore pour plusieurs décennies, mais je pense que ce serait formidable si nous y parvenions.
    L'échelle de temps utilisée par Andrew Ng est vague et ouvre la voie à de nombreuses spéculations. Son idée pourrait vouloir dire qu'il y a un énorme fossé entre les grands modèles de langage (LLM) actuels et l'intelligence humaine. Et que l'industrie n'a aucune idée de la manière de combler ce fossé. En outre, bien que Andrew Ng parle de définition standard de l'AGI, il est important de souligner que jusqu'à présent, il n'existe aucun consensus dans l'industrie sur le sujet.

    L'un des critiques de son avis a écrit : « Andrew Ng dit qu'ils ont placé la barre bas pour l'AGI, mais personne n'a la définition exacte du terme en premier lieu. Je peux dire qu'il place la barre haut, et nous tournerons en rond. Ensuite, des effets cumulatifs équivalents peuvent affecter la société dès les prochaines générations d'IA. Et cela est plus important que le débat capricieux sur le moment où le monde se mettra d'accord sur ce qu'il faut appeler vraiment AGI ».

    Certains acteurs ont adopté une échelle pour suivre leur évolution vers l'AGI

    L'une des définitions courantes de l'AGI est celle qui décrit la technologie comme une IA avancée capable de raisonner comme les humains. Mais pour certains, c'est plus que cela. Ian Hogarth, coauteur du rapport annuel "State of AI", définit l'AGI comme une « IA semblable à Dieu ». Tom Everitt, chercheur sur la sécurité de l'AGI chez Google DeepMind, la décrit comme un système d'IA capable de résoudre des tâches d'une manière qui ne se limite pas à la façon dont ils ont été formés. Sam Altman, PDG d'OpenAI, a déclaré que ChatGPT aurait pu être considéré comme une AGI s'il était sorti 10 ans plus tôt.

    « Aujourd'hui, les gens se disent qu'il s'agit d'un gentil petit chatbot ou autre », a déclaré Altman. Il estime que ce comportement peut être expliqué par deux choses : l'effet IA et l'absence de consensus sur la définition de l'intelligence. L'expression "effet IA" décrit un phénomène selon lequel une fois qu'une tâche ou une capacité est automatisée ou accomplie avec succès à l'aide de l'IA, elle n'est plus considérée comme faisant partie de la "véritable" IA.

    Autrement dit, dès qu'un système d'IA devient compétent pour une tâche donnée, les gens ont tendance à ne plus le considérer comme une IA et à le percevoir comme une simple opération de routine ou régulière. Ainsi, l'on pense que chaque succès de l'IA la redéfinit. « Nous ne pourrons jamais dire ce qu'est réellement l'AGI si nous continuons à repousser les limites. La technologie peut toujours être améliorée », a écrit un critique en soutien aux propos d'Altman.

    Pour faire face à ce défi, OpenAI a élaboré une échelle de classification à 5 niveaux afin de suivre l'évolution de ses technologies d'IA vers l'AGI. Les niveaux vont des capacités actuelles de l'IA conversationnelle (niveau 1) à une IA capable d'effectuer des tâches organisationnelles (niveau 5). Le système de classification a été présenté aux employés lors d'une réunion à l'échelle de l'entreprise et sera aussi partagé avec les investisseurs et les parties externes.

    Les dirigeants d'OpenAI ont informé le personnel que l'entreprise est convaincue d'en être au stade initial. En outre, la direction a ajouté que l'entreprise est très proche d'un système de niveau 2, composé des machines intelligentes appelées "raisonneurs". Altman a précédemment déclaré qu'il pense que l'AGI pourrait être atteinte au cours de cette décennie. Ce qui signifie qu'OpenAI s'attend à atteindre le niveau 5 de son échelle avant la fin de cette décennie.

    OpenAI n'est pas le seul acteur de la course à l'IA à tenter de contourner le problème avec une échelle de classification. Dans un article publié en novembre 2023, des chercheurs de Google DeepMind ont proposé un cadre de cinq niveaux ascendants d'IA, comprenant des niveaux comme "expert" et "surhumain". Cette échelle ressemble à un système auquel l'industrie automobile fait souvent référence pour évaluer le degré d'automatisation des voitures autonomes.

    Quelques prédictions de chercheurs en IA et de dirigeants sur l'avenir de l'IA

    Demis Hassabis, PDG de Google DeepMind, a déclaré l'année dernière que l'industrie pourrait atteindre une forme d’IA de niveau humain dans une décennie, ce qui donnerait aux machines un sens commun. Selon lui, cette IA serait un système capable de raisonnement causal. En mars, le PDG de Nvidia, Jensen Huang, a déclaré que l'industrie pourrait atteindre une forme d'AGI d'ici à cinq ans. Selon une enquête publiée par "Our World in Data", les prévisionnistes estiment qu'il y a une chance sur deux pour qu'une AGI soit conçue, testée et annoncée publiquement d'ici 2040, c'est-à-dire dans moins de 20 ans.

    Translated, une société de traduction, a mis au point un indicateur, le Time to Edit (TTE), pour calculer le temps nécessaire aux rédacteurs humains professionnels pour corriger les traductions générées par l'IA par rapport aux traductions humaines. Cela pourrait aider à quantifier la vitesse à laquelle nous nous rapprochons de la singularité. Translated a calculé qu'il faut environ une seconde à un traducteur humain pour corriger chaque mot produit par un autre traducteur humain. En 2015, les rédacteurs professionnels mettaient environ 3,5 secondes par mot pour réviser une suggestion traduite par une machine.

    À l'heure actuelle, ce délai a été ramené à 2 secondes. Si cette tendance se poursuit, Translated prévoit que sa technologie d'IA atteindra la qualité de la traduction humaine d'ici la fin de la décennie, voire plus tôt. D'autres enquêtes menées auprès d'experts en IA aboutissent à des conclusions similaires. La pertinence de l'indicateur élaboré par Translated est toutefois remise en cause par de nombreux critiques dans la communauté de l'IA.

    Yann LeCun, lauréat du prestigieux prix Turing et responsable de l'IA chez Meta, ne partage pas la prédiction audacieuse de Musk selon laquelle l'IA surpassera l'intelligence humaine dès l'année prochaine. Le chercheur en IA affirme qu'une AGI est inéluctable, mais qu'elle n'arrivera pas d'ici à un an. Il a également déclaré que l'AGI n'émanera pas des grands modèles de langage (LLM) actuels, bien qu'ils puissent en constituer une composante.

    Pour LeCun, ces modèles d'IA ne sont pas en mesure de résoudre les défis cognitifs tels que le raisonnement, la planification, la mémoire persistante et la compréhension du monde physique. « Il s'agit de quatre caractéristiques essentielles de l'intelligence humaine - et de l'intelligence animale, d'ailleurs - que les systèmes d'IA actuels ne peuvent pas réaliser », explique-t-il. Il affirme notamment que les modèles d'AI actuels ne sont pas plus intelligents qu'un chien.

    Les enquêtes auprès des experts sont un élément d'information à prendre en compte lorsque nous réfléchissons à l'avenir de l'IA. Toutefois, il est important de ne pas surestimer les résultats de ces enquêtes. Selon certains rapports, les experts d'une technologie particulière ne sont pas nécessairement ceux qui sont à même de prédire l'avenir de cette technologie. Ce qui peut parfois donner lieu à un battage médiatique intense autour de cette technologie.

    Source : Andrew Ng

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des propos d'Andrew Ng selon lesquels les prédictions sur l'AGI sont basées sur une définition douteuse de la technologie ?
    Quelles sont vos prédictions sur l'avenir de l'IA ? L'AGI est-elle une technologie à la portée de l'industrie ? Pourquoi ?
    Selon vous, pourquoi l'industrie ne parvient pas à trouver un consensus sur la notion d'intelligence artificielle générale ?

    Voir aussi

    « L'atteinte d'une forme d'intelligence artificielle de niveau humain (AGI) est possible dans une décennie », d'après le PDG de Google Deepmind pour le développement responsable des systèmes d'IA

    Yann LeCun affirme que l'AGI est inévitable, mais qu'elle n'arrivera pas l'année prochaine et qu'elle ne sera pas uniquement l'œuvre des LLM, il propose une piste pour créer une IA de niveau humain

    Des PDG parient jusqu'à 10 millions de dollars contre la récente prédiction d'Elon Musk sur l'IA, Elon Musk prédit que l'IA surpassera l'intelligence humaine d'ici la fin de l'année 2025

  5. #385
    Membre extrêmement actif Avatar de Jon Shannow
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    Avril 2011
    Messages
    4 584
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 61
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Responsable de service informatique
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Avril 2011
    Messages : 4 584
    Points : 10 516
    Points
    10 516
    Par défaut
    Elon Musk, PDG du constructeur automobile Tesla, s'attend à ce que l'IA surpasse l'intelligence humaine d'ici la fin de l'année 2025
    Si c'est comme pour son FSD...

  6. #386
    Membre éprouvé
    Homme Profil pro
    Développeur en systèmes embarqués
    Inscrit en
    Mai 2015
    Messages
    262
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 54
    Localisation : Belgique

    Informations professionnelles :
    Activité : Développeur en systèmes embarqués

    Informations forums :
    Inscription : Mai 2015
    Messages : 262
    Points : 1 039
    Points
    1 039
    Par défaut Tout a fait d'accord..
    Citation Envoyé par Jon Shannow Voir le message
    Si c'est comme pour son FSD...
    Ce serait chouette que plusieurs personnes s'en rendent compte, ça nous éviterait 25 news par jour, l'une disant que l'AGI c'est pour demain, et l'autre disant qu'il faudra des décennies ou même que c'est carrément impossible.

    On pourrait débattre sur des sujet plus important que ce brol.

    BàV, et Peace & Love.

  7. #387
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 959
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 959
    Points : 18 930
    Points
    18 930
    Par défaut
    Citation Envoyé par OuftiBoy Voir le message
    On pourrait débattre sur des sujet plus important que ce brol.
    Je pense que si vous écrivez un commentaire (même négatif) ça motive des chroniqueurs à écrire des articles qui parlent d'intelligence artificielle générale.
    Si vous voulez lutter contre ce type d'article il faut les ignorer totalement.

    Quand dans 1 topic il y aura 15 articles à la suite sans aucun commentaire de membre, peut-être que des chroniqueurs écriront moins d'article liés à ce sujet.
    Mais peut-être que je dis n'importe quoi et que les chroniqueurs s'en foutent totalement d'écrire des articles qui provoquent des réactions.

    Citation Envoyé par OuftiBoy Voir le message
    l'une disant que l'AGI c'est pour demain, et l'autre disant qu'il faudra des décennies ou même que c'est carrément impossible.
    Parfois c'est dans le même article.
    Par exemple :

    Citation Envoyé par Mathis Lucas Voir le message
    En effet, la définition de l'AGI n'est pas la même pour tout le monde. Cet état de choses crée une certaine confusion quant à la distance qui sépare l'industrie de l'invention de cette technologie qui est censée changer le monde. Cela donne lieu à des prédictions audacieuses de la part de certains acteurs de la course à l'IA. À titre d'exemple, Elon Musk, PDG du constructeur automobile Tesla, s'attend à ce que l'IA surpasse l'intelligence humaine d'ici la fin de l'année 2025.

    Mais le chercheur en IA Andrew Ng affirme que ces prédictions relèvent plus du battage médiatique que de la réalité. Andrew Ng, 48 ans, est chercheur américain en IA et professeur associé au département de science informatique de l'université Stanford. Son travail concerne principalement l'apprentissage automatique et la robotique. Lors d'une récente interview avec Techsauce, Andrew Ng a déclaré que ces prédictions reposent sur des définitions biaisées de l'AGI.
    Le bon côté des propos de Musk c'est qu'il suffit d'attendre 2026 pour savoir si il s'était trompé en 2024.

    J'imagine que si une entreprise dit que ça va prendre 30 ans, les investisseurs vont un peu moins se bousculer pour investir.

  8. #388
    Expert éminent
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    1 738
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 42
    Localisation : France, Aube (Champagne Ardenne)

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 1 738
    Points : 6 495
    Points
    6 495
    Par défaut
    a la défense des chroniqueurs, au moins on reste dans la technologie.

    car les sites comme frandroid_watt, clubic_hiotte, ces des articles sur Musk ou les voitures électriques avec des commentaires qui tourne en rond sur musk et un fdp, un abrutis, un cons et la voiture electrique c'est de la merde, c'est trop cher....etc.
    J'espere ne jamais voir ce genre d'article torchon sur ce site.
    et j'apprécie le niveau du débat aussi, ça discute, ça débat, sans jamais d'insulte ou autres.


    le site est vaste, vous avez quand même du choix niveau variétés des sujets des articles.

    Si j'ai une remarque, les articles mise en avant tourne un peu en rond par contre on a eu la période elun musk, la période bitcoin, la période nfc, maintenant la période IA...
    Bon au moins avec l'algo developpez.net on sais toujours quel est la tendance dans la tech.


    Pour la news, l'agi arrivera quand ca arrivera, si elle arrive un jours.
    il semble peu probable que ca arrive dans moins de 5ans vu l'état des ia actuels et des fuites qu'on a des futurs modèles.

    l'agi est elle réalisable techniquement ? c'est encore en débat cette questions, beaucoup d'expert affirme que non et d'autres oui. On comprends pas comment fonctionne un cerveau, les processus pour le développer, alors comment être sur qu'une architecture basé sur des cartes graphiques peut permette d'atteindre l'agi ?
    car bon un cerveau humain sa consomme moins de 20watt, donc tant qu'on aura besoin de datacenter qui consomme des milliers de watt pour faire des résultats à la chatgpt, c'est que l'architecture hardware n'est pas bonne.

    pourtant un cerveau humain, quand on dort, produit des reves, des images en full résolution full 4k hyper réaliste avec un super moteur physique, j'attends un processeur au silicium ou biologique qui me produira ce genre de rendu pour 20watt.

  9. #389
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 977
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 977
    Points : 38 450
    Points
    38 450
    Par défaut Un essai gouvernemental révèle que l'IA est moins performante que l'homme pour résumer des informations
    L'IA est pire que l'homme pour résumer l'information dans tous les domaines,
    selon un essai gouvernemental

    L'intégration de l'intelligence artificielle (IA) dans les processus de travail soulève des débats complexes, particulièrement lorsqu'il s'agit de tâches qui requièrent une analyse critique et une compréhension nuancée des informations. Un essai gouvernemental australien, mené pour la Securities and Investments Commission (ASIC), a révélé que l'IA, en dépit de ses avancées technologiques, est encore loin de pouvoir remplacer les compétences humaines dans des domaines comme le résumé de documents. Utilisant le modèle Llama2-70B de Meta, l'essai a comparé les performances de l'IA à celles des employés humains de l'ASIC, et les résultats ont montré que l'IA est nettement moins performante sur tous les critères évalués.

    Ce constat n'est pas simplement une critique de l'IA, mais soulève des questions fondamentales sur la manière dont cette technologie devrait être déployée dans des environnements professionnels. Plutôt que de réduire la charge de travail, l'IA pourrait en fait l'augmenter en nécessitant des vérifications humaines supplémentaires. Le rapport conclut qu'à ce stade, l'IA doit être utilisée pour compléter, et non remplacer, les tâches humaines, soulignant ainsi la nécessité d'une approche plus nuancée et réfléchie dans l'intégration de l'IA dans les processus de travail.


    Nom : asic.PNG
Affichages : 13800
Taille : 30,0 Ko

    Le développement rapide de l'intelligence artificielle a conduit à sa supériorité dans diverses tâches par rapport à l'homme, selon une étude de l'université de Californie à Berkeley. Les domaines où l'IA a dépassé l'homme incluent la reconnaissance de l'écriture manuscrite, la reconnaissance vocale, la compréhension d'images, la compréhension de la lecture, la compréhension du langage, l'acquisition du bon sens, les mathématiques de l'école primaire et la génération de codes. L'étude révèle également une accélération du rythme auquel l'IA surpasse l'homme dans de nouvelles tâches.

    Cette tendance soulève des questions cruciales pour l'avenir du travail, de la société et de l'humanité. L'automatisation croissante due à la performance accrue de l'IA pourrait entraîner des pertes d'emplois et des changements dans l'organisation du travail. En ce qui concerne la société, l'IA a le potentiel d'améliorer les domaines tels que la médecine, l'éducation et le divertissement, mais elle présente aussi des risques, tels que la propagation de fausses informations et la création d'armes autonomes.

    L'essai gouvernemental australien a été conduit par Amazon pour le compte de l'ASIC, afin d'évaluer l'efficacité de l'intelligence artificielle dans la tâche complexe de résumé de documents. Le modèle d'IA utilisé, Llama2-70B de Meta, a été mis à l'épreuve pour résumer des soumissions issues d'une enquête parlementaire sur les sociétés d'audit et de conseil. L'objectif était de voir dans quelle mesure l'IA pouvait identifier et synthétiser les mentions de l'ASIC, les recommandations, les références réglementaires, tout en conservant le contexte et les références pertinentes.

    Le processus de l'essai impliquait une évaluation comparative où les résumés générés par l'IA étaient confrontés à ceux produits par des employés de l'ASIC, chacun ayant été soumis à des instructions similaires. Un groupe de réviseurs a ensuite évalué à l'aveugle les résumés en se concentrant sur divers critères : cohérence, précision, référence aux documents et capacité à capter l'essence du contenu original. Les résultats ont été sans équivoque : les résumés humains ont surpassé ceux de l'IA dans tous les aspects évalués, obtenant un score de 81 % contre 47 % pour l'IA.

    Les faiblesses de l'IA identifiées par les évaluateurs étaient multiples. Les résumés générés par la machine manquaient souvent de nuances et de contexte, deux éléments essentiels pour comprendre pleinement un document complexe. De plus, l'IA a été trouvée coupable d'inclure des informations incorrectes ou non pertinentes, ce qui pouvait conduire à des erreurs d'interprétation. Ces lacunes ont obligé les humains à intervenir pour vérifier et corriger les résumés, augmentant ainsi la charge de travail au lieu de la réduire.

    Le rapport a également souligné que bien que des améliorations futures de l'IA soient possibles, les capacités actuelles de la technologie sont insuffisantes pour des tâches qui nécessitent un jugement critique et une compréhension profonde des subtilités textuelles. Il en ressort que l'IA, dans sa forme actuelle, ne peut rivaliser avec la capacité humaine à analyser et résumer des informations de manière critique.

    L'intelligence artificielle peut parfois compliquer le travail au lieu de l'alléger

    Le constat que l'intelligence artificielle est encore incapable de remplacer les compétences humaines dans des tâches analytiques comme le résumé de documents n'est pas surprenant, mais il soulève des interrogations essentielles sur la manière dont cette technologie devrait être intégrée dans les processus professionnels. La tendance à automatiser des tâches complexes sans une compréhension claire des limites de l'IA peut conduire à des résultats contre-productifs, comme illustré par cet essai.

    Premièrement, la question des nuances et du contexte est centrale dans cette analyse. L'IA, en dépit de ses avancées, reste une technologie basée sur des modèles statistiques qui ne peuvent pas encore saisir les subtilités de la langue humaine de manière aussi précise qu'un être humain. Cette limitation n'est pas seulement technique, mais elle a des implications éthiques. En effet, si l'IA nécessite une supervision humaine accrue, elle risque de transformer ce qui est perçu comme un gain d'efficacité en une source de travail supplémentaire, voire de frustration.

    Deuxièmement, l'idée que l'IA devrait être utilisée pour compléter les compétences humaines plutôt que pour les remplacer est un point clé. Il est tentant pour les organisations de chercher à automatiser certaines tâches pour réduire les coûts ou accélérer les processus, mais cette approche peut se révéler myope si elle ne prend pas en compte les compétences uniques que les humains apportent, notamment dans l'interprétation des informations et la prise de décision. Cet essai montre clairement que la tentation de remplacer complètement les humains par des machines dans des tâches analytiques complexes peut être mal avisée.

    Enfin, la transparence dans l'utilisation de l'IA est un aspect souvent négligé mais crucial. Le public et les professionnels doivent être pleinement informés de la manière dont l'IA est utilisée, surtout lorsqu'il s'agit de traiter des informations sensibles ou complexes. La confiance dans la technologie est essentielle, et cette confiance ne peut être maintenue que si les utilisateurs savent exactement comment et pourquoi l'IA est déployée. Dans ce contexte, l'appel à la transparence du sénateur Shoebridge est pertinent et souligne l'importance de ne pas se précipiter dans l'intégration de l'IA sans une évaluation rigoureuse de ses implications.

    En conclusion, bien que l'intelligence artificielle offre un potentiel indéniable pour transformer les processus de travail, cet essai australien montre que son utilisation doit être abordée avec prudence. Les capacités actuelles de l'IA sont encore limitées, surtout lorsqu'il s'agit de tâches qui nécessitent une analyse nuancée et une compréhension contextuelle. Pour le moment, l'IA devrait être utilisée comme un outil pour augmenter l'efficacité humaine, et non pour la remplacer, afin de garantir que la technologie est utilisée de manière bénéfique et productive.

    Source : Australian Securities and Investments Commission

    Et vous ?

    Les conclusions de l'essai gouvernemental australien sont-elles pertinentes ?

    Le rapport a mentionné la nécessité d'une vérification humaine accrue en cas d'utilisation de l'IA pour le résumé de documents. Quels sont les impacts potentiels de cette vérification supplémentaire sur les processus de travail et la productivité globale ?

    Comment les organisations peuvent-elles équilibrer l'utilisation de l'IA et des compétences humaines pour éviter les situations où l'IA augmente la charge de travail au lieu de la réduire ?

    Voir aussi :

    L'IA a surpassé l'homme dans un certain nombre de tâches et la vitesse à laquelle l'homme est surpassé dans de nouvelles tâches augmente, un défi pour notre identité et notre avenir collectif ?

    L'IA pourrait surpasser l'homme dans toutes les tâches d'ici 2047, selon une enquête auprès de 2,778 chercheurs

    Des PDG parient jusqu'à 10 millions de dollars contre la récente prédiction d'Elon Musk sur l'IA, Elon Musk prédit que l'IA surpassera l'intelligence humaine d'ici la fin de l'année 2025

  10. #390
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 075
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 075
    Points : 209 461
    Points
    209 461
    Par défaut Un professeur d'informatique du MIT teste l'impact de l'IA sur la formation des programmeurs
    Un professeur d'informatique du MIT teste l'impact de l'IA sur la formation des programmeurs :
    l'attention constante portée à l'intégration de l'IA dans la plupart des secteurs d'activité modifie la manière dont l'informatique est enseignée

    L’intelligence artificielle (IA) transforme de nombreux secteurs, y compris l’éducation. Une récente expérience menée par Eric Klopfer, professeur au Massachusetts Institute of Technology (MIT), a exploré comment l’IA influence l’apprentissage des programmeurs.

    L'automne dernier, Eric Klopfer a décidé de mener une expérience dans son cours d'informatique de premier cycle au Massachusetts Institute of Technology (MIT). Il a divisé la classe en trois groupes et leur a donné une tâche de programmation à résoudre en langage Fortran, qu'aucun d'entre eux ne connaissait.

    Chaque groupe avait accès à différents outils pour résoudre le problème :
    • Un groupe a été autorisé à utiliser ChatGPT pour résoudre le problème;
    • le deuxième groupe a été invité à utiliser le grand modèle linguistique (LLM) Code Llama de Meta ;
    • et le troisième groupe n'a pu utiliser que Google, sans assistance d’IA.

    L’objectif était de comparer non seulement la rapidité avec laquelle chaque groupe pouvait résoudre le problème, mais aussi la qualité de leur compréhension et leur capacité à retenir les informations.

    Nom : bot.png
Affichages : 245078
Taille : 268,3 Ko

    Les résultats

    Les résultats ont montré que le groupe utilisant ChatGPT a résolu le problème le plus rapidement, suivi par le groupe utilisant Code Llama, et enfin le groupe utilisant Google, qui a mis encore plus de temps, car il a dû décomposer la tâche en plusieurs éléments.

    Cependant, lorsque les étudiants ont été testés sur leur capacité à résoudre le problème de mémoire, les résultats ont été inversés : le groupe ChatGPT « ne s'est souvenu de rien et a échoué », se souvient Klopfer, professeur et directeur du programme de formation des enseignants Scheller du MIT et de The Education Arcade. En revanche, la moitié du groupe Code Llama a réussi le test. Le groupe qui a utilisé Google ? Tous les élèves ont réussi.

    « Il s'agit d'une leçon éducative importante », a déclaré Klopfer. « Travailler dur et se battre est en fait une façon importante d'apprendre. Lorsqu'on vous donne une réponse, vous ne vous débattez pas et vous n'apprenez pas. Et lorsque le problème devient plus complexe, il est fastidieux de revenir au début d'un grand modèle de langage pour tenter de comprendre et l'intégrer. »

    En revanche, la décomposition du problème en éléments permet d'utiliser un LLM pour travailler sur de petits aspects, au lieu d'essayer d'utiliser le modèle pour l'ensemble d'un projet, ajoute-t-il. « Ces compétences, qui consistent à décomposer le problème, sont essentielles à l'apprentissage ».

    Cet exemple a permis à Klopfer de conclure avec confiance que l'informatique n'est pas condamnée à l'heure où l'IA se fraye un chemin dans tous les secteurs d'activité. D'autres experts en informatique conviennent que plus l'IA sera utilisée, plus la nature des emplois changera, et qu'il faudra donc continuer à enseigner aux humains des concepts de base tels que les statistiques et la connaissance du fonctionnement des systèmes.

    « Il faut toujours les bases pour être des informaticiens et des ingénieurs logiciels efficaces », a déclaré Beena Ammanath, responsable de l'IA digne de confiance et de la technologie éthique chez Deloitte.

    Malgré toutes les craintes concernant les suppressions d'emplois dues à l'IA, une étude récente du Computer Science and Artificial Intelligence Laboratory (CSAIL) du MIT a révélé que l'automatisation des emplois humains pourrait prendre plus de temps qu'on ne le pensait auparavant. Selon l'étude, seuls 23 % environ des salaires liés aux tâches de vision pourraient être remplacés de manière rentable par l'IA, ce qui indique que le déplacement des emplois dû à l'IA, en particulier dans le domaine de la vision par ordinateur, risque de se produire plus lentement qu'on ne l'avait envisagé au départ.

    Les résultats « suggèrent que nous devrions nous attendre à ce que les effets de l'automatisation de l'IA soient moins importants que les effets d'automatisation/destruction d'emplois déjà observés dans l'économie », indique l'étude. « Il n'est pas certain que l'ajout de l'automatisation par l'IA à ces effets existants augmentera de manière substantielle la destruction globale d'emplois. Bien qu'il soit probable que des emplois soient perdus, « nous pensons également qu'une fraction substantielle de l'automatisation des tâches par l'IA se produira dans des domaines où l'automatisation traditionnelle est en cours », observe l'étude du CSAIL.

    Nom : min.png
Affichages : 39981
Taille : 15,1 Ko

    Comment l'enseignement de l'informatique va évoluer pour aborder l'IA

    L'accent mis sur l'intégration de l'IA dans la plupart des secteurs d'activité va également modifier la manière dont l'informatique sera enseignée, offrant des opportunités « tout à fait considérables », selon Risto Miikkulainen, professeur d'informatique à l'université du Texas à Austin et vice-président associé de l'intelligence évolutive chez Cognizant AI Labs.

    Avec l'arrivée d'outils tels que le chatbot Copilot de Microsoft, par exemple, certains pourraient se demander pourquoi ils devraient se donner la peine d'apprendre à coder. Miikkulainen pense que les étudiants utilisent Copilot et d'autres chatbots principalement « comme un tuteur pour les devoirs de programmation » afin de suggérer des modifications.

    « Tout d'un coup, l'enseignement de la programmation devient beaucoup plus vivant », explique Miikkulainen.

    Reid Gordon Simmons, professeur de recherche à l'Institut de robotique de l'université Carnegie Mellon, ajoute que, de la même manière que les compilateurs traduisent le code source d'un langage de programmation en code machine, ce qui évite aux ingénieurs en informatique d'avoir à comprendre les assembleurs, « l'utilisation de l'IA et de la ML rendra de moins en moins nécessaire la compréhension des détails du codage ».

    Cependant, il est toujours important d'apprendre aux gens à coder, tout simplement parce qu'une partie du travail d'informaticien consiste à comprendre les processus, a déclaré Simmons. « Mon analogie est d'enseigner l'arithmétique à des enfants de sept ans. Lorsque vous arrivez au collège, plus personne ne fait d'arithmétique à la main ; vous utilisez des calculatrices ».

    Même si les calculatrices peuvent faire le travail à votre place, vous devez toujours comprendre les concepts, a-t-il ajouté. « De même, les informaticiens devront comprendre les principes fondamentaux de la programmation afin d'être efficaces dans leur travail, mais tout comme avec les calculatrices, ils n'auront pas à coder beaucoup ».

    L'IA nécessite l'enseignement de disciplines ou d'aspects entièrement nouveaux de l'informatique, tels que l'IA responsable et la manière d'empêcher l'utilisation abusive de l'IA, a déclaré Miikkulainen. « Il y aura tellement de gens qui utiliseront [les systèmes d'IA] sans comprendre ce qu'il y a sous le capot ».

    De nouvelles filières universitaires apparaîtront également dans des domaines tels que la science des données, l'apprentissage automatique, l'expérience utilisateur et l'ingénierie mobile, ainsi que dans des branches spécifiques de l'IA, telles que l'IA générative, les LLM et la vision par ordinateur, a déclaré Ammanath de Deloitte. Cela permettra non seulement de préparer les étudiants aux emplois du futur proche et de les rendre plus commercialisables, mais aussi de maintenir la compétitivité des États-Unis par rapport aux autres pays dans la course mondiale à l'armement en matière d'IA.


    Les éducateurs face aux hallucinations des LLM : enseigner à être sceptique dans un monde de textes générés par l'IA

    Les éducateurs sont prudents, compte tenu de la tendance à l'hallucination du LLM. « Nous devons apprendre aux étudiants à être sceptiques à l'égard des résultats et à s'approprier la vérification et la validation de ces derniers », explique Jeanna Matthews, professeur d'informatique à l'université Clarkson de Potsdam, dans l'État de New York. .

    Il ajoute que l'IA générative « peut court-circuiter le processus d'apprentissage des étudiants qui s'y fient trop ». Chang reconnaît que cette dépendance excessive peut être un piège et conseille à ses camarades étudiants d'explorer eux-mêmes les solutions possibles aux problèmes afin de ne pas perdre cette pensée critique ou ce processus d'apprentissage efficace. « Nous devrions faire de l'IA un copilote - et non le pilote automatique - de l'apprentissage », déclare-t-il.

    ChatGPT a impressionné le monde par la profondeur de ses connaissances et la fluidité de ses réponses, mais un problème a entravé son utilité : Il n'arrête pas d'halluciner. Oui, les grands modèles de langage (LLM) hallucinent, un concept popularisé par les chercheurs en IA de Google en 2018. Dans ce contexte, l'hallucination fait référence à des erreurs dans le texte généré qui sont sémantiquement ou syntaxiquement plausibles, mais qui sont en fait incorrectes ou absurdes. En bref, vous ne pouvez pas faire confiance à ce que la machine vous dit.

    C'est pourquoi, même si le Codex d'OpenAI ou le Copilot de Github peuvent écrire du code, un programmeur expérimenté doit toujours examiner le résultat - l'approuver, le corriger ou le rejeter avant de le laisser se glisser dans une base de code où il pourrait faire des ravages. Les enseignants du secondaire apprennent la même chose. Un rapport de lecture ou un essai historique rédigé par ChatGPT peut être facile à lire, mais peut facilement contenir des « faits » erronés que l'élève était trop paresseux pour déceler.

    Les hallucinations constituent un problème sérieux. Bill Gates a imaginé que ChatGPT ou d'autres modèles linguistiques de grande taille pourraient un jour fournir des conseils médicaux aux personnes qui n'ont pas accès à un médecin. Mais on ne peut pas se fier aux conseils d'une machine sujette aux hallucinations.

    Conclusion

    L’expérience de Klopfer au MIT offre des leçons précieuses pour l’intégration de l’IA dans l’éducation. Bien que l’IA puisse accélérer la résolution de problèmes, elle ne doit pas remplacer les méthodes d’apprentissage qui encouragent la compréhension et la rétention à long terme. Les éducateurs doivent trouver un équilibre pour tirer le meilleur parti des technologies avancées tout en assurant un apprentissage efficace et durable.

    Quelles sont vos pensées sur l’utilisation de l’IA dans l’éducation ? Pensez-vous que les outils d’IA devraient être intégrés davantage dans les programmes scolaires, ou y a-t-il des risques à considérer ? Partagez vos opinions dans les commentaires ci-dessous !

    Sources : MIT Scheller Teacher Education Program, Au-delà de l'exposition à l'IA : quelles sont les tâches qu'il est rentable d'automatiser grâce à la vision par ordinateur ?, ACM

    Et vous ?

    Quels sont, selon vous, les avantages et les inconvénients de l’utilisation de l’IA comme outil d’apprentissage pour les programmeurs ?
    Pensez-vous que l’IA pourrait remplacer les méthodes d’enseignement traditionnelles, ou devrait-elle être utilisée en complément ? Pourquoi ?
    Avez-vous déjà utilisé des outils d’IA pour apprendre à programmer ? Si oui, comment cela a-t-il influencé votre apprentissage ?
    Comment les éducateurs peuvent-ils équilibrer l’utilisation de l’IA avec des méthodes d’apprentissage plus traditionnelles pour garantir une compréhension approfondie des concepts ?
    Quels sont les risques potentiels de dépendre trop fortement de l’IA pour l’éducation, et comment pouvons-nous les atténuer ?
    Pensez-vous que l’IA pourrait aider à personnaliser l’apprentissage en fonction des besoins individuels des étudiants ? Si oui, comment ?
    Comment voyez-vous l’avenir de l’éducation en informatique avec l’intégration croissante de l’IA ?

  11. #391
    Membre éprouvé
    Homme Profil pro
    Développeur en systèmes embarqués
    Inscrit en
    Mai 2015
    Messages
    262
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 54
    Localisation : Belgique

    Informations professionnelles :
    Activité : Développeur en systèmes embarqués

    Informations forums :
    Inscription : Mai 2015
    Messages : 262
    Points : 1 039
    Points
    1 039
    Par défaut Ce n'est que mon opinion...
    Citation Envoyé par Stéphane le calme Voir le message
    Un professeur d'informatique du MIT teste l'impact de l'IA sur la formation des programmeurs :
    l'attention constante portée à l'intégration de l'IA dans la plupart des secteurs d'activité modifie la manière dont l'informatique est enseignée

    L’intelligence artificielle (IA) transforme de nombreux secteurs, y compris l’éducation. Une récente expérience menée par Eric Klopfer, professeur au Massachusetts Institute of Technology (MIT), a exploré comment l’IA influence l’apprentissage des programmeurs.

    L'automne dernier, Eric Klopfer a décidé de mener une expérience dans son cours d'informatique de premier cycle au Massachusetts Institute of Technology (MIT). Il a divisé la classe en trois groupes et leur a donné une tâche de programmation à résoudre en langage Fortran, qu'aucun d'entre eux ne connaissait.

    Chaque groupe avait accès à différents outils pour résoudre le problème :
    • Un groupe a été autorisé à utiliser ChatGPT pour résoudre le problème;
    • le deuxième groupe a été invité à utiliser le grand modèle linguistique (LLM) Code Llama de Meta ;
    • et le troisième groupe n'a pu utiliser que Google, sans assistance d’IA.

    L’objectif était de comparer non seulement la rapidité avec laquelle chaque groupe pouvait résoudre le problème, mais aussi la qualité de leur compréhension et leur capacité à retenir les informations.

    Nom : bot.png
Affichages : 245078
Taille : 268,3 Ko

    Les résultats

    Les résultats ont montré que le groupe utilisant ChatGPT a résolu le problème le plus rapidement, suivi par le groupe utilisant Code Llama, et enfin le groupe utilisant Google, qui a mis encore plus de temps, car il a dû décomposer la tâche en plusieurs éléments.

    Cependant, lorsque les étudiants ont été testés sur leur capacité à résoudre le problème de mémoire, les résultats ont été inversés : le groupe ChatGPT « ne s'est souvenu de rien et a échoué », se souvient Klopfer, professeur et directeur du programme de formation des enseignants Scheller du MIT et de The Education Arcade. En revanche, la moitié du groupe Code Llama a réussi le test. Le groupe qui a utilisé Google ? Tous les élèves ont réussi.

    « Il s'agit d'une leçon éducative importante », a déclaré Klopfer. « Travailler dur et se battre est en fait une façon importante d'apprendre. Lorsqu'on vous donne une réponse, vous ne vous débattez pas et vous n'apprenez pas. Et lorsque le problème devient plus complexe, il est fastidieux de revenir au début d'un grand modèle de langage pour tenter de comprendre et l'intégrer. »
    C'est le vrai problème que causera l'IA au niveau du métier de développeur. Le métier de développeur n'aura plus aucune saveur. Et petit à petit ce "savoir" se perdra. Tout simplement parce qu'il n'intêressera plus personne. Se "former" pour devenir un bon développeur, puis ensuite ne se servir de se savoir que rarement, et en fait surveiller la sortie de l'IA n'a aucun intêret.

    Citation Envoyé par Stéphane le calme Voir le message
    En revanche, la décomposition du problème en éléments permet d'utiliser un LLM pour travailler sur de petits aspects, au lieu d'essayer d'utiliser le modèle pour l'ensemble d'un projet, ajoute-t-il. « Ces compétences, qui consistent à décomposer le problème, sont essentielles à l'apprentissage ».
    Généralement, c'est le "chef de produit" qui s'occupe soit bien de ce travail (car il a au départ une formation de développeur), soit mal (car il n'a pas eu au départ une formation de développeur). Mais actuellement, c'est le développeur qui implémente une partie d'un morceau du soucis, soit s'arrache les cheveux pour essayer de comprendre ce qu'essayé d'exprimer un "chef de projet" qui ne connait rien au métier de développeur.

    Mais c'est déjà une "pratique" qui existe maintenant. Avant, il y avait un développeur qui s'occupait de tout le code. Puis les projet se sont complexifiés, pas forcément par nécessité, mais pour des raisons de "marketing" et "segmentation" de marché. Et le développeur ne s'occupe plus de l'ensemble du projet, ce qui est très néfaste pour son impliquation dans le projet. Avant, il créait quelque chose, et maintenant il doit construire des brique sans vue d'ensemble du projet, il ne sait plus s'approprier le projet, et c'est très frustrant. Et puis surtout, ça ne sert pas à grand chose.

    Il n'y a pas si longtemps, une équipe de 3 personnes gérait un projet et sortait le produit en 1 ans. Maintenant, c'est 9 personnes qui s'occupe d'un projet, et le produit prend 3 ans a être au point.

    C'est la triple peine, des équipes plus grosses, plus de communication, plus de réunions, et des gens démotivés car il savent plus se sentir responsable des bout de code qu'on leur donne à faire. Et celui qui est le mieux placé pour faire avancer le schilblick, c'est le développeur. Parce qu'on peut décrire ce qu'il y a à faire, (mais c'est souvent incompréhensible pour le développeur qui doit partir à la recherche d'information).

    Citation Envoyé par Stéphane le calme Voir le message
    Cet exemple a permis à Klopfer de conclure avec confiance que l'informatique n'est pas condamnée à l'heure où l'IA se fraye un chemin dans tous les secteurs d'activité. D'autres experts en informatique conviennent que plus l'IA sera utilisée, plus la nature des emplois changera, et qu'il faudra donc continuer à enseigner aux humains des concepts de base tels que les statistiques et la connaissance du fonctionnement des systèmes.
    Vu de cette manière, ça retire tout l'intêret du métier.

    Citation Envoyé par Stéphane le calme Voir le message
    « Il faut toujours les bases pour être des informaticiens et des ingénieurs logiciels efficaces », a déclaré Beena Ammanath, responsable de l'IA digne de confiance et de la technologie éthique chez Deloitte.
    Je le redit, ça n'intéressera plus personne, car ce ne sera plus valorisant pour la personne. Et permettez-moi de rire un bon coups quand j'entend de tel dénomination de fonction: responsable de l'IA digne de confiance et de la technologie éthique. Beaucoup de mots mais se qu'ils signifie reste plus que flou. Déjà parce qu'actuellement, il n'y a aucune IA digne de confiance, et j'aimerai qu'on me dise ce qu'est une technologie "éthique" ? La technologie est ce qu'elle est, c'est ce qu'on en fait qui est éthique ou pas.

    Citation Envoyé par Stéphane le calme Voir le message
    Malgré toutes les craintes concernant les suppressions d'emplois dues à l'IA, une étude récente du Computer Science and Artificial Intelligence Laboratory (CSAIL) du MIT a révélé que l'automatisation des emplois humains pourrait prendre plus de temps qu'on ne le pensait auparavant. Selon l'étude, seuls 23 % environ des salaires liés aux tâches de vision pourraient être remplacés de manière rentable par l'IA, ce qui indique que le déplacement des emplois dû à l'IA, en particulier dans le domaine de la vision par ordinateur, risque de se produire plus lentement qu'on ne l'avait envisagé au départ.
    Bein oui, quand l'IA sera au point, et ne fera plus de bugs, oh pardon, on doit dire "hallucination" dans le jargon de l'IA.

    Citation Envoyé par Stéphane le calme Voir le message
    Les résultats « suggèrent que nous devrions nous attendre à ce que les effets de l'automatisation de l'IA soient moins importants que les effets d'automatisation/destruction d'emplois déjà observés dans l'économie », indique l'étude. « Il n'est pas certain que l'ajout de l'automatisation par l'IA à ces effets existants augmentera de manière substantielle la destruction globale d'emplois. Bien qu'il soit probable que des emplois soient perdus, « nous pensons également qu'une fraction substantielle de l'automatisation des tâches par l'IA se produira dans des domaines où l'automatisation traditionnelle est en cours », observe l'étude du CSAIL.

    Nom : min.png
Affichages : 39981
Taille : 15,1 Ko

    Comment l'enseignement de l'informatique va évoluer pour aborder l'IA

    L'accent mis sur l'intégration de l'IA dans la plupart des secteurs d'activité va également modifier la manière dont l'informatique sera enseignée, offrant des opportunités « tout à fait considérables », selon Risto Miikkulainen, professeur d'informatique à l'université du Texas à Austin et vice-président associé de l'intelligence évolutive chez Cognizant AI Labs.

    Avec l'arrivée d'outils tels que le chatbot Copilot de Microsoft, par exemple, certains pourraient se demander pourquoi ils devraient se donner la peine d'apprendre à coder. Miikkulainen pense que les étudiants utilisent Copilot et d'autres chatbots principalement « comme un tuteur pour les devoirs de programmation » afin de suggérer des modifications.

    « Tout d'un coup, l'enseignement de la programmation devient beaucoup plus vivant », explique Miikkulainen.

    Reid Gordon Simmons, professeur de recherche à l'Institut de robotique de l'université Carnegie Mellon, ajoute que, de la même manière que les compilateurs traduisent le code source d'un langage de programmation en code machine, ce qui évite aux ingénieurs en informatique d'avoir à comprendre les assembleurs, « l'utilisation de l'IA et de la ML rendra de moins en moins nécessaire la compréhension des détails du codage ».

    Cependant, il est toujours important d'apprendre aux gens à coder, tout simplement parce qu'une partie du travail d'informaticien consiste à comprendre les processus, a déclaré Simmons. « Mon analogie est d'enseigner l'arithmétique à des enfants de sept ans. Lorsque vous arrivez au collège, plus personne ne fait d'arithmétique à la main ; vous utilisez des calculatrices ».
    Faudrait savoir, l'IA va tout pondre via un prompt du marketing ou bien il faudra toujours savoir développer ?

    Citation Envoyé par Stéphane le calme Voir le message
    Même si les calculatrices peuvent faire le travail à votre place, vous devez toujours comprendre les concepts, a-t-il ajouté. « De même, les informaticiens devront comprendre les principes fondamentaux de la programmation afin d'être efficaces dans leur travail, mais tout comme avec les calculatrices, ils n'auront pas à coder beaucoup ».
    Et si on demandait à un physicien nucléaire de faire 10 ans d'étude pour connaitre le métier, puis qu'il ne peut que vérifier si l'IA ne se trompe pas ? On ira droit dans le mur, car petit à petit, on fera de plus en plus confiance à l'IA, et quand surviendra un problème à une centrale nucléaire que l'IA ne sait réssoudre, le gars dont on a mit les compétance en veilleuse pendant 20 ans, il ne va forcément bien réagir, ni rapidement, parce le savoir se sera perdu au fil du temps.

    C'est finalement comme une tesla AutoPilot FSD qui conduit toute seule (enfin, l'année prochaine, comme c'est promis toutes les années), mais dont l e conducteur doit rester à l'éveil, pour "reprendre la main" en cas de soucis. Reprendre la main en cas de soucis prend plus de temps que si on est concentré sur la conduite au moment de prendre une décision.

    Citation Envoyé par Stéphane le calme Voir le message
    L'IA nécessite l'enseignement de disciplines ou d'aspects entièrement nouveaux de l'informatique, tels que l'IA responsable et la manière d'empêcher l'utilisation abusive de l'IA, a déclaré Miikkulainen. « Il y aura tellement de gens qui utiliseront [les systèmes d'IA] sans comprendre ce qu'il y a sous le capot ».
    Ah oui bien sur, l'IA fera tout, mais si ça foire, ce sera pas à cause de l'IA, mais de son utilisateur. Et comment définir ce qu'est une utilisation abusive de l'IA ? Parce que ça m'étonnerait que la réponse soit la même en chine qu'usa on europe ou

    Citation Envoyé par Stéphane le calme Voir le message
    De nouvelles filières universitaires apparaîtront également dans des domaines tels que la science des données, l'apprentissage automatique, l'expérience utilisateur et l'ingénierie mobile, ainsi que dans des branches spécifiques de l'IA, telles que l'IA générative, les LLM et la vision par ordinateur, a déclaré Ammanath de Deloitte. Cela permettra non seulement de préparer les étudiants aux emplois du futur proche et de les rendre plus commercialisables, mais aussi de maintenir la compétitivité des États-Unis par rapport aux autres pays dans la course mondiale à l'armement en matière d'IA.
    Bein si c'est ça le futur, je suis bien content que je ne serait plus là pour le voir. Puisse qu'on parle d'éthique un peut plus haut, si on utilisait l'IA pour libérer l"homme de certaines tâches, et qu'on les laissent s'épanouir sur des choses qu'ils aiment vraiment ? Non, bien évidemment la course à la sacro-sainte "productivité" qui ne profite qu'a une élite bien installée, ce n'est pas l'idée, suis-je bête.

    Citation Envoyé par Stéphane le calme Voir le message


    Les éducateurs face aux hallucinations des LLM : enseigner à être sceptique dans un monde de textes générés par l'IA

    Les éducateurs sont prudents, compte tenu de la tendance à l'hallucination du LLM. « Nous devons apprendre aux étudiants à être sceptiques à l'égard des résultats et à s'approprier la vérification et la validation de ces derniers », explique Jeanna Matthews, professeur d'informatique à l'université Clarkson de Potsdam, dans l'État de New York. .

    Il ajoute que l'IA générative « peut court-circuiter le processus d'apprentissage des étudiants qui s'y fient trop ». Chang reconnaît que cette dépendance excessive peut être un piège et conseille à ses camarades étudiants d'explorer eux-mêmes les solutions possibles aux problèmes afin de ne pas perdre cette pensée critique ou ce processus d'apprentissage efficace. « Nous devrions faire de l'IA un copilote - et non le pilote automatique - de l'apprentissage », déclare-t-il.

    ChatGPT a impressionné le monde par la profondeur de ses connaissances et la fluidité de ses réponses, mais un problème a entravé son utilité : Il n'arrête pas d'halluciner. Oui, les grands modèles de langage (LLM) hallucinent, un concept popularisé par les chercheurs en IA de Google en 2018. Dans ce contexte, l'hallucination fait référence à des erreurs dans le texte généré qui sont sémantiquement ou syntaxiquement plausibles, mais qui sont en fait incorrectes ou absurdes. En bref, vous ne pouvez pas faire confiance à ce que la machine vous dit.

    C'est pourquoi, même si le Codex d'OpenAI ou le Copilot de Github peuvent écrire du code, un programmeur expérimenté doit toujours examiner le résultat - l'approuver, le corriger ou le rejeter avant de le laisser se glisser dans une base de code où il pourrait faire des ravages. Les enseignants du secondaire apprennent la même chose. Un rapport de lecture ou un essai historique rédigé par ChatGPT peut être facile à lire, mais peut facilement contenir des « faits » erronés que l'élève était trop paresseux pour déceler.

    Les hallucinations constituent un problème sérieux. Bill Gates a imaginé que ChatGPT ou d'autres modèles linguistiques de grande taille pourraient un jour fournir des conseils médicaux aux personnes qui n'ont pas accès à un médecin. Mais on ne peut pas se fier aux conseils d'une machine sujette aux hallucinations.
    Mais que tout cela est beau. On va former des chirurgiens qui ne fera que 3 opérations dans leur vie ? Vous croyez vraiment que ça va intéresser quelqu'un ? Non, on jetera sur la personne dans une benne, et vive le soleil vert (les connaisseurs comprendront)

    Conclusion

    Citation Envoyé par Stéphane le calme Voir le message
    L’expérience de Klopfer au MIT offre des leçons précieuses pour l’intégration de l’IA dans l’éducation. Bien que l’IA puisse accélérer la résolution de problèmes, elle ne doit pas remplacer les méthodes d’apprentissage qui encouragent la compréhension et la rétention à long terme. Les éducateurs doivent trouver un équilibre pour tirer le meilleur parti des technologies avancées tout en assurant un apprentissage efficace et durable.

    Quelles sont vos pensées sur l’utilisation de l’IA dans l’éducation ? Pensez-vous que les outils d’IA devraient être intégrés davantage dans les programmes scolaires, ou y a-t-il des risques à considérer ? Partagez vos opinions dans les commentaires ci-dessous !

    Sources : MIT Scheller Teacher Education Program, Au-delà de l'exposition à l'IA : quelles sont les tâches qu'il est rentable d'automatiser grâce à la vision par ordinateur ?, ACM

    Et vous ?

    Quels sont, selon vous, les avantages et les inconvénients de l’utilisation de l’IA comme outil d’apprentissage pour les programmeurs ?
    Pensez-vous que l’IA pourrait remplacer les méthodes d’enseignement traditionnelles, ou devrait-elle être utilisée en complément ? Pourquoi ?
    Avez-vous déjà utilisé des outils d’IA pour apprendre à programmer ? Si oui, comment cela a-t-il influencé votre apprentissage ?
    Comment les éducateurs peuvent-ils équilibrer l’utilisation de l’IA avec des méthodes d’apprentissage plus traditionnelles pour garantir une compréhension approfondie des concepts ?
    Quels sont les risques potentiels de dépendre trop fortement de l’IA pour l’éducation, et comment pouvons-nous les atténuer ?
    Pensez-vous que l’IA pourrait aider à personnaliser l’apprentissage en fonction des besoins individuels des étudiants ? Si oui, comment ?
    Comment voyez-vous l’avenir de l’éducation en informatique avec l’intégration croissante de l’IA ?
    [/QUOTE]

    Il y a 2 possibilité. Soit l'IA remplace l'fomme et bienvenu dans le monde "d'Idiocratie", Soit l'IA telle que réveé par certains ne sera pas là avant des dizaine d'année si pas des milliers. Sans compter que tout se ressemblera, l'IA n'inventant rien.

  12. #392
    Expert éminent sénior Avatar de Artemus24
    Homme Profil pro
    Agent secret au service du président Ulysses S. Grant !
    Inscrit en
    Février 2011
    Messages
    6 644
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Agent secret au service du président Ulysses S. Grant !
    Secteur : Finance

    Informations forums :
    Inscription : Février 2011
    Messages : 6 644
    Points : 19 905
    Points
    19 905
    Par défaut
    Salut à tous.

    Quel est le but de l'IA ?
    Faire mieux, plus rapidement et moins cher. N'est-ce pas le but économique de toute entreprise !
    Tout ce qui vient entraver ce but sera obsolète !

    Et quand est-il de l'aspect sociologique ? Je veux dire où va se situer l'homme dans tout ça ?
    Ne serait-il pas la grande inconnue que l'IA ne sait pas résoudre ?

    Qu'est devenu l'homme de Neandertal quand l'homme de Cro-Magnon est apparu ?
    Que deviendra l'homo sapiens (l'homme moderne) quand l'IA apparaitra ?

    Tiens cela me rappelle "le grand remplacement", théorie complotiste d'extrême droite.
    Et si c'était vrai ?

  13. #393
    Membre actif Avatar de Fluxgraveon
    Homme Profil pro
    mécanicien
    Inscrit en
    Mai 2024
    Messages
    144
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Lot (Midi Pyrénées)

    Informations professionnelles :
    Activité : mécanicien

    Informations forums :
    Inscription : Mai 2024
    Messages : 144
    Points : 235
    Points
    235
    Par défaut
    Qu'est devenu l'homme de Neandertal quand l'homme de Cro-Magnon est apparu ?
    Il s'est "fondu" dedans.
    Tiens cela me rappelle "le grand remplacement", théorie complotiste d'extrême droite. Et si c'était vrai ?
    Alors ce n'est plus un problème : ce qui disparaît, disparaît.
    Au fait, un complot, comme une conspiration, n'est pas une théorie : i'a ou i'a pas
    Comment une IA pourrait avoir un but (merci de développer, ça m'intéresse énormément) ?

  14. #394
    Membre éclairé
    Homme Profil pro
    autre
    Inscrit en
    Septembre 2015
    Messages
    306
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Yvelines (Île de France)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Septembre 2015
    Messages : 306
    Points : 729
    Points
    729
    Par défaut
    Citation Envoyé par OuftiBoy Voir le message
    C'est le vrai problème que causera l'IA au niveau du métier de développeur. Le métier de développeur n'aura plus aucune saveur. Et petit à petit ce "savoir" se perdra. Tout simplement parce qu'il n'intêressera plus personne. Se "former" pour devenir un bon développeur, puis ensuite ne se servir de se savoir que rarement, et en fait surveiller la sortie de l'IA n'a aucun intêret.
    Je pense que l’IA aura toujours des difficultés. Ok pour travailler sur un projet neuf, il apportera une expertise sur les API sur lesquels il est entraîné (si doc et exemple disponible bien sûr).

    Par contre apprendre les méandre de la documentation d’un projet interne pour s’y interfacer, j’y crois moins. Or dans les grands projets, il y aura beaucoup de cela.

    Enfin, cela élèvera le niveau d’intervention plus architecte que développeur. Cela peut convenir à certains et pas à d’autres.

    On peut faire dire à l’IA n’importe quoi : [1, 2]: This is a list containing two elements, 1 and 2, separated by a comma. This is the standard way to define a list in OCaml. … or c’est le ; la seule manière de séparer les éléments d’une liste en OCaml. Ok, le langage est moins connu que C et l’IA a moins de matière à apprendre, mais dans le cas d’une API interne, cela sera pire.

  15. #395
    Membre éprouvé
    Homme Profil pro
    Développeur en systèmes embarqués
    Inscrit en
    Mai 2015
    Messages
    262
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 54
    Localisation : Belgique

    Informations professionnelles :
    Activité : Développeur en systèmes embarqués

    Informations forums :
    Inscription : Mai 2015
    Messages : 262
    Points : 1 039
    Points
    1 039
    Par défaut Bonjour


    Citation Envoyé par Artemus24 Voir le message
    Salut à tous.
    Quel est le but de l'IA ?
    Faire mieux, plus rapidement et moins cher. N'est-ce pas le but économique de toute entreprise !
    Tout ce qui vient entraver ce but sera obsolète !
    C'est effectivement le but, on pourrait faire le parrallèle avec la 'robotisation' des chaîne de production dans les années 70-80, mais il y a une énorme différence par rapport au changement qui en a découlé. (j'y revient après).

    Citation Envoyé par Artemus24 Voir le message
    Et quand est-il de l'aspect sociologique ? Je veux dire où va se situer l'homme dans tout ça ?
    Ne serait-il pas la grande inconnue que l'IA ne sait pas résoudre ?
    L'homme ? Je ne pense pas que ceux d'en haut se préoccupe de ceux d'en bas. ça n' jamais été le cas dans l'histoire, et ça ne vas pas changer de si tôt.

    Citation Envoyé par Artemus24 Voir le message
    Qu'est devenu l'homme de Neandertal quand l'homme de Cro-Magnon est apparu ?
    Que deviendra l'homo sapiens (l'homme moderne) quand l'IA apparaitra ?
    Je ne suis pas historien, et surement pas spécialiste en ce domaine, mais il n'y a que 2 réponses:
    - Soit il a été balayé par l'homo sapiens,
    - Soit il s'est "fondu" dedans,
    Mais c'est sûrement un mélange des deux...

    Mais là ou je voulais en venir, c'est que la révolution industriel, la robotisation, à permis à une floppée de personnes (et à une majorité), de ne plus devoir faire toute une sorte de travaux pénibles.

    - Ne plus avoir a descendre dans une mine pour aller y perdre ces poumons,
    - Ne plus devoir se casser le dos a porter des chargent très lourdes,
    - Ne plus devoir travailler comme un força pour labourer un champ,
    - Ne plus devoir faire et refaire le même "mouvement" ou la même chose durant toute ça vie.
    - ...

    Dans le cas de la révolution industriel, elle a "profité" à l'homme, même si tous n'en n'ont pas profité de la même manière.

    Dans la "révolution de l'IA", il y aura un changement, mais vert le bas plutôt que vers le haut, pour ce qui concerne l'homme. Si l'IA remplace tout (ce qui n'arrivera pas avant longtemps), on lui demandera de moins en moins (a l'homme) de "penser" et petit à petit tout un "savoir" risque de disparaître. Plus besoin d'ingénieurs (L'IA pondra les plans d'un pont, d'un immeuble), plus besoin de développeurs (l'IA fera le taf via un prompt), plus besoin de chirurgiens, etc. Bref, on peut multiplier les exemples qui iront dans ce sens. Et on se retrouvera dans l'idiocratice (voir le film du même non). Et le monde régressera, l'humain ne s'interessera plus a cultiver leur savoir, car cela n'aura plus d'intérêt, et au final, c'est toute la société qui fera un retour en arrière. Il 'y aura plus personne pour "innover", "bousculer les idée reçues", juste des plantes dans un transat autours d'une piscine au départ, puis ça finira en dictature (car l'homme n'aura plus de valeur, donc plus nécessaire, etc)

    Citation Envoyé par Artemus24 Voir le message
    Tiens cela me rappelle "le grand remplacement", théorie complotiste d'extrême droite.
    Et si c'était vrai ?
    Je ne veux pas rentrer dans un débat "politique" de bas niveau, surtout comme vous abordez le sujet, qui est assez dérangeant, en éludant un sujet avant même d'en discuter, en faisant un lien direct entre "grand remplacement" et "théorie complotiste" et forcément "d'extrème droite." C'est extrêmement récucteur et c'est des propos qui on infusé lentement dans la majorité d'une partie de la population, car on est matraqué d'idées (je dirais même d'idéologie) via des "média" et autre "artistes", tous du même bord, conduisant à une pensée unique et balayant d'un revert de la main dédaigneux, tout discours contradictoire.

    BàV.
    et Peace & Love.

  16. #396
    Expert confirmé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 390
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 390
    Points : 4 209
    Points
    4 209
    Par défaut
    Citation Envoyé par OuftiBoy Voir le message
    Et le monde régressera, l'humain ne s'interessera plus a cultiver leur savoir, car cela n'aura plus d'intérêt, et au final, c'est toute la société qui fera un retour en arrière. Il 'y aura plus personne pour "innover", "bousculer les idée reçues", juste des plantes dans un transat autours d'une piscine au départ, puis ça finira en dictature (car l'homme n'aura plus de valeur, donc plus nécessaire, etc)
    Et pour moi c'est là que le cycle se relance,
    Que se passe-t-il quand les choses dysfonctionnent trop pour qu'elles deviennent viables?
    1. L'humain doit reprendre le contrôle pour avoir des voitures qui roulent, des ordinateurs qui tournent, une tondeuse qui tond etc.
    2. L'humain abandonne ces besoins et revient à l'âge de pierre.

    Perso : je crois plus dans le 1, nous aimons trop notre confort pour qu'il n'y ai pas un petit génie qui refait un truc qui remplit son besoin. Truc qui va intéressé ses voisins qui devront apprendre à le faire aussi etc.
    Et pour moi l'âge de pierre est surtout notre vision actuelle, ce passage sera peut être la révolution vers un système plus censé que le capitalisme actuel.

  17. #397
    Membre éprouvé
    Homme Profil pro
    Développeur en systèmes embarqués
    Inscrit en
    Mai 2015
    Messages
    262
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 54
    Localisation : Belgique

    Informations professionnelles :
    Activité : Développeur en systèmes embarqués

    Informations forums :
    Inscription : Mai 2015
    Messages : 262
    Points : 1 039
    Points
    1 039
    Par défaut Ce n'est que mon opinion...


    Citation Envoyé par totozor Voir le message
    Et pour moi c'est là que le cycle se relance,
    Que se passe-t-il quand les choses dysfonctionnent trop pour qu'elles deviennent viables?
    1. L'humain doit reprendre le contrôle pour avoir des voitures qui roulent, des ordinateurs qui tournent, une tondeuse qui tond etc.
    2. L'humain abandonne ces besoins et revient à l'âge de pierre.

    Perso : je crois plus dans le 1, nous aimons trop notre confort pour qu'il n'y ai pas un petit génie qui refait un truc qui remplit son besoin. Truc qui va intéressé ses voisins qui devront apprendre à le faire aussi etc.
    Et pour moi l'âge de pierre est surtout notre vision actuelle, ce passage sera peut être la révolution vers un système plus censé que le capitalisme actuel.
    Peut-être que ça se relancera après (ton point 1). Mais l'histoire a démontré qu'énormément de "civilisation" anciennes sont arrivées à prospérer, pour ensuite s'écrouler en quelques sciècles.

    Je pense que pour l'être humain, s'il veut survivre encore quelques sciècles, devra (re)passer non pas jusqu'à l'âge de pierre, mais très certainement à un mode de vie très différent que celui que nous vivons depuis trop longtemps.

    L'homme a trop confiance en lui-même, ne prends que trop rarement du recul fasse à un soucis, et ne réagit que lorsqu'il est au pieds du mur.
    Je ne parle pas ici du réchauffement dérèglement climatique, dont on fait tout un foin pour pas grand chose. Que ce dérèglement soit du à l'activiter humaine ou pas, ça ne vaut que 3 cacahuètes fasse au cycle naturelle de la terre.

    Du temps des Romains, le niveau des océans étaient de plusieurs dizaine de mètre plus élevé que maintenant, c'est ce qui a été démontrer lorsque l'on a chercher comment l'empire romains a pu prospérer.

    Il y a eu des mini-âge glacière durant le moyenne âge, qui a eu une période de 2 à 5 ans, est qui s'est produite en quelques années seulement.

    Un nouvel âge glacière devrait se développer d'ici 1000 à 1500 ans, et l'homme ne pourra rien y faire. Il y aura 100 mètres de glace au dessus du niveau de la tour Eiffel. Alors les quelques degrès en plus dans 50 à 100 ans, c'est que dalle.

    L'homme croit trop que les choses ont toujours été ce qu'elle sont, il a une vue très courte sur son passé, et n'arrive pas a voir très loin dans son futur. Et il croit trop qu'il pourra modeler la terre selon son idéal. La vérité, c'est que l'homme n'est que de passage sur cette terre, et qu'il disparaîtra comme tant d'autres occupants avant lui. Il peut gesticuler dans tout les sens, il n'a en fait pas d'emprise sur grand chose.

    C'est mon avis, avec lequel je suis d'accord.
    Chacuns pense ce qu'il veut.

    BàV. et Peace & Love.

  18. #398
    Expert éminent sénior Avatar de Artemus24
    Homme Profil pro
    Agent secret au service du président Ulysses S. Grant !
    Inscrit en
    Février 2011
    Messages
    6 644
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Agent secret au service du président Ulysses S. Grant !
    Secteur : Finance

    Informations forums :
    Inscription : Février 2011
    Messages : 6 644
    Points : 19 905
    Points
    19 905
    Par défaut
    Citation Envoyé par OuftiBoy
    Mais là ou je voulais en venir, c'est que la révolution industriel, la robotisation, à permis à une floppée de personnes (et à une majorité), de ne plus devoir faire toute une sorte de travaux pénibles.
    Ce que tu décris de la révolution industriel est une amélioration des conditions de travail de l'être humain. La grande différence est que l'être humain deviendra obsolète car remplacé par un robot ou une IA, qui fera mieux, travaillera tout le temps, coutera moins cher et surtout ne se mettra pas en grève pour des revendications à troubler la bonne marche d'une entreprise

    Citation Envoyé par OuftiBoy
    Si l'IA remplace tout (ce qui n'arrivera pas avant longtemps), on lui demandera de moins en moins (à l'homme) de "penser" et petit à petit tout un "savoir" risque de disparaître.
    Cette perte de savoir se fait depuis l'orgine de l'homme. Une ancienne technique est remplacée par une nouvelle, moins contraignante en donnant plus d'avantage, voire même moins couteuse. On nomme cela le progrès et quel est l'intérêt d'y revenir puisqu'on sait faire mieux ?

    Le gros problème, que tu ne soulèves pas, est la dépendance de l'homme à ses machines. Que va-t-il faire si elles viennent à tomber en panne, et si l'homme ne sait plus les réparer ? Plus on va se reposer sur ses machines et plus il y a un danger pour l'avenir de l'homme.

    Va-t-on vers une société dystopique à la Orwell (1984 de George Orwell) ou à la Huxley (Le Meilleur des mondes de Aldous Huxley) ? Ce qui est certain, notre mode de vie va considérablement changer, et il y aura nécessairement des laissés-pour-compte.

    Une chose certaine est que le QI de l'homme va tôt ou tard attendre un maximum et ne pourra plus évoluer. Se faire aider par nos machines, pourquoi pas, mais nous ne devons pas jouer aux apprenties sorciers er perdre le contrôle. Ou encore penser que nos machines pourront toujours résoudre nos problèmes que nous produisont car nous nous comportons comme des êtres irresposales.

    Le gros problème de l'avenir de nos sociétés, est de trouver une stabilité que ce soit dans la préservation de nos ressources (on a qu'une seule planète), dans l'accumulation du savoir mais surtout dans celle du bien être humain (et des animaux aussi). Arrêtons de croire que cette frénésie du progrès va tout résoudre. Nous sommes des êtres irresponsables ou seul la violence est la règle. Il faudrait mettre enfin un peu d'intelligence dans ce que nous faisons, et là, c'est pas gagné.

    Citation Envoyé par OuftiBoy
    Je ne veux pas rentrer dans un débat "politique"
    Il n'y a rien de politique, juste une provocation de ma part pour vous faire réagir sur des similitudes entre ce qui se passe actuellement dans nos sociétés et l'avenir radieux que nous propose des utopistes irresposables.

    Citation Envoyé par OuftiBoy
    C'est extrêmement réducteur et c'est des propos qui ont infusé lentement dans la majorité d'une partie de la population, car on est matraqué d'idées (je dirais même d'idéologie) via des "média" et autre "artistes", tous du même bord, conduisant à une pensée unique et balayant d'un revert de la main dédaigneux, tout discours contradictoire.
    Et donc, cela vous empêches de réfléchir par vous même ? Vous préférez être un mouton et suivre le troupeau. Tant mieux pour vous, ou plutôt tant pis si d'autres vont réflechir à votre place et faire des choix que vous allez regrêter par la suite.

    Citation Envoyé par totozor
    Et pour moi c'est là que le cycle se relance,
    Cela se nomme une "révolution", ou si vous préférez un tour pour rien et on recommence là où tout a débuté. Mais comme l'homme n'a pas trop de mémoire, on va recommencer à faire les mêmes erreurs jusqu'à ce que nous ne pouvons pas faire autrement que de prendre enfin un autre chemin.

    Citation Envoyé par totozor
    1. L'humain doit reprendre le contrôle pour avoir des voitures qui roulent, des ordinateurs qui tournent, une tondeuse qui tond etc.
    Le contrôle sur qui ? Sur lui-même ? Cela se nomme de la politique et l'on voit bien le désastre que cela occasionne en ce moment.
    Les forts imposent aux faibles les choix qui ne font que les avantager.
    Le danger est ce déséquilibre permanent de nos sociétés jusqu'au jour où on aurra franchit le point de non retour.

    Citation Envoyé par totozor
    2. L'humain abandonne ces besoins et revient à l'âge de pierre.
    Pas à l'âge de pierre mais dans une société de servitude, en prenant par la force ce que l'autre possède ou a su préserver jusqu'à présent.

    Il n'y a pas plusieurs choix qui se proposent à nous. La seul et unique voie est de trouver la stabilité, le fameux savoir vivre ensemble, si cela est encore possible.

    Citation Envoyé par OuftiBoy
    Mais l'histoire a démontré qu'énormément de "civilisation" anciennes sont arrivées à prospérer, pour ensuite s'écrouler en quelques siècles.
    Parce qu'elles n'ont pas su évoluer vers plus la stabilité et n'ont fait que se reposer sur leur acquis. Autrement dit, après avoir atteint un summum de ce qu'elles ont pu produire, elles ont régréssé.

    Citation Envoyé par OuftiBoy
    L'homme a trop confiance en lui-même, ne prends que trop rarement du recul fasse à un soucis, et ne réagit que lorsqu'il est au pied du mur.
    C'est ce manque de réflexion sur nous même qui nous amène dans des situations que nous ne savons plus comment résoudre.

    Citation Envoyé par OuftiBoy
    Du temps des Romains, le niveau des océans étaient de plusieurs dizaine de mètre plus élevé que maintenant, c'est ce qui a été démontrer lorsque l'on a chercher comment l'empire romains a pu prospérer.
    Et non, c'est le contraire. Le niveau de la mer était beaucoup plus bas que maintenant. On a retrouvé des cités à plus de 150m sous le niveau actuel, comme en Inde.

    @ OuftiBoy : cela ne sert à rien d'avoir une vision pessimiste. Nous avons des problèmes et nous devons trouver des solutions. Ce n'est pas en ne faisant rien que l'on va les résoudre, ni en faisant n'importe quoi que cela ira mieux. Que ce soit l'IA ou la politique, ce sont des problèmes de société qui concernent tout le monde. Nous ne devons pas capituler, ni laisser d'autres faire les choix à notre place. C'est un peu trop facile de créer des problèmes pour laisser à la postérité le choix (si c'est encore possible) de les résoudre. Plus on attendra et plus il sera difficile de les résoudre.

    @ OuftiBoy : le -1, ce n'est pas moi.

  19. #399
    Expert éminent
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    1 738
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 42
    Localisation : France, Aube (Champagne Ardenne)

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 1 738
    Points : 6 495
    Points
    6 495
    Par défaut
    Citation Envoyé par Artemus24 Voir le message
    Cette perte de savoir se fait depuis l'orgine de l'homme. Une ancienne technique est remplacée par une nouvelle, moins contraignante en donnant plus d'avantage, voire même moins couteuse. On nomme cela le progrès et quel est l'intérêt d'y revenir puisqu'on sait faire mieux ?

    Le gros problème, que tu ne soulèves pas, est la dépendance de l'homme à ses machines. Que va-t-il faire si elles viennent à tomber en panne, et si l'homme ne sait plus les réparer ? Plus on va se reposer sur ses machines et plus il y a un danger pour l'avenir de l'homme.

    Cas concret que j'ai eu personnellement pour compiler une version récente de gcc sur une architecture exotique, GCC (et surrement tous les compilateur moderne), nécessite désormais GCC version n-1 pour etre compilé. Impossible de construire gcc avec que du code machine.
    d'ailleurs ces codes machines c'est tres moderne, c'est très compliqué de revenir aux cartes perforés d'ou sont apparues les 1eres technologies.

    On est déja dans ce monde des dépendances quand on a besoin d'un compilateur pour construire un compilateur


    Si ca tombe en panne, c'est pas grave, avec la redondance, on utilise un autre ordinateur. Il est impossible que tous les ordinateurs du monde explose au même moment.
    Donc on réplique la technologie tant hardware que software (les disques en raid, répartie sur plusieurs régions dans le monde)


    après, n'importe quel humain avec une simple encyclopédie/des manuels peut refabriquer quasi toutes les technos datant d'avant 1950.
    la machine de turing c'est assez enfantin a faire, les radios aussis...etc. donc meme si on revenait à l'age de pierre, tant qu'on garde une trace écrite de ces connaissance, on serait capable assez vite de revenir au niveau technologique d'aujourd'hui, en a peine 20-30ans max.
    sur l’échelle de l'humanité c'est rien. Je rappelle que homo sapiens à plus de 100000ans, et a passé 99.99% de sont temps a vivre sans électricité, sans machine à vapeur (19ieme siecle), a juste élever des poules dans des cabanes en bois/pierres.

  20. #400
    Expert éminent sénior Avatar de Artemus24
    Homme Profil pro
    Agent secret au service du président Ulysses S. Grant !
    Inscrit en
    Février 2011
    Messages
    6 644
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Agent secret au service du président Ulysses S. Grant !
    Secteur : Finance

    Informations forums :
    Inscription : Février 2011
    Messages : 6 644
    Points : 19 905
    Points
    19 905
    Par défaut
    Citation Envoyé par Calvaire
    c'est très compliqué de revenir aux cartes perforés d'où sont apparues les 1eres technologies.
    Mais quand serait-il, si pour obtenir une ancienne technologie, il nous faut aussi reconstruire une autre technologie qui en dépend ?

    Pour les perforatrices et les lecteurs, il n'y en a plus sauf dans les musées.
    Mais il n'y a plus du tout de cartes perforées pour les utiliser.
    Ben oui, on ne les fabrique plus car on en a plus du tout l'usage.
    Le problème est moindre, on sait encore fabriquer de la pâte à papier pour fabriquer ces cartes perforées.
    Ouf. Tout n'est pas perdu. On sait encore faire.

Discussions similaires

  1. Réponses: 1
    Dernier message: 09/11/2009, 10h53
  2. Réponses: 0
    Dernier message: 23/09/2009, 13h22
  3. L'État pourrait être le seul actionnaire de l'AFP
    Par ®om dans le forum Politique
    Réponses: 7
    Dernier message: 16/09/2009, 20h20
  4. Steve Jobs pourrait être présent à la WWDC 09 !?
    Par Marcos Ickx dans le forum Apple
    Réponses: 2
    Dernier message: 07/06/2009, 14h09
  5. L'université pourrait être bien?
    Par johankonigsberg dans le forum Etudes
    Réponses: 13
    Dernier message: 07/01/2009, 16h36

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo