IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 047
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 047
    Points : 73 391
    Points
    73 391
    Par défaut L'IA pourrait surpasser l'homme dans toutes les tâches d'ici 2047
    L'IA pourrait surpasser l'homme dans toutes les tâches d'ici 2047, selon une enquête auprès de 2,778 chercheurs.

    Une enquête dévoile les prédictions de 2 778 chercheurs sur le futur de l'IA. Parmi les résultats, les chercheurs pensent que l'IA pourrait surpasser l'homme dans toutes les tâches d'ici 2047.

    L'essor de l'IA a été si incroyablement rapide qu'en l'espace d'une année seulement, elle a réussi à devenir le sujet de discussion central dans le monde de la technologie et dans la vie de tous les jours. La principale question que les gens ont tendance à se poser est de savoir dans quelle mesure l'IA parviendra à remplacer les humains dans un large éventail de tâches. Il s'avère que les chercheurs d'AI Impacts ont essayé de déterminer la probabilité que cela se produise à l'avenir.

    Les chercheurs de cette organisation ont collaboré avec l'Université d'Oxford et l'Université de Bonn pour interroger 2 778 experts qui ont publié leurs réflexions sur l'IA. Selon ces auteurs, il y a 10 % de chances que l'IA surpasse l'homme dans toutes les tâches imaginables au cours des trois prochaines années. Si la tendance actuelle se poursuit, ces experts estiment que les chances qu'elle dépasse l'homme d'ici 2047 sont de l'ordre de 50 %, tous éléments pris en compte. En ce qui concerne les professions humaines en particulier, les chercheurs ont conclu qu'il y avait 10 % de chances qu'elles soient toutes automatisées d'ici à 2037.

    Nom : 0.PNG
Affichages : 8241
Taille : 24,2 Ko

    Traduire des textes, reconnaître des objets après les avoir vus une seule fois, écrire un code de base en Python, écrire une fiction qui pourrait atteindre la liste des best-sellers du New York Times, créer un site de traitement des paiements, et même créer de grands modèles de langage qui leur sont propres pourrait devenir une réalité. L'IA progresse bien plus rapidement que ce que l'on aurait pu imaginer, ce qui rend nécessaire la réflexion sur l'avenir.

    Il convient de préciser qu'il s'agit peut-être des prévisions les plus pessimistes que l'on puisse faire. Des prédictions optimistes ont également vu le jour, beaucoup affirmant que l'IA complétera les emplois plutôt que de les remplacer entièrement, mais le fait est que la perspective pessimiste n'est pas moins probable que la perspective optimiste. En effet, 81 % des personnes interrogées pensent que l'IA sera capable de parler comme les experts humains d'ici 20 ans, ce qui rendrait les personnes interrogées elles-mêmes obsolètes.


    Source : "Thousands of AI Authors on the Future of AI"

    Et vous ?

    Pensez-vous que cette prédiction est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Quand arrivera l'intelligence artificielle supérieure AGI, quand les humains seront totalement remplacés par l'IA, la fin du monde par l'IA : Découvrez toutes les prédictions de 2,778 chercheurs

    Les limites de l'intelligence artificielle : pourquoi l'IA ne peut pas surpasser le cerveau humain, selon des chercheurs de l'Université de Sheffield

    Quelles sont les compétences que l'IA maîtrise mieux que l'homme ? L'IA aurait surpassé l'homme dans la compréhension du langage, mais reste à la traîne dans la génération de code informatique
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 887
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 887
    Points : 36 987
    Points
    36 987
    Par défaut L'IA a surpassé l'homme dans un certain nombre de tâches et la vitesse à laquelle l'homme est surpassé dans de
    L'IA a surpassé l'homme dans un certain nombre de tâches et la vitesse à laquelle l'homme est surpassé dans de nouvelles tâches augmente
    un défi pour notre identité et notre avenir collectif ?

    Le développement rapide de l'intelligence artificielle (IA) a conduit à sa supériorité dans diverses tâches par rapport à l'homme, selon une étude de l'université de Californie à Berkeley. Les domaines où l'IA a dépassé l'homme incluent la reconnaissance de l'écriture manuscrite, la reconnaissance vocale, la compréhension d'images, la compréhension de la lecture, la compréhension du langage, l'acquisition du bon sens, les mathématiques de l'école primaire et la génération de codes. L'étude révèle également une accélération du rythme auquel l'IA surpasse l'homme dans de nouvelles tâches.

    Cette tendance soulève des questions cruciales pour l'avenir du travail, de la société et de l'humanité. L'automatisation croissante due à la performance accrue de l'IA pourrait entraîner des pertes d'emplois et des changements dans l'organisation du travail. En ce qui concerne la société, l'IA a le potentiel d'améliorer les domaines tels que la médecine, l'éducation et le divertissement, mais elle présente aussi des risques, tels que la propagation de fausses informations et la création d'armes autonomes.

    Enfin, la question de savoir si l'IA pourrait éventuellement surpasser l'intelligence humaine suscite des débats sur sa possible menace pour l'humanité, certains craignant une domination mondiale par l'IA, tandis que d'autres estiment qu'elle restera sous le contrôle humain. L'avenir de l'IA demeure incertain, mais son impact significatif sur le monde souligne l'importance de réfléchir aux implications dès maintenant afin de se préparer à l'évolution à venir. L'auteur encourage les lecteurs à partager leurs opinions sur l'avenir de l'IA dans les commentaires.

    Les progrès de l'IA ne vont probablement pas ralentir

    Au cours des dix dernières années, les systèmes d'IA se sont développés à une vitesse fulgurante. Après avoir battu un joueur légendaire au jeu complexe de Go en 2016, l'IA est aujourd'hui capable de reconnaître des images et des paroles mieux que les humains, et de réussir des tests tels que les examens d'écoles de commerce et les questions d'entretien d'Amazon sur le codage.

    La semaine dernière, lors d'une audition de la commission judiciaire du Sénat américain sur la réglementation de l'IA, le sénateur Richard Blumenthal du Connecticut a décrit la réaction de ses électeurs face aux récentes avancées de l'IA. Le mot qui a été utilisé à maintes reprises est « effrayant ». La sous-commission « Vie privée, technologie et droit », qui supervisait la réunion, a entendu les témoignages de trois experts, qui ont souligné le rythme des progrès de l'IA. L'un de ces témoins, Dario Amodei, PDG de l'entreprise d'IA Anthropic, a déclaré que « la chose la plus importante à comprendre à propos de l'IA est la vitesse à laquelle elle évolue ».

    Citation Envoyé par Dario Amodei
    La caractéristique fondamentale de l'intelligence artificielle réside dans sa remarquable rapidité d'évolution. À titre personnel, je n'ai jamais observé de signes de ralentissement des progrès, et des chercheurs avec une expérience plus étendue que la mienne semblent corroborer cette observation. Les avancées sont également prévisibles, découlant de facteurs sous-jacents simples qui ne montrent aucun signe de fléchissement à court terme. Plus précisément, la puissance ou l'intelligence d'un système d'IA peut être estimée en multipliant trois éléments :
    • la quantité de puces utilisées pour son entraînement ;
    • la vitesse de ces puces ;
    • l'efficacité des algorithmes utilisés pour son apprentissage.

    La quantité de puces employées pour former le modèle augmente de 2x à 5x par an. La vitesse des puces croît de 2 fois tous les 1 à 2 ans. L'efficacité des algorithmes augmente d'environ 2 fois par an. Ces paramètres s'additionnent pour engendrer un taux de progrès impressionnant. Ce qui paraissait impossible pour les systèmes d'IA devient souvent banal et est considéré comme acquis quelques années plus tard. Par exemple, il y a deux ans, l'idée qu'un système d'IA puisse raconter une blague pertinente était jugée absurde, alors que les robots d'aujourd'hui le font couramment.

    J'ai été parmi les premiers à documenter cette tendance d'amélioration rapide lors de mon travail à l'OpenAI en 2018, et depuis lors, je l'ai toujours considérée comme la frontière des progrès de l'IA. Une implication majeure de tout cela est la nécessité de réfléchir à la manière dont les pouvoirs publics vont élaborer (ou du moins tenter d'élaborer) des politiques en anticipant l'état de la technologie dans 2 ou 3 ans, une perspective potentiellement radicalement différente de la situation actuelle.
    Nom : Shema 2.jpg
Affichages : 10819
Taille : 63,1 Ko

    Pour chaque critère de référence, le niveau de référence le plus performant indiqué dans le document de référence est considéré comme le « point de départ », qui est fixé à 0 %. La performance humaine est fixée à 100 %. Reconnaissance de l'écriture manuscrite = MNIST, Compréhension du langage = GLUE, Reconnaissance d'images = ImageNet, Compréhension de la lecture = SQuAD 1.1, Compréhension de la lecture = SQuAD 2.0, Reconnaissance de la parole = Switchboard, Mathématiques scolaires = GSK8k, Complétion du bon sens = HellaSwag, Génération de code = HumanEval.

    On pense souvent que les progrès scientifiques et technologiques sont fondamentalement imprévisibles et qu'ils sont le fruit d'éclairs de lumière qui apparaissent plus clairement avec le recul. Mais les progrès des capacités des systèmes d'intelligence artificielle sont prévisibles et dépendent de l'évolution de trois éléments : le calcul, les données et les algorithmes.

    Une grande partie des progrès réalisés au cours des 70 dernières années est due au fait que les chercheurs ont entraîné leurs systèmes d'IA en utilisant une plus grande puissance de traitement informatique, généralement appelée « calcul », en alimentant les systèmes avec davantage de données ou en trouvant des astuces algorithmiques qui réduisent effectivement la quantité de calcul ou de données nécessaire pour obtenir les mêmes résultats. Il est essentiel de comprendre comment ces trois facteurs ont fait progresser l'IA dans le passé pour comprendre pourquoi la plupart des personnes travaillant dans le domaine de l'IA ne s'attendent pas à ce que les progrès se ralentissent de sitôt.

    Le premier réseau neuronal artificiel, le Perceptron Mark I, a été développé en 1957 et pouvait apprendre à déterminer si une carte était marquée à gauche ou à droite. Il comportait 1 000 neurones artificiels et son apprentissage nécessitait environ 700 000 opérations. Plus de 65 ans plus tard, l'OpenAI a publié le grand modèle linguistique GPT-4. L'entraînement de GPT-4 a nécessité environ 21 septillions d'opérations.

    L'augmentation des calculs permet aux systèmes d'IA d'ingérer de plus grandes quantités de données, ce qui signifie que le système dispose de plus d'exemples à partir desquels il peut apprendre. Une plus grande capacité de calcul permet également au système de modéliser la relation entre les variables des données de manière plus détaillée, ce qui signifie qu'il peut tirer des conclusions plus précises et plus nuancées à partir des exemples qui lui sont présentés.

    Depuis 1965, la loi de Moore - l'observation selon laquelle le nombre de transistors dans un circuit intégré double tous les deux ans environ - signifie que le prix de l'informatique n'a cessé de diminuer. Selon Jaime Sevilla, directeur d'Epoch, un organisme de recherche, si cette évolution s'est traduite par une augmentation de la quantité de calcul utilisée pour entraîner les systèmes d'IA, les chercheurs se sont davantage concentrés sur le développement de nouvelles techniques de construction de systèmes d'IA que sur la quantité de calcul utilisée pour entraîner ces systèmes.

    Les choses ont changé vers 2010, explique Sevilla. « Les gens ont réalisé que si l'on formait des modèles plus grands, on n'obtiendrait pas de rendement décroissant », ce qui était l'opinion communément admise à l'époque.

    Depuis lors, les développeurs ont dépensé des sommes de plus en plus importantes pour former des modèles à plus grande échelle. L'entraînement des systèmes d'IA nécessite des puces spécialisées coûteuses. Les développeurs d'IA construisent leur propre infrastructure informatique ou paient des fournisseurs d'informatique en nuage pour avoir accès à leur infrastructure. Sam Altman, PDG d'OpenAI, a déclaré que la formation du GPT-4 avait coûté plus de 100 millions de dollars. Cette augmentation des dépenses, combinée à la baisse continue du coût de l'augmentation de la capacité de calcul résultant de la loi de Moore, a conduit à la formation de modèles d'IA sur d'énormes quantités de calcul.

    OpenAI et Anthropic, deux des principales entreprises d'IA, ont chacune levé des milliards auprès d'investisseurs pour payer le calcul qu'elles utilisent pour entraîner les systèmes d'IA, et chacune a conclu des partenariats avec des géants de la technologie aux poches bien garnies - OpenAI avec Microsoft et Anthropic avec Google.

    Nom : Shema 3.jpg
Affichages : 3960
Taille : 41,7 Ko

    FLOP (floating-point operations) désigne le nombre total d'opérations informatiques utilisées pour entraîner un système d'IA. Le calcul est estimé sur la base des résultats publiés dans la littérature sur l'IA et comporte une certaine incertitude. Epoch s'attend à ce que la plupart de ces estimations soient correctes à un facteur de 2, et à un facteur de 5 pour les modèles récents pour lesquels les chiffres pertinents n'ont pas été divulgués, tels que le GPT-4.

    Les systèmes d'IA fonctionnent en construisant des modèles de relations entre les variables de leurs données d'apprentissage, qu'il s'agisse de la probabilité que le mot « maison » apparaisse à côté du mot « courir » ou des modèles de relation entre la séquence génétique et le pliage des protéines, le processus par lequel une protéine prend sa forme en 3D, qui définit ensuite sa fonction.

    En général, un plus grand nombre de points de données signifie que les systèmes d'intelligence artificielle disposent de plus d'informations pour construire un modèle précis de la relation entre les variables des données, ce qui améliore les performances. Par exemple, un modèle linguistique alimenté par un plus grand nombre de textes aura un plus grand nombre d'exemples de phrases dans lesquelles le mot « courir » suit le mot « maison » - dans les phrases qui décrivent des matchs de baseball ou des succès éclatants, cette séquence de mots est plus probable.

    L'article de recherche original sur le Perceptron Mark I indique qu'il a été entraîné sur seulement six points de données. À titre de comparaison, LlaMa, un grand modèle linguistique développé par des chercheurs de Meta et publié en 2023, a été entraîné sur environ un milliard de points de données, soit une multiplication par plus de 160 millions par rapport à Perceptron Mark I.

    Dans le cas de LlaMa, les points de données étaient des textes collectés à partir d'un éventail de sources, dont 67 % de données Common Crawl (Common Crawl est une organisation à but non lucratif qui scrape l'internet et met les données collectées à disposition gratuitement), 4,5 % de GitHub (un service internet utilisé par les développeurs de logiciels) et 4,5 % de Wikipédia.

    Nom : Shema 4.jpg
Affichages : 3955
Taille : 35,7 Ko

    La taille des données de formation fait référence à la quantité de données utilisées pour former un modèle d'IA, indiquant le nombre d'exemples ou d'instances disponibles pour que le modèle puisse apprendre. Chaque domaine possède une unité d'entrée de points de données spécifique, comme les images pour former les modèles de vision, les mots pour les modèles de langage et les pas de temps pour les modèles de jeux. Cela signifie que les systèmes ne peuvent être comparés directement qu'au sein d'un même domaine.

    Les algorithmes - ensembles de règles ou d'instructions qui définissent une séquence d'opérations à effectuer - déterminent la manière dont les systèmes d'IA utilisent la puissance de calcul pour modéliser les relations entre les variables des données qui leur sont fournies. En plus d'entraîner les systèmes d'IA sur de plus grandes quantités de données en utilisant des quantités croissantes de calcul, les développeurs d'IA ont trouvé des moyens d'obtenir plus à partir de moins. Une étude d'Epoch a montré que « tous les neuf mois, l'introduction de meilleurs algorithmes contribue à l'équivalent d'un doublement des budgets de calcul ».

    Nom : Shema 5.jpg
Affichages : 3953
Taille : 69,8 Ko

    Le progrès algorithmique signifie que moins de calculs et de données sont nécessaires pour atteindre un niveau de performance donné. Quantité de calcul et nombre de points de données nécessaires pour atteindre une précision de 80,9 % lors d'un test de reconnaissance d'images. Système de vision par ordinateur ResNeXt-101 sur le benchmark ImageNet. Le calcul est mesuré en FLOPs (opérations en virgule flottante). Les données sont mesurées en nombre d'images dans l'ensemble d'apprentissage.

    Données, calculs, et algorithmes : les moteurs de l'évolution de l'IA

    Selon Sevilla, la quantité de calcul que les développeurs d'IA utilisent pour entraîner leurs systèmes devrait continuer à augmenter à son rythme accéléré actuel pendant un certain temps, les entreprises augmentant le montant qu'elles consacrent à chaque système d'IA qu'elles entraînent, et l'efficacité augmentant au fur et à mesure que le prix du calcul continue à diminuer régulièrement. M. Sevilla prévoit que cette évolution se poursuivra jusqu'à ce qu'il ne soit plus rentable de continuer à dépenser de l'argent, lorsque l'augmentation de la quantité de calcul n'améliorera que légèrement les performances. Après cela, la quantité de calcul utilisée continuera d'augmenter, mais à un rythme plus lent, uniquement en raison de la baisse du coût du calcul résultant de la loi de Moore.

    Les données qui alimentent les systèmes d'IA modernes, tels que LlaMa, sont extraites de l'Internet. Historiquement, le facteur limitant la quantité de données introduites dans les systèmes d'IA a été la disponibilité d'un nombre suffisant d'ordinateurs pour traiter ces données. Mais l'explosion récente de la quantité de données utilisées pour former les systèmes d'IA a dépassé la production de nouvelles données textuelles sur l'internet, ce qui a conduit les chercheurs d'Epoch à prédire que les développeurs d'IA seront à court de données linguistiques de haute qualité d'ici à 2026.

    Les personnes qui développent des systèmes d'IA ont tendance à être moins préoccupées par ce problème. Lors d'une intervention dans le podcast Lunar Society en mars, Ilya Sutskever, scientifique en chef chez OpenAI, a déclaré que « la situation des données est encore assez bonne. Il reste encore beaucoup à faire ». Lors de son passage au podcast Hard Fork en juillet, Dario Amodei a estimé qu' « il y a peut-être 10 % de chances que cette mise à l'échelle soit interrompue en raison de l'incapacité à recueillir suffisamment de données ».

    Sevilla est également convaincu que le manque de données n'empêchera pas d'autres améliorations de l'IA, par exemple en trouvant des moyens d'utiliser des données linguistiques de faible qualité, car contrairement au calcul, le manque de données n'a jamais été un goulot d'étranglement pour les progrès de l'IA auparavant. Il s'attend à ce que les développeurs d'IA découvrent un grand nombre d'innovations faciles à mettre en œuvre pour résoudre ce problème.

    Selon Sevilla, les progrès algorithmiques continueront probablement à agir comme un amplificateur de la quantité de calcul et de données utilisée pour former les systèmes d'IA. Jusqu'à présent, la plupart des améliorations proviennent d'une utilisation plus efficace du calcul. Epoch a constaté que plus des trois quarts des progrès algorithmiques réalisés par le passé ont été utilisés pour compenser les insuffisances en matière de calcul. Si, à l'avenir, les données deviennent un goulot d'étranglement pour l'apprentissage de l'IA, une plus grande partie des progrès algorithmiques pourrait être axée sur la compensation des insuffisances en matière de données.

    Si l'on réunit ces trois éléments, les experts, dont Sevilla, s'attendent à ce que les progrès de l'IA se poursuivent à un rythme effréné au moins pendant les quelques années à venir. Le calcul informatique continuera d'augmenter à mesure que les entreprises dépenseront plus d'argent et que la technologie sous-jacente deviendra moins chère. Les données utiles restantes sur l'internet seront utilisées pour entraîner les modèles d'IA, et les chercheurs continueront à trouver des moyens d'entraîner et de faire fonctionner des systèmes d'IA qui utilisent plus efficacement le calcul et les données. La poursuite de ces tendances décennales explique pourquoi les experts pensent que l'IA continuera à devenir plus performante.

    Cette situation inquiète de nombreux experts. S'exprimant lors de l'audition de la commission sénatoriale, Amodei a déclaré que, si les progrès se poursuivent au même rythme, un large éventail de personnes pourrait être en mesure d'accéder à des connaissances scientifiques que même les experts d'aujourd'hui ne possèdent pas d'ici deux à trois ans grâce aux systèmes d'intelligence artificielle. Cela pourrait augmenter le nombre de personnes capables de « faire des ravages », a-t-il déclaré. « Je crains en particulier que les systèmes d'IA ne soient utilisés à grande échelle dans les domaines de la cybersécurité, de la technologie nucléaire, de la chimie et surtout de la biologie. »

    IA omnipotente : les ombres d'une supériorité technologique en question

    Le constat selon lequel l'intelligence artificielle (IA) surpasse l'homme dans plusieurs domaines, tel que présenté par l'étude de l'université de Californie à Berkeley, est indéniable et reflète l'évolution rapide de cette technologie. Cependant, cette avancée soulève des préoccupations légitimes qui méritent une analyse critique.

    D'abord, la mention des domaines où l'IA surpasse l'homme, tels que la reconnaissance de l'écriture manuscrite ou la compréhension du langage, évoque des aspects spécifiques de tâches plutôt que des compétences intellectuelles globales. Il est crucial de noter que bien que l'IA excelle dans ces domaines particuliers, elle ne possède pas la compréhension holistique, la créativité, ou la conscience propre à l'humain.

    En ce qui concerne les implications sociétales, l'automatisation accrue et les changements dans l'organisation du travail sont inévitables avec le progrès de l'IA. Cependant, le texte souligne également les avantages potentiels dans des domaines tels que la médecine et l'éducation. Néanmoins, les risques associés à la manipulation d'informations, la création d'armes autonomes, et d'autres applications potentiellement néfastes de l'IA soulignent la nécessité d'une régulation et d'une éthique strictes.

    La question de savoir si l'IA pourrait dépasser l'intelligence humaine est l'un des débats centraux. Bien que certains experts redoutent une possible domination mondiale par l'IA, d'autres croient en son maintien sous le contrôle humain. Il est essentiel de souligner que la définition même de l'intelligence est complexe et que l'IA, malgré ses succès dans des domaines spécifiques, ne possède pas la compréhension émotionnelle, la conscience, ou l'éthique inhérentes à l'humanité.

    Sources : University of California at Berkeley, United States Senate Committee on the Judiciary, ContextualAI

    Et vous ?

    Les conclusions de l'étude de l'université de Californie à Berkeley, affirmant que l'IA a dépassé l'homme dans diverses tâches, sont-elles pertinentes ?

    Devrions-nous remettre en question la course à la supériorité de l'IA au détriment de notre autonomie ?

    Voir aussi :

    L'IA pourrait surpasser l'homme dans toutes les tâches d'ici 2047, selon une enquête auprès de 2,778 chercheurs

    Une IA peut-elle devenir son propre PDG après avoir créé une entreprise ? C'est ce que pense le cofondateur de Google DeepMind

    Un syndicat de musiciens de Hollywood menace de déclencher une grève générale si ses membres n'obtiennent pas des protections contre l'IA et des droits résiduels pour le streaming
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  3. #3
    Membre averti
    Homme Profil pro
    autre
    Inscrit en
    Juin 2014
    Messages
    107
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Aveyron (Midi Pyrénées)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Juin 2014
    Messages : 107
    Points : 385
    Points
    385
    Par défaut
    Merci pour cet article que j'ai trouvé intéressant à lire, les raisonnements et les explications sont clairs et on n'est pas dans le marketing futuriste (sauf la conclusion). Ça change des articles inintéressants sur l'IA.

  4. #4
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    1 868
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 1 868
    Points : 52 055
    Points
    52 055
    Par défaut Jensen Huang dit que les ordinateurs réussiront tous les tests auxquels un humain peut se soumettre d'ici 2029
    Le PDG de NVIDIA affirme que les ordinateurs réussiront tous les tests auxquels un humain peut se soumettre d'ici 2029
    Et ravive le débat sur la possible mise au rebut des développeurs par l'IA

    ChatGPT a réussi à l’édition 2022 de l’examen d’informatique pour élèves du secondaire désireux d’obtenir des crédits universitaires US. Un internaute a proposé une compilation des réponses proposées par le chatbot après avoir souligné que l’intelligence artificielle a pris 32 points sur les 36 possibles. ChatGPT a en sus réussi l’examen de codage Google pour un ingénieur de niveau 3 avec un salaire de 183 000 $. Dans une récente sortie, le PDG de Nvidia affirme que, d’ici 2029, les ordinateurs réussiront tous les tests auxquels un être humain peut se soumettre. Le tableau est de nature à raviver le débat sur la possible mise au rebut des développeurs informatique humains en raison de la montée en puissance de l’intelligence artificielle.


    En effet, ce sont des raisons pour lesquelles certains observateurs sont d’avis que les travailleurs de la filière du développement informatique sont menacés par l’IA. Emad Mostaque, PDG de Stability AI en fait partie et prédit qu’il n’y aura plus de programmeurs dans 5 ans.


    « C’est un fait : 41 % de tout le code informatique sur GitHub est généré par une intelligence artificielle. ChatGPT est déjà capable de passer un examen de codage pour ingénieur de niveau 3 », souligne Emad Mostaque avant d’ajouter « qu’il n’y aura pas de programmeurs humains dans 5 ans. »

    « J’ai demandé à GPT-4 de m’aider à produire du code pour une version 3D du jeu Asteroid, j’ai ensuite copié et collé le code qui a fonctionné d’un coup », ajoute-t-il. En fait, Emad Mostaque est d’avis que l’intelligence artificielle ouvre la porte à tous les individus désireux d’intervenir dans la filière du développement informatique : « Chacun de vous peut désormais être créatif. Chacun de vous peut désormais mettre sur pied des systèmes pour répondre aux besoins des gens. »


    C’est un avis qui rejoint celui du propriétaire de la plateforme de distribution de jeux vidéo FRVR selon lequel « Tout le monde pourra créer des jeux vidéo » grâce à l’intelligence artificielle. Ce dernier propose une forge logicielle dénommée FRVR pour « permettre à quiconque de créer des jeux juste en les décrivant. »

    « L’objectif est de mettre sur pied une plateforme où créer, jouer et partager des jeux est aussi facile que d'enregistrer, de regarder et de partager des vidéos sur des plateformes telles que TikTok et Instagram », ajoute-t-il. Une démonstration (d’une dizaine de minutes) des possibilités offertes par la plateforme est disponible. Elle montre les étapes de l’implémentation d’un jeu de tir spatial en s’appuyant sur ladite forge.


    « L'idée selon laquelle l'IA ne va pas s’accaparer des emplois est ridicule. Tout d'abord, c'est déjà le cas. Les librairies et le commerce de détail ont tous été durement touchés par Amazon. Nous effectuons désormais nos recherches en ligne et non plus dans les bibliothèques, qui ont donc également été touchées. Les traitements de texte ont détruit les équipes de dactylographes et les tableurs, celles des comptables. Dans le domaine de la traduction, nous assistons déjà à la perte massive d'emplois chez Duolingo et dans toutes les grandes entreprises multilingues du monde. Les sociétés d'enseignement ont été les premières à constater les gains de productivité et ont licencié des milliers de personnes. L'idée qu'il n'y a pas eu ou qu'il n'y aura pas de remplacement d'emplois réels est absurde. C'est une belle phrase à lancer lors de conférences pour obtenir des applaudissements chaleureux, mais elle est dangereusement naïve. Les orateurs ont tendance à vouloir être aimés, plutôt que d'affronter l'inconfortable vérité économique selon laquelle les changements techniques majeurs entraînent TOUJOURS des pertes d'emplois », souligne Donald Clark.

    Une récente étude débouche sur la conclusion selon laquelle l’intelligence artificielle générative ne les remplacera pas de sitôt

    Des chercheurs de l'université de Princeton ont développé un cadre d'évaluation basé sur près de 2300 problèmes courants de génie logiciel montés à partir de rapports de bogues et de feature requests soumis sur GitHub afin de tester la performance de divers modèles de grands langages (LLM).

    Les chercheurs ont fourni à différents modèles de langage le problème à résoudre et le code du dépôt. Ils ont ensuite demandé au modèle de produire un correctif réalisable. Ce dernier a ensuite fait l’objet de tests pour s'assurer qu'il était correct. Mais le LLM n'a généré une solution efficace que dans 4 % des cas.

    Nom : 2.png
Affichages : 6823
Taille : 86,1 Ko

    Leur modèle spécialement entraîné, SWE-Llama, n'a pu résoudre que les problèmes d'ingénierie les plus simples présentés sur GitHub, alors que les LLM classiques tels que Claude 2 d'Anthropic et GPT-4 d'OpenAI n'ont pu résoudre que 4,8 % et 1,7 % des problèmes, de façon respective.

    Et l’équipe de recherche de conclure : « le génie logiciel n’est pas simple dans la pratique. La correction d'un bogue peut nécessiter de naviguer dans un grand référentiel, comprendre l'interaction entre des fonctions dans différents fichiers ou repérer une petite erreur dans du code alambiqué. Cela va bien au-delà des tâches de complétion de code. »

    C’est la raison pour laquelle Linux Torvalds a tenu à se désolidariser de tout le battage médiatique autour de l’intelligence artificielle. Il la considère comme un outil au stade actuel de son évolution. Il suggère d’ailleurs la révision de code comme domaine d’application de l’intelligence artificielle. La capacité de l’intelligence artificielle à « deviner » l’intention du développeur lui sera utile pour obtenir du code fiable en un temps réduit. Une condition demeurera toutefois nécessaire : le développeur devra à son tour examiner ce que l’intelligence artificielle lui propose.


    En fait, « le développeur reste l'expert, qui comprend le code et vérifie que ce qui a été synthétisé par l'intelligence artificielle correspond bien à l'intention du développeur », comme le souligne le CEO de GitHub. Grosso modo, l’intelligence artificielle est à un stade d’évolution tel qu’elle ne saurait servir de raccourci à des personnes qui pensent ne plus avoir à faire usage de leur créativité ou de leur esprit critique.

    Même Google le confirme lors de l’annonce selon laquelle son IA Bard peut désormais aider à coder et à créer des fonctions pour Google Sheets : « Bard est encore au stade expérimental et peut parfois fournir des informations inexactes, trompeuses ou fausses tout en les présentant avec assurance. En ce qui concerne le codage, Bard peut vous générer du code qui ne produit pas le résultat escompté, ou vous fournir un code qui n'est pas optimal ou incomplet. Vérifiez toujours les réponses de Bard et testez et examinez soigneusement le code pour détecter les erreurs, les bogues et les vulnérabilités avant de vous y fier. »

    Source : Vidéo entretien CEO Nvidia

    Et vous ?

    Quelles évolutions du métier de développeur entrevoyez-vous dès 2024 au vu de l'adoption de l'intelligence artificielle dans la filière ? Quelles sont celles auxquelles vous assistez déjà du fait de la mise à contribution de l’intelligence artificielle ?

    Voir aussi :

    « ChatGPT est appelé à changer l'éducation telle que nous la connaissons, pas la détruire comme certains le pensent », affirme Douglas Heaven du MIT Technology Review

    ChatGPT rédige désormais les dissertations des étudiants et l'enseignement supérieur est confronté à un grave problème, la détection des contenus générés par l'IA semble de plus en plus difficile

    51 % des enseignants déclarent utiliser ChatGPT dans le cadre de leur travail, de même que 33 % des élèves, et affirment que l'outil a eu un impact positif sur leur enseignement et leur apprentissage

    Un professeur surprend un étudiant en train de tricher avec le chatbot d'IA ChatGPT : « je suis terrorisé », il estime que ces outils pourraient aggraver la tricherie dans l'enseignement supérieur
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  5. #5
    Membre émérite
    Homme Profil pro
    Ingénieur en génie logiciel
    Inscrit en
    Juin 2012
    Messages
    867
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Ingénieur en génie logiciel
    Secteur : High Tech - Opérateur de télécommunications

    Informations forums :
    Inscription : Juin 2012
    Messages : 867
    Points : 2 469
    Points
    2 469
    Par défaut
    possible mais entretemps, c'est du code peu sécure et assez moyen

    j'ai attendu ce discourt il y a plus de 18 ans de certaine entreprise qi propose des outils de no-code... on connait la suite

    quand on regarde le taux de succès des projets informatiques selon le standish group via le chaos report c'est seulement autour de 30%...

  6. #6
    Expert confirmé

    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    1 449
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 41
    Localisation : France, Aube (Champagne Ardenne)

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 1 449
    Points : 5 697
    Points
    5 697
    Par défaut
    Citation Envoyé par marc.collin Voir le message
    possible mais entretemps, c'est du code peu sécure et assez moyen

    j'ai attendu ce discourt il y a plus de 18 ans de certaine entreprise qi propose des outils de no-code... on connait la suite

    quand on regarde le taux de succès des projets informatiques selon le standish group via le chaos report c'est seulement autour de 30%...
    a ma connaissance l’échec n'est jamais du au code.
    il est du a la mauvaise expression du besoin par le client, de la mauvaise compréhension des taches ou encore du management qui a fait n'importe quoi (turn over, aucun budget...)

    la mauvaise expression du besoin par le client avec la méthode agile, c'est normalement facilement rattrapable, avec une démo toute les 2-3 semaines on évite de trop s'égarer.

    pour le management par contre c'est de pire en pire. les boites veulent payer le moins possible donc on se retrouve avec des équipes de juniors inexpérimenté et des jeunes sortie juste d'un boot camp. et ils sont censé faire un gros projet complexe.
    pour ceux qui ont de l'ancienneté, les non augmentations des salariés, produisent des démissions et du turn over.
    et enfin les boites qui veulent le moins possible embaucher font appelle a des ssii avec des résultats encore plus médiocre.

    car dans les ssii c'est la même chose: salariés mal payé, donc profil les plus mauvais possible, les bons se casse à la 1ere occasion pour gagner plus. Donc si ton consultant est bon il va pas rester longtemps.

    Enfin les stack technique sont devenus tellement vaste et énorme ! je fais du devops et je dois maitriser: linux, elasticsearch, kibana, grafana, prometheus, mongodb, helm, docker, kubernetes, ansible, terraform, jenkins, gitlab ci, l'environnement aws, azure, ServiceNow, Jira, confluence, python, molecule, fluentd, logstash, vault, ArgoCD... je dois surement en oublier.
    c'est difficile de s'y retrouver et de bien maitriser toute une architecture. d'ou des instabilités et des pannes complexes a résoudre.

  7. #7
    Membre expérimenté

    Homme Profil pro
    Retraite
    Inscrit en
    Octobre 2005
    Messages
    479
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 72
    Localisation : France, Aude (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Retraite
    Secteur : Industrie

    Informations forums :
    Inscription : Octobre 2005
    Messages : 479
    Points : 1 348
    Points
    1 348
    Billets dans le blog
    1
    Par défaut
    je reprend "« C’est un fait : 41 % de tout le code informatique sur GitHub est généré par une intelligence artificielle. ChatGPT est déjà capable de passer un examen de codage pour ingénieur de niveau 3 », souligne Emad Mostaque avant d’ajouter « qu’il n’y aura pas de programmeurs humains dans 5 ans. »

    Alors mon code n'en fait pas partie. C'est du bluff.
    D'autre part, Un bon livre rien de tel, et du mauvais code en CHAT n'est pas une gageure que demain sera IA, pour se défendre, il dira que je me suis mal exprimé, mais j'ai testé, et j'avais beau l'aider, le code était toujours faux, alors oui peut-être ça fonctionne bien en QBASIC mais dès que l'on touche à des fondamentaux "OUPS" au revoir. Maintenant, j'aime l'IA pour faire mes traductions en anglais (que je vérifie) mais cela s'arrête là. l'IA a des idées, mais très superficiel. Il n'a pas de réflexion, ni d'anticipation.

  8. #8
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 047
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 047
    Points : 73 391
    Points
    73 391
    Par défaut L'IA a besoin d'un corps pour passer à l'étape suivante de l'intelligence générale artificielle (AGI)
    L'IA a besoin d'un corps pour passer à l'étape suivante de l'IA générale (AGI), un corps est le seul moyen pour elle d'apprendre le monde par l'interaction, d'après les chercheurs d'Huawei.

    L'intelligence artificielle a fait des progrès considérables depuis la publication du ChatGPT d'OpenAI. Toutefois, pour que l'intelligence artificielle passe à l'étape suivante, celle de l'intelligence artificielle générale (AGI), les chercheurs d'Huawei estiment qu'elle aura besoin d'un corps. Les chercheurs, qui font partie du laboratoire Noah's Ark d'Huawei basé à Paris, ont publié un rapport préliminaire sur la question. Dans ce rapport, les chercheurs d'Huawei parlent d'"intelligence artificielle incarnée", ou E-AI en abrégé. Selon l'équipe de chercheurs d'Huawei, donner un corps à l'IA est le seul moyen pour elle d'apprendre le monde par l'interaction.

    L'intelligence artificielle générale, ou AGI, est considérée comme l'objectif final de la recherche sur l'IA. Il s'agit d'une IA capable de penser au même niveau que les humains et de s'attaquer à pratiquement n'importe quelle tâche. Cependant, il n'existe pas de définition concrète de l'AGI. Bien que l'IA se soit considérablement développée à ce jour, elle est encore loin d'atteindre l'AGI. C'est pourquoi les chercheurs d'Huawei proposent l'IA incarnée comme solution.

    "On croit généralement que le simple fait d'augmenter la taille de ces modèles, en termes de volume de données et de puissance de calcul, pourrait conduire à l'AGI. Nous contestons ce point de vue", écrivent les chercheurs. "Nous proposons que la véritable compréhension, non seulement la vérité propositionnelle mais aussi la valeur des propositions qui nous guident dans nos actions, ne soit possible que par l'intermédiaire d'agents E-AI qui vivent dans le monde et l'apprennent en interagissant avec lui."

    Le cadre d'incarnation des chercheurs semble être un plan pour un avenir lointain. La technologie n'existe pas vraiment aujourd'hui pour réaliser quelque chose comme l'IA incarnée. Tout d'abord, les grands modèles de langage (LLM) qui alimentent les chatbots d'IA sont massifs. Ils ne sont pas stockés localement, ce qui constituerait un défi pour l'IA incarnée. Les chercheurs eux-mêmes soulignent qu'il s'agit là d'un obstacle à surmonter.


    Voici un extrait de l'étude :

    Nous proposons l'IA incarnée (E-AI) comme la prochaine étape fondamentale dans la poursuite de l'intelligence générale artificielle (AGI), en la juxtaposant aux progrès actuels de l'IA, en particulier les grands modèles de langage (LLM). Nous parcourons l'évolution du concept d'incarnation dans divers domaines (philosophie, psychologie, neurosciences et robotique) pour souligner comment l'E-AI se distingue du paradigme classique de l'apprentissage statique. En élargissant la portée de l'E-AI, nous introduisons un cadre théorique basé sur les architectures cognitives, mettant l'accent sur la perception, l'action, la mémoire et l'apprentissage en tant que composantes essentielles d'un agent incarné.

    Ce cadre est aligné sur le principe d'inférence active de Friston, offrant ainsi une approche globale du développement de l'E-AI. Malgré les progrès réalisés dans le domaine de l'IA, des défis importants persistent, tels que la formulation d'une nouvelle théorie d'apprentissage de l'IA et l'innovation d'un matériel avancé. Notre discussion établit une ligne directrice fondamentale pour la recherche future en matière d'IA électronique. En soulignant l'importance de créer des agents d'IA électronique capables de communiquer, de collaborer et de coexister avec des humains et d'autres entités intelligentes dans des environnements réels, nous visons à orienter la communauté de l'IA vers la résolution des défis à multiples facettes et à saisir les opportunités qui s'offrent à nous dans la quête de l'AGI.

    Conclusion

    Dans cet article, nous avons articulé le rôle critique que joue l'IA incarnée sur la voie de la réalisation de l'AGI, en la distinguant des méthodologies d'IA dominantes, notamment les LLM. En intégrant des idées provenant d'un large éventail de domaines de recherche, nous avons souligné comment le développement de l'E-AI bénéficient des connaissances existantes, alors que les LLM améliorent le potentiel d'interactions intuitives entre les humains et les entités d'IA émergentes.

    Nous avons présenté un cadre théorique complet pour le développement de l'IA électronique, fondé sur les principes des sciences cognitives, mettant en évidence la perception, l'action, la mémoire et l'apprentissage, situant l'IA électronique dans le contexte du cadre d'inférence active de Friston, offrant ainsi une toile de fond théorique très large pour notre discussion. Malgré ces perspectives, le chemin à parcourir est semé d'embûches, notamment la formulation d'une nouvelle théorie de l'apprentissage adaptée à l'IA et la création de solutions matérielles sophistiquées. Ce document vise à servir de feuille de route pour les recherches en cours et à venir sur l'IA électronique, en proposant des orientations qui pourraient conduire à des avancées significatives.

    Source : "A call for embodied AI" (Chercheurs d'Huawei)

    Et vous ?

    Pensez-vous que cette étude est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    « L'AGI est le mensonge de l'année. L'intelligence artificielle générale n'existe pas », selon un critique qui affirme que ce mensonge est raconté pour des raisons financières et politiques

    L'intelligence générale artificielle (AGI), qui surpasse l'intelligence humaine dans presque tous les domaines, verrait le jour d'ici 10 ans, a déclaré Masayoshi Son, PDG de SoftBank

    Enjeux et avantages de l'IA générale : Sam Altman, PDG d'OpenAI, appel au changement de gouvernance, pour éviter la concentration du contrôle
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  9. #9
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    1 868
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 1 868
    Points : 52 055
    Points
    52 055
    Par défaut « Apprendre à programmer sera inutile à l’avenir », d’après le PDG de Nvidia
    « Apprendre à programmer sera inutile à l’avenir », d’après le PDG de Nvidia
    Selon lequel l’intelligence artificielle fera de tous des programmeurs au travers du langage naturel

    L’intelligence artificielle menace-t-elle les postes de développeurs informatiques humains dans les années à venir ? Le chatbot ChatGPT d’OpenAI a par exemple réussi l’édition 2022 de l’examen d’informatique pour élèves du secondaire désireux d’obtenir des crédits universitaires US. C’est un accomplissement parmi d’autres à mettre sur le compte de cette technologie qui ravive le débat sur la possible disparition du métier de développeur du fait de sa montée en puissance. Le PDG de Nvidia va dans le même sens dans une récente sortie en signant : « Apprendre à programmer sera inutile à l’avenir. »

    Et pour cause, la montée en puissance de l’intelligence artificielle fera de tous des programmeurs au travers du langage naturel. En d’autres termes, l’évolution technologique sera telle que chacun sera en mesure de donner des détails d’un projet informatique à un ordinateur qui se chargera de le boucler dans les moindres détails. Cette sortie s’inscrit en droite ligne avec une autre dans laquelle il déclare que que, d’ici 2029, les ordinateurs réussiront tous les tests auxquels un être humain peut se soumettre.

    Une récente étude débouche sur la conclusion selon laquelle l’intelligence artificielle générative ne les remplacera pas de sitôt

    Des chercheurs de l'université de Princeton ont développé un cadre d'évaluation basé sur près de 2300 problèmes courants de génie logiciel montés à partir de rapports de bogues et de feature requests soumis sur GitHub afin de tester la performance de divers modèles de grands langages (LLM).

    Les chercheurs ont fourni à différents modèles de langage le problème à résoudre et le code du dépôt. Ils ont ensuite demandé au modèle de produire un correctif réalisable. Ce dernier a ensuite fait l’objet de tests pour s'assurer qu'il était correct. Mais le LLM n'a généré une solution efficace que dans 4 % des cas.

    Nom : 1.png
Affichages : 41827
Taille : 86,1 Ko

    Leur modèle spécialement entraîné, SWE-Llama, n'a pu résoudre que les problèmes d'ingénierie les plus simples présentés sur GitHub, alors que les LLM classiques tels que Claude 2 d'Anthropic et GPT-4 d'OpenAI n'ont pu résoudre que 4,8 % et 1,7 % des problèmes, de façon respective.

    Et l’équipe de recherche de conclure : « le génie logiciel n’est pas simple dans la pratique. La correction d'un bogue peut nécessiter de naviguer dans un grand référentiel, comprendre l'interaction entre des fonctions dans différents fichiers ou repérer une petite erreur dans du code alambiqué. Cela va bien au-delà des tâches de complétion de code. »

    C’est la raison pour laquelle Linux Torvalds a tenu à se désolidariser de tout le battage médiatique autour de l’intelligence artificielle. Il la considère comme un outil au stade actuel de son évolution. Il suggère d’ailleurs la révision de code comme domaine d’application de l’intelligence artificielle. La capacité de l’intelligence artificielle à « deviner » l’intention du développeur lui sera utile pour obtenir du code fiable en un temps réduit. Une condition demeurera toutefois nécessaire : le développeur devra à son tour examiner ce que l’intelligence artificielle lui propose.

    Certains intervenants sont néanmoins d’avis que les actuels modèles d’IA ne font qu’effleurer la surface du tableau futur de la filière du développement de logiciels et renforcent l’idée de la possible disparition du métier de développeur

    « ChatGPT et autres GitHub Copilot donnent juste un aperçu introductif de ce que la filière informatique sera dans l’avenir », déclare le CEO de la startup IA Fixie AI.

    « Les assistants de programmation tels que CoPilot ne font qu'effleurer la surface de ce que je décris. Il me semble tout à fait évident qu'à l'avenir, tous les programmes seront écrits par des intelligences artificielles, les humains étant relégués, au mieux, à un rôle de supervision. Quiconque doute de cette prédiction n'a qu'à regarder les progrès très rapides réalisés dans d'autres aspects de la génération de contenu par l'intelligence artificielle, comme la génération d'images. La différence de qualité et de complexité entre DALL-E v1 et DALL-E v2 - annoncée seulement 15 mois plus tard - est stupéfiante. Si j'ai appris quelque chose au cours de ces dernières années à travailler dans le domaine de l'IA, c'est qu'il est très facile de sous-estimer la puissance de modèles d'IA de plus en plus grands. Des choses qui semblaient relever de la science-fiction il y a seulement quelques mois deviennent rapidement réalité.

    Je ne parle pas seulement du fait que CoPilot de Github de remplacer les programmeurs. Je parle de remplacer le concept même d'écriture de programmes par des agents d’intelligence artificielle dédiés. À l'avenir, les étudiants en informatique n'auront pas besoin d'apprendre des compétences aussi banales que l'ajout d'un nœud à un arbre binaire ou le codage en C++. Ce type d'enseignement sera dépassé, comme celui qui consiste à apprendre aux étudiants en ingénierie à utiliser une règle à calcul », ajoute-t-il.


    Lorsqu’on parle d’intelligence artificielle, deux grands courants de pensée s’affrontent : celui des tiers qui pensent qu’il s’agit d’un outil, ce, sans plus et celui des intervenants et observateurs qui sont d’avis que ce n’est qu’une question de temps avant qu’elle ne devienne une menace pour la race humaine. Matt Welsh fait partie du deuxième groupe auquel les critiques du second fixent une limite : l’atteinte par les équipes de recherches d’une intelligence artificielle de niveau humain. En effet, le plus grand débat tourne autour de la possibilité de voir les machines rendues à ce stade où elles sont dotées de « bon sens », capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. »

    Google par exemple est lancé en secret sur le développement de Pitchfork, ou AI Developer Assistance. C’est un outil qui utilise l'apprentissage automatique pour apprendre au code à s'écrire et se réécrire lui-même. Comment ? En apprenant des styles correspondant à des langages de programmation, et en appliquant ces connaissances pour écrire de nouvelles lignes de code.

    L’intention initiale derrière ce projet était de créer une plateforme capable de mettre automatiquement à jour la base de code Python chaque fois qu'une nouvelle version était publiée, sans nécessiter l'intervention ou l'embauche d'un grand nombre d'ingénieurs. Cependant, le potentiel du programme s'est avéré beaucoup plus important que prévu. Désormais, l'intention est de donner vie à un système polyvalent capable de maintenir un standard de qualité dans le code, mais sans dépendre de l'intervention humaine dans les tâches de développement et de mise à jour. Un tel objectif pourrait ne plus relever de la science-fiction lorsqu’on sait que des équipes de recherche en intelligence artificielle promettent déjà l’atteinte du stade d’intelligence artificielle générale dans 5 à 10 ans.

    Et vous ?

    Les développements en cours dans la filière du génie logiciel donnent-ils lieu à des inquiétudes légitimes quant à l’avenir des informaticiens humains dans la filière ?
    Comment voyez-vous l'intelligence artificielle dans 5 à 10 ans ? Comme un outil ou comme un danger pour votre poste de développeur ?

    Voir aussi :

    La conduite autonome serait-elle à ce jour qu'une vision futuriste chez Tesla Motors ? L'entreprise vient de changer les objectifs de son Autopilot
    La SEC demande à Musk de renoncer à son poste de président de Tesla et exige une amende de 40 millions $ US pour un règlement à l'amiable
    Tesla annonce que le nouvel ordinateur pour une conduite entièrement autonome de ses véhicules est en production et fera ses preuves ce mois-ci
    Les actions Tesla chutent après que son système d'autopilote soit impliqué dans un accident et l'annonce des batteries de ses véhicules prenant feu
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  10. #10
    Expert confirmé Avatar de sergio_is_back
    Homme Profil pro
    Responsable informatique, développeur tout-terrain
    Inscrit en
    Juin 2004
    Messages
    1 096
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 56
    Localisation : France, Puy de Dôme (Auvergne)

    Informations professionnelles :
    Activité : Responsable informatique, développeur tout-terrain
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Juin 2004
    Messages : 1 096
    Points : 5 664
    Points
    5 664
    Par défaut
    Déjà qu'à l'école on n'apprend plus à lire ni à écrire... Autant supprimer l'Education Nationale, ça fera des économies !

  11. #11
    Expert éminent
    Avatar de berceker united
    Profil pro
    SQL
    Inscrit en
    Février 2005
    Messages
    3 493
    Détails du profil
    Informations personnelles :
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : SQL
    Secteur : Finance

    Informations forums :
    Inscription : Février 2005
    Messages : 3 493
    Points : 6 059
    Points
    6 059
    Par défaut
    Et qui va faire évoluer les intelligences artificiel ? Une intelligence artificiel ?
    Mon avatar ? Ce n'est rien, c'est juste la tête que je fais lorsque je vois un code complètement frappa dingue !...

  12. #12
    Membre éprouvé
    Homme Profil pro
    Développeur .net - Office - Quadiant
    Inscrit en
    Février 2020
    Messages
    585
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Loir et Cher (Centre)

    Informations professionnelles :
    Activité : Développeur .net - Office - Quadiant
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2020
    Messages : 585
    Points : 1 080
    Points
    1 080
    Par défaut
    Citation Envoyé par berceker united Voir le message
    Et qui va faire évoluer les intelligences artificiel ? Une intelligence artificiel ?
    Skynet

  13. #13
    Expert éminent sénior
    Homme Profil pro
    Analyste/ Programmeur
    Inscrit en
    Juillet 2013
    Messages
    4 635
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Analyste/ Programmeur

    Informations forums :
    Inscription : Juillet 2013
    Messages : 4 635
    Points : 10 568
    Points
    10 568
    Par défaut
    Citation Envoyé par berceker united Voir le message
    Et qui va faire évoluer les intelligences artificiel ?
    Je pense qu'il n'y a pas vraiment de débat cela fait 10 ans qu'il y a 1 débat entre ingénieur vs programmeur vs développeur.
    En gros:
    • l'ingénieur c'est la personne qui code le ""bas niveau"" (<- gros diplômes, gros parcours formation initiale, grosses expériences, grosses références)
    • le programmeur c'est la personne qui code "les briques" (bibliothèques, API, outils, …)
    • le développeur c'est la personne qui assemble "les briques" et intègre les processus entreprises (réunions, protocoles, documents, … <- compétences fonctionnelles, "soft skills" en anglais)

    donc on peut penser que les ingénieurs vont coder ""l'IA"", les programmeurs vont être remplacés et le développeur ne sera plus qu'1 superviseur.

  14. #14
    Membre chevronné
    Profil pro
    MOA
    Inscrit en
    Décembre 2002
    Messages
    1 036
    Détails du profil
    Informations personnelles :
    Localisation : France, Eure et Loir (Centre)

    Informations professionnelles :
    Activité : MOA

    Informations forums :
    Inscription : Décembre 2002
    Messages : 1 036
    Points : 1 816
    Points
    1 816
    Par défaut
    Citation Envoyé par sergio_is_back Voir le message
    Déjà qu'à l'école on n'apprend plus à lire ni à écrire... Autant supprimer l'Education Nationale, ça fera des économies !
    Il y a besoin d'écrire pour commande l'IA


    Citation Envoyé par berceker united Voir le message
    Et qui va faire évoluer les intelligences artificiel ? Une intelligence artificiel ?
    Il manquerait plus que ce soit nous qui l'améliorons . Il s'améliore lui-même, il apprend tout seul

  15. #15
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    583
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 583
    Points : 10 635
    Points
    10 635
    Par défaut L'intelligence artificielle générale ne sera pas possible tant que l'IA ne sera pas dotée d'un corps physique
    Selon un groupe de chercheurs en IA, les LLM actuels ne mèneront pas à l'AGI, mais les robots dotés d'une IA qui se développent dans le monde 3D pourraient le faire

    Les chercheurs de Meta pensent qu'une intelligence artificielle générale (AGI) ne sera pas possible tant que l'IA ne sera pas dotée d'un corps physique. Il s'agit de l'hypothèse de l'IA incarnée. Selon cette approche, une IA de niveau humain ne peut émerger que si elle est capable de sentir et de naviguer dans un environnement physique, comme le font les bébés. À travers ce corps, l'IA peut interagir avec le monde physique et en tirer des enseignements. Cette hypothèse suscite de nombreuses discussions et pousse certains investisseurs à investir massivement dans les entreprises qui fabriquent des robots humanoïdes à usage général. Bien sûr, l'idée ne fait pas l'unanimité.

    L'intelligence artificielle générale (AGI) est un système d'IA théorique dont les capacités rivalisent avec celles de l'homme. Pour atteindre ce niveau, l'IA doit maîtriser de nombreuses capacités, notamment : la perception sensorielle (vue, ouïe, touché, etc.), une motricité fine, le traitement du langage naturel, la résolution de problème, la navigation, la créativité, un engagement social et émotionnel, etc., et peut-être aussi le bon sens. Les plus optimistes affirment que l'on pourrait attendre une forme d'AGI d'ici cinq à dix ans, mais d'autres experts pensent que nous sommes encore à des décennies, voire des siècles, de l'AGI.

    L'atteinte de l'AGI reste un défi de taille. Et de plus en plus de chercheurs affirment que l'industrie ne pourra pas atteindre cet objectif si elle ne change pas son approche actuelle. Ils plébiscitent une approche dans laquelle des agents artificiels adaptent leurs réseaux neuronaux ("cerveaux") en fonction des réactions de leur corps et de leur environnement, c'est-à-dire qu'ils apprennent à naviguer dans leur environnement. Selon ces chercheurs, cette approche constitue la prochaine étape fondamentale dans la poursuite de l'AGI et elle doit être juxtaposée aux progrès actuels de l'IA, en particulier les grands modèles de langage.


    Cette approche est connue sous le nom de : IA incarnée. Elle défend l'hypothèse selon laquelle le seul moyen pour qu'une IA développe une véritable intelligence est de lui donner un corps et la capacité de se déplacer et d'expérimenter le monde. En comparaison, les IA exclusivement numériques peuvent être excellentes pour des tâches limitées, mais elles se heurteront toujours à un plafond en matière d'intelligence. Par exemple, selon certains chercheurs, l'action incarnée a des effets causaux sur la nature et les statistiques des entrées sensorielles, qui peuvent à leur tour entraîner des processus neuronaux et cognitifs.

    Les statistiques des entrées sensorielles peuvent être saisies en e utilisant des méthodes issues de la théorie de l'information, en particulier des mesures d'entropie, d'information mutuelle et de complexité, sur des flux de données sensorielles. « Les systèmes d'IA qui n'ont pas d'incarnation physique ne pourront jamais être vraiment intelligents. Pour comprendre pleinement le monde, il est essentiel d'interagir avec lui et d'observer les résultats de ces interactions », explique Akshara Rai, chercheur chez Meta. Les robots humanoïdes comme Atlas et Optimus représentent peut-être le pas nécessaire dans la bonne direction.

    L'hypothèse de l'IA incarnée est soutenue par les chercheurs du laboratoire Noah's Ark de Huawei basé à Paris. Ils ont évoqué cette idée dans un rapport d'étude publié en février. Selon l'équipe de Huawei, donner un corps à l'IA est le seul moyen pour elle d'apprendre le monde par l'interaction. « On croit généralement que le simple fait d'augmenter la taille de ces modèles, en matière de volume de données et de puissance de calcul, pourrait conduire à l'AGI. Nous contestons ce point de vue », écrit l'équipe. Comme les chercheurs de Meta, l'équipe de Huawei affirme qu'il s'agit d'une étape fondamentale pour atteindre l'AGI.

    Nom : AI habitat.png
Affichages : 90723
Taille : 177,3 Ko

    Cependant, tous les développeurs d'IA n'adhèrent pas à l'hypothèse de l'incarnation - il pourrait s'avérer possible de créer une superintelligence uniquement numérique qui ne sentirait jamais la Terre sous ses pieds robotiques. Les critiques de cette approche affirment qu'elle pose de nombreux risques pour l'homme et l'environnement. L'un des défis majeurs du développement de l'IA incarnée est le risque d'erreurs au cours du processus d'apprentissage, qui peut entraîner des dommages à la fois pour l'IA et pour son environnement. Pour atténuer ces risques, les chercheurs se sont tournés vers les simulations informatiques.

    Selon les chercheurs, ces simulations fournissent un environnement virtuel où l'IA peut apprendre par essais et erreurs sans conséquences dans le monde réel. Par exemple, AI Habitat, une plateforme open source développée par Meta et dévoilée en 2019, permet à l'IA de s'entraîner à naviguer et à interagir avec différents environnements, de la maison au bureau, dans un monde simulé. Cette approche permet à l'IA d'acquérir des compétences essentielles avant de passer à des robots physiques. Cette méthode réduit considérablement la courbe d'apprentissage et les risques associés aux interactions dans le monde réel.

    Mais AI Habitat reste un environnement simulé et n'est pas le monde réel. Malgré les avantages des simulations, le passage du monde virtuel au monde physique présente sa propre série de défis, connus sous le nom de "fossé entre la simulation et la réalité". Ce fossé résulte de la difficulté de reproduire avec précision la physique complexe et l'imprévisibilité du monde réel dans un environnement virtuel. Boyuan Chen, de l'université Duke, souligne les limites inhérentes aux simulations, en notant que "même des choses simples, comme une balle qui rebondit [...], ne peuvent pas être très bien modélisées dans une simulation".


    L'amélioration continue des technologies et des stratégies de simulation est essentielle pour réduire cet écart et faciliter la transition de l'IA du virtuel au tangible. En gros, le test ultime pour l'IA incarnée se produit lorsqu'elle entre dans le monde réel. L'IA incarnée en est maintenant au point où certaines entreprises sont prêtes à passer à l'étape suivante et à envoyer leurs robots dotés d'IA dans le monde réel, comme des parents qui déposent leurs enfants à l'école pour la première fois. Le fabricant de robots Agility Robotics a déployé des exemplaires de son robot humanoïde Digit comme dans certains entrepôts d'Amazon.

    Le fabricant de robots humanoïdes Apptronik envoie ses robots Apollo travailler dans une usine Mercedes-Benz afin de prouver qu'ils sont capables fonctionner efficacement et en toute sécurité à côté de personnes. La startup Figure AI déploie ses humanoïdes IA dans une usine de fabrication BMW. Figure AI a présenté le mois dernier une mise à jour de son robot Figure 01 équipé d'un modèle de vision-langage (Vision-language model - VLM) développé par OpenAI. Avec ce modèle, Figure 01 peut maintenant comprendre le langage naturel, exécuter des commandes verbales et même expliquer pourquoi il fait ce qu'il fait.

    Si l'hypothèse de l'incarnation se vérifie, l'association d'une entreprise qui développe des cerveaux d'IA parmi les plus avancés et d'une autre qui construit des corps de robots à la pointe de la technologie pourrait être la combinaison qui permettra de doter un être artificiel d'une intelligence comparable à celle de l'homme, et ce dans un avenir proche.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de l'approche dite de l'IA incarnée décrite ci-dessus ?
    Les agents physiques dotés d'une IA sont-ils indispensables pour atteindre l'AGI ?
    L'IA peut-elle apprendre et évoluer en interagissant avec le monde réel comme un humain ?
    Quelles sont les limites de cette nouvelle approche ? Et quelles sont les préoccupations qu'elle pose ?

    Voir aussi

    L'IA a besoin d'un corps pour passer à l'étape suivante de l'IA générale (AGI), un corps est le seul moyen pour elle d'apprendre le monde par l'interaction, d'après les chercheurs d'Huawei

    L'intelligence générale artificielle (AGI), qui surpasse l'intelligence humaine dans presque tous les domaines, verrait le jour d'ici 10 ans, a déclaré Masayoshi Son, PDG de SoftBank

    « L'AGI est le mensonge de l'année. L'intelligence artificielle générale n'existe pas », selon un critique qui affirme que ce mensonge est raconté pour des raisons financières et politiques

  16. #16
    Nouveau membre du Club
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Avril 2020
    Messages
    6
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Essonne (Île de France)

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Avril 2020
    Messages : 6
    Points : 26
    Points
    26
    Par défaut Allez, j'ose contredire le pdg NVIDIA
    Allez, j'ose contredire le pdg NVIDIA par ce que ce genre d'actu comment a être soûlante
    Sur l'état actuel de l'art, le PDG d'Nvidia se trompe à 94%.
    Sur le sujet faire monter l'action nvidia par contre.....

    Qu'est-ce qui fait un développeur ce qu'il est ? Il y a développeur et développeur.
    Un mauvais développeur c'est un mec qui pisse des lignes de code, un bon développeur , c'est un mec qui pisse des lignes de code, mais lui il le fait bien, il comprend ce qu'il fait.

    Si c'était si simple, tout le monde pourrait le faire. Hormis la grammaire et le vocabulaire, que faut-il de plus pour aligner deux lignes de code ?
    Personne ne s'est jamais posé la question ? Hormis aligner 10 lignes pour faire une simple action. Qu'est-ce qui permet de faire de grand logiciel ?
    La capacité de la maîtrise du contexte et la capacité d'articuler un ensemble pour le rendre fonctionnel, soit la créativité.

    Les modèles de langage sont intrinsèquement incapables en eux même uniquement de faire preuve de créativité ou alors elle est aussi limitée que ce que peut faire un moineau. Au mieux elle n'est capable que d'imitation.
    La créativité est l'étape au-dessus de la capacité de maîtrise du contexte. On est tranquille ce n'est pas quelque chose que les simples réseaux de neurones peuvent faire.
    Lorsque l'on aura produit un système capable de maîtriser le contexte et l'environnement dans lequel il évolue, alors, un très grand nombre de métiers dans le secteur tertiaire pdg compris sera grandement inutile et remplaçable par ce type d'automates.
    Mais intrinsèquement la manière dont ils seront construits feront que leur créativité seront limité et ne seras pas capable de prendre des décisions avancées permettant "une croissance d'activité" en dehors du strict chemin sur lequel ils sont déjà lancés, donc une incapacité économiquement parlant de ce diversifier/d'innover donc à terme de survivre .

    Une machine capable de faire preuve de conscience de contexte et d'environnement ainsi que de créativité sera plus proche d'une conscience artificielle que d'une IAG. C'est là que le risque cette pose. Celui de la SF et d'un dérapage possible.
    En attendant, si c'était si simple que de coder, tout le monde pourrait déjà le faire, passer en n'importe quel langage logiciel vers un langage naturel ne rendra pas la chose plus simple en dehors du Scripting. Et ça ne fonctionnera pas mieux qu'aujourd'hui avec des gens qui ne savent pas concevoir de logiciel et qui nous font un patchwork de code spaghetti qui ne fonctionne pas.

    Les GPU de nvidia ne sont pas magique et ne créer pas d'intelligence, on est en pleine mode des réseaux de neurones qui sont très gourmands en calcule pour leur formation, mais ce n'est ni ce type de matériel ni se type d'architecture qui donnera quelque chose capable de remplacer l'homme.

    On aurait pu écrire comme titre. <Apprendre a écrire est inutile, dans 5 ans tous le monde aura des tablettes dans les mains>
    Pas besoin de faire un dessin en quoi scripter un bout de code a la main en 5minutes reste toujours pratique que de devoir se connecter a internet pour accéder à un servie d'IA après s'être authentifié avec la double authentification de sa banque sur son smartphone 5G pour pondre un script que l'on va passer 2H a débugger pour traiter un csv qu'une simple boucle for aurait pu en venir à bout si c'était juste pour supprimer les espaces inutiles dans les cases et conversion de caractère pour le recensement des pingouins du Groenland. Ben quoi cet exemple vous paraît-il hors sol ?

    Moi j'y vois un effondrement intellectuel de la société si on ne peut plus rien faire sans qu'une machine nous assiste parce que l'on nous a vendu que nous n'avions plus besoin de rien faire, parce demain il suffit d'acquérir la machine T2000 pour tout faire a notre place, et après demain il faudra acheter la T3000 qui fait des choses en plus que la T2000 ne savait pas faire comme remplir la nouvelle case du formulaire des impôts des machines autonomes T2000 que nous avons chez nous.

    A force de faire monter les enchères, ce n'est pas dit q'Nvidia arrive a tenir la montgolfière action aussi haute. ce sera plutot le tobogan dans 5-10ans lorsque l'on se rendra compte qu'il y a mieux et moins gourmand que les réseaux de neurones, les gens aurons une montagne de GPU que personne ne sait quoi en faire et que l'on pourra même pas recycler pour autre chose...

    """Les développements en cours dans la filière du génie logiciel donnent-ils lieu à des inquiétudes légitimes quant à l’avenir des informaticiens humains dans la filière ?""
    Les googlers et scripts kiddies pourront ce poser la question de si il ne serait pas mieux de réaliser une reconversion. Si c'est ça qui compose la "filière informatique" à 50%, je comprends mieux pourquoi une machine bug quand je la touche.

    Les vrais concepteurs de logiciel sont tranquilles jusqu'à la retraite (si ce mot existe encore). Comprendre un métier et ensemble de besoins pour le traduire en un ensemble de spécification qui fonctionne sans bug ( le cœur de métier) qui dépasse le logiciel type calculette Windaube ne sont pas près d'être remplacé.
    Il faudra toujours un humain pour faire ce que la machine ne sait pas faire, à minima saisir les specs (en français et pas en cromagnion). Le jour où l'on dépassera ce stade, l'intégralité de notre économie/finance n'aura plus aucun sens.

    ""Comment voyez-vous l'intelligence artificielle dans 5 à 10 ans ? Comme un outil ou comme un danger pour votre poste de développeur ?""

    Sur les 50 prochaines années à venir l'IA ne restera qu'un outil, des percé et avancé dans la robotique aurons fait leur apparaîtrons.
    Dans 30-40ans nous verrons des automates majors d'homme/conseiller clientèle dans les rayons des magasins.

    Dans 50ans nous verrons des automates a grande autonomie, qui seront sur les chaines de production pour combler le manque de main-d'œuvre suite à la Grande Guerre qui aura lieu après la crise énergétique mondiale. On aura le droit au débat pour ceux qui sont "pro machine" et militeront pour que la ville et la vie soient conçues pour que les machines puissent se déplacer librement. Si entre temps le dérèglement climatique ne nous a pas déjà dézingué tous ça. On aura une crise ou des pirates rendrons des machines folles poursuivant des gens avec les flic qui leur courrons derrière avec leur taser....

    Mais ce qui est sûr c'est que le monde de l'emploi à part des diminutions de besoin de personnelle dans certain secteurs, tant qu'il y aura des gens assis dans les bureaux de banque ou d'assurance, le monde de l'emploi ne sera jamais radicalement différent.
    Des métiers apparaissent d'autres disparaissent mais sur le siècle. Jamais il n'y aura un secteur d'activité entier composé uniquement de machine ou supprimé du jour au lendemain. Sinon ça veut dire que ce secteur est complètement inutile depuis le début et tourne a l'aide de subvention (vous en connaissez ?).

    Ceux qui dise que l'IA va tout remplacer sur terre sont eux même en train d'exercer une activité non essentielle. Passer la journée à remplir des cases Excel pour avoir un salaire pour se payer un costard et une Rolex pour vendre à un autre type ton remplissage de case Excel, je n'appelle pas ça un métier utile à l'humanité. (les vendeurs de formation sur YouTube ont déjà tout compris )
    Si une machine peut fabriquer la Rolex et le costard, elle pourra remplacer le gars qui saisit les cases. Dans ce cas qui est inutile ?
    L'homme ou le travail qu'il faisait.

    Je finirai par : Doit-on exterminé les humains par ce qu'ils sont la preuve (dans le cadre artificiel choisi et créer pour cette étude) qu'ils ne servent à rien ? Ou n'avions nous pas créé un système qui part en roue libre et dont sa fonction optimale de créer de la richesse pour les humains ce conclu en : "il faut supprimer les humains de l'équation pour créer encore plus de richesse ?".

    Le grand biais de la création : on créer un système au service de quelque chose, à force de l'optimiser on fini par retirer de l'équation le pourquoi du comment pour qui le service a été créé....

  17. #17
    Membre éprouvé
    Homme Profil pro
    Consultant informatique
    Inscrit en
    Décembre 2008
    Messages
    106
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 51
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Consultant informatique
    Secteur : Finance

    Informations forums :
    Inscription : Décembre 2008
    Messages : 106
    Points : 907
    Points
    907
    Par défaut
    La bonne question : qui va valider que la réponse de l'IA n'est pas mauvaise? Les données qui ont servi à entraîner l'IA peuvent être mauvaises ou biaisées. L'IA a déjà démontré sa capacité dans des cas de droits à inventer des procès de toute pièce.

    Quis custodiet ipsos custodes? [qui va surveiller les résultats de l'IA]
    des développeurs compétents.

    Comment devient-on un développeur compétent?
    En travaillant sur des programmes et algorithmes (longtemps). Et, surtout, en apprenant de ses erreurs, etc...

    Accessoirement un programme n'est pas juste du code: c'est un code qui répond à un besoin fonctionnel émis dans un domaine précis (bancaire, crash-test, calculateur de voiture, etc..). Il ne suffit pas de savoir écrire du code il faut aussi comprendre le contexte dans lequel il va être utilisé!

  18. #18
    Membre à l'essai
    Homme Profil pro
    Consultant en sécurité
    Inscrit en
    Mars 2024
    Messages
    2
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Sarthe (Pays de la Loire)

    Informations professionnelles :
    Activité : Consultant en sécurité
    Secteur : Conseil

    Informations forums :
    Inscription : Mars 2024
    Messages : 2
    Points : 12
    Points
    12
    Par défaut
    Citation Envoyé par pboulanger Voir le message
    La bonne question : qui va valider que la réponse de l'IA n'est pas mauvaise? Les données qui ont servi à entraîner l'IA peuvent être mauvaises ou biaisées. L'IA a déjà démontré sa capacité dans des cas de droits à inventer des procès de toute pièce.

    Quis custodiet ipsos custodes? [qui va surveiller les résultats de l'IA]
    des développeurs compétents.

    Comment devient-on un développeur compétent?
    En travaillant sur des programmes et algorithmes (longtemps). Et, surtout, en apprenant de ses erreurs, etc...

    Accessoirement un programme n'est pas juste du code: c'est un code qui répond à un besoin fonctionnel émis dans un domaine précis (bancaire, crash-test, calculateur de voiture, etc..). Il ne suffit pas de savoir écrire du code il faut aussi comprendre le contexte dans lequel il va être utilisé!
    Officiellement, le machine learning est une technologie "à taux d'erreur" càd que les les maths donnent un indice de précision à chaque situation. Ce taux est variable mais jamais nul. Autrement dit, l'IA ne peut retourner de résultat fiable à 100%.
    Parfois, on se sert de cette imprécision, surtout pour améliorer des images actuellement. Si on ne pousse pas trop de degré d'hallucination de l'IA, le résultat est bluffant.

    Actuellement, écrire un prompt IA de 2000 lignes est un effort énorme rendu encore plus difficile par l'absence d'aide à la rédaction du prompt. Décrire une application entière en langage naturel, C'est incroyablement complexe et demande des milliers de tests avant de trouver les bonnes formulations. Cette fonctionnalité existera peut-être un jour mais s'il faut plus de temps de cette manière qu'en codant l'application, personne ne le fera.

    Le CEO de Nvidia vend sa technologie .

  19. #19
    Membre averti
    Homme Profil pro
    Ergonome
    Inscrit en
    Octobre 2016
    Messages
    163
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 60
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Ergonome
    Secteur : Arts - Culture

    Informations forums :
    Inscription : Octobre 2016
    Messages : 163
    Points : 312
    Points
    312
    Par défaut
    L'IA ne va pas discuter avec un expert métier pour comprendre un problème en profondeur.
    L'IA (neurones) commet des erreurs dont on sait qu'on ne peut pas les filtrer.
    L'IA a besoin de prompts. Une courte phrase suffit pour résoudre un problème simple mais il faut des milliers de lignes de prompt pour décrire un logiciel complexe.

    Y' a-t-il des IDE spéciales pour rédiger les prompts ?
    1. C'est quasi impossible
    2. Ca va à l'encontre du principal atout des IA qui consiste à comprendre le langage naturel.

    A la fin de ce raisonnement, on finit par rendre le texte du prompt aussi déterministe qu'un langage de programmation. Mais dans ce cas, gagnons du temps et utilisons de vrais langages longuement améliorés au fil des décennies.

    L'implémentation de prompts intelligents sur les IDE aurait son utilité.

    Mais remplacer un humain, c'est de la SF

    J'adore la SF, j'écris de la SF, la SF, c'est génial.

    Mais, monsieur le CEO de NVidia, écrire un programme et écrire un roman, ce n'est pas la même chose.

  20. #20
    Expert confirmé
    Homme Profil pro
    Développeur
    Inscrit en
    Août 2003
    Messages
    1 280
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Charente Maritime (Poitou Charente)

    Informations professionnelles :
    Activité : Développeur

    Informations forums :
    Inscription : Août 2003
    Messages : 1 280
    Points : 4 139
    Points
    4 139
    Par défaut
    Quand je vois ce que Copilot ou Tabnine propose pour du Rust, avec ce langage nous allons être tranquille un moment.

    Les assistants m'aident généralement à pré-remplir des classes ou struct (en fonction du langage) mais derrière j'ai toujours de petites correction à faire.

Discussions similaires

  1. Réponses: 1
    Dernier message: 09/11/2009, 09h53
  2. Réponses: 0
    Dernier message: 23/09/2009, 12h22
  3. L'État pourrait être le seul actionnaire de l'AFP
    Par ®om dans le forum Politique
    Réponses: 7
    Dernier message: 16/09/2009, 19h20
  4. Steve Jobs pourrait être présent à la WWDC 09 !?
    Par Marcos Ickx dans le forum Apple
    Réponses: 2
    Dernier message: 07/06/2009, 13h09
  5. L'université pourrait être bien?
    Par johankonigsberg dans le forum Etudes
    Réponses: 13
    Dernier message: 07/01/2009, 15h36

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo