IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Le PDG d'IBM ne prévoit « aucun retour sur investissement » pour les dépenses dans les centres de données


Sujet :

Intelligence artificielle

  1. #101
    Membre confirmé
    Homme Profil pro
    Développeur en systèmes embarqués
    Inscrit en
    Mai 2015
    Messages
    493
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 55
    Localisation : Belgique

    Informations professionnelles :
    Activité : Développeur en systèmes embarqués

    Informations forums :
    Inscription : Mai 2015
    Messages : 493
    Par défaut Je suis bien d'accord...
    Citation Envoyé par floyer Voir le message
    Python est sûrement lent par lui même, mais sa force est son ecosystème (numpy, scypy, pandas, matplotlib, tensorflow pour ne en citer que quelques uns) qui permet de faciliter l'accès à des bibliothèques rapides (car elles même implémentées en C...).
    C'est ce que je disais, l'utilisation de la bonne lib change énormément la "rapidité".

    Citation Envoyé par floyer Voir le message
    Reste à voir le cas d'usage... passe t-on beaucoup de temps dans les bibliothèques ou dans le code spécifique ?
    Cela dépend du développeur qui doit bien utiliser Python, pour bien utiliser les libs. Une fois dans la lib (souvent faite en C, donc tout aussi rapide que... lui) la "vitesse" est la même. Les entrés/sorties dans la lib, prennent du temps, il faut donc tenter de les limiter. C'est possible avec certaines libs, moins facile avec d'autres, et impossible pour certaines. Cela dépend de l'architecture de la lib C et de la manière/qualité donc elle a été "enrobée" par le "wrapper" python. Il y a aussi certaines lib faites en python pur, et certaines d'entes-elles sont (si elles ont un certains succés), recodée en C, et "architecturée" pour limiter la surchage temporelle qu'impose le couche Python.

    Citation Envoyé par floyer Voir le message
    Est-ce que le typage statique est une plus value en rapidité de temps de développement (oui, le typage statique détecte des erreurs avant même la première exécution du programme, ce qui est un gain de temps de développement)
    Oui, un type statique est plus rapide, mais le typage "dynamique" permet aussi de "coder autrement" une solution, utilisant une autre approche, qui fera que la vitesse sera au final sera plus rapide. Pour la détections des erreurs de typages "à la compilation", elle est plus safe qu'une détection dynamique au runtime, mais via les annotations, ont peut atteindre cette sécurité, ou du moins s'en approcher.

    L'interprétation du byte code prendra toujour "un temps" qui n'existe pas dans un langage qui compile directement le code source en code assembleur.

    Il y'a aussi des cas ou la "vitesse" n'a pas trop de sens, genre attende d'une entrée de l'utilisateur, mais qui est plus "simple" a coder en "Python", faisant là gagner un temps de développement important, tout comme les types de base comme les listes, les dictionnaires, qui sont hyper simple a utiliser, faisant gagner là aussi du temps.

    Ensuite, il a y a aussi la "taille" du code, généralement plus petite en Python, donc de facto un développement plus "rapide". Enfin, la lisibilité du code permet de "lire" un code Python et de le comprendre plus facilement, aidant aussi a développer plus rapidement.

    Tout cela est donc relatif, et c'est au cas par cas.

    BàT et Peace & Love.

  2. #102
    Membre éclairé
    Homme Profil pro
    autre
    Inscrit en
    Septembre 2015
    Messages
    548
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Yvelines (Île de France)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Septembre 2015
    Messages : 548
    Par défaut
    « Cela dépend du développeur qui doit bien utiliser Python, pour bien utiliser les libs. » cela dépend aussi du domaine… il y a des domaines où il existe des bibliothèques toutes faites, et d’autres non. Mais il est vrai que l’on trouve des bibliothèques pour beaucoup de choses.

    Nota: au sujet du typage statique, je suis en train de recoder une application Web PHP en OCaml… je me fais reprendre souvent par le compilateur, mais une fois les erreurs corrigées, cela marche du premier coup… En PHP, le même type d’erreur provoque au mieux une erreur 500, il faut chercher dans les logs, ou un comportement inadapté.

    Je trouve globalement que c’est assez rare dans mes usages d’avoir besoin du typage dynamique, surtout si le typage statique est assez expressif (généricité, ADT…)

  3. #103
    Membre confirmé
    Homme Profil pro
    Développeur en systèmes embarqués
    Inscrit en
    Mai 2015
    Messages
    493
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 55
    Localisation : Belgique

    Informations professionnelles :
    Activité : Développeur en systèmes embarqués

    Informations forums :
    Inscription : Mai 2015
    Messages : 493
    Par défaut Je suis bien d'accord...
    floyer,

    Citation Envoyé par floyer Voir le message
    « Cela dépend du développeur qui doit bien utiliser Python, pour bien utiliser les libs. » cela dépend aussi du domaine… il y a des domaines où il existe des bibliothèques toutes faites, et d’autres non. Mais il est vrai que l’on trouve des bibliothèques pour beaucoup de choses.
    Oui, sauf cas rares, pour la majorité des librairies C, un wrapper existe. Je pense qu'il y a des outils pour générer un "wrapper" autour d'une lib C, et via ctype, on peut relativement facilement appeler une fonction C.

    Citation Envoyé par floyer Voir le message
    Nota: au sujet du typage statique, je suis en train de recoder une application Web PHP en OCaml… je me fais reprendre souvent par le compilateur, mais une fois les erreurs corrigées, cela marche du premier coup… En PHP, le même type d’erreur provoque au mieux une erreur 500, il faut chercher dans les logs, ou un comportement inadapté.
    Je n'ai jamais développé en PHP, ni en OCaml, je ne peux donc pas juger. Mais en Python, via les annotations, l'outil PyLint, ainsi que Ruff ou MyPy, la majorité des erreurs peuvent être trouvées à la compilation (pendant la génération du bytecode). Et si une erreur survient au "Runtime", elle est (c'est mon avis) relativement bien expliquée.

    Citation Envoyé par floyer Voir le message
    Je trouve globalement que c’est assez rare dans mes usages d’avoir besoin du typage dynamique, surtout si le typage statique est assez expressif (généricité, ADT…)
    Je ne porte pas de jugement, un cas n'est pas l'autre. Si on "code" en Python de la même manière qu'en C, on peut ne pas comprendre les avantages de Python. Il faut un "certains temps" pour "coder" de manière "Pythonique". Une fois ce cap franchit on peut plus facilement utiliser les avantages de Pythons, et un monde nouveau de possibilités apparrait au grand jour.

    Perso, je développe actuellement un compilateur en "Python" pour un langage de mon invention. Coder ce compilateur en C m'aurait compliqué la vie, et aurait nécessité une base de code bien plus abondante. Voici les derniers relevés que j'ai fait:

    HOME: lines= 12, codes=8, stmts= 7
    COMPILER: lines= 164, codes=115, stmts= 120
    LEXER: lines= 176, codes=121, stmts= 140
    PARSER: lines= 834, codes=595, stmts= 673
    CHECKER: lines= 424, codes=240, stmts= 269
    SYMTBL: lines= 132, codes=77, stmts= 88
    IRC: lines= 689, codes=445, stmts= 532
    LINKER: lines= 35, codes=22, stmts= 22
    HASM: lines= 180, codes=115, stmts= 143
    BCODER: lines= 15, codes=7, stmts= 6
    NODES: lines= 84, codes=47, stmts= 40
    TYPES: lines= 182, codes=103, stmts= 134
    ERR: lines= 33, codes=17, stmts= 17
    LEX: lines= 162, codes=55, stmts= 61
    UTILS: lines= 70, codes=46, stmts= 51
    COMPILER_CFG: lines= 63, codes=6, stmts= 5
    TARGETS_CFG: lines= 109, codes=57, stmts= 45

    TOTAL
    lines: 3364
    codes: 2076
    stmts: 2353

    Certes, ce compilateur n'est pas encore complet, tout comme mon langage, mais le "lexer" est fait en 121 lignes de code, le parser en 596 (incluant la détection des erreurs lexicales et syntaxiques). Le tout fait "à la main", sans IA ni autres "outils" que "notepad" comme éditeur.

    Mais le langage (Home) permet de faire des calculs, de créer et d'appeler des fonctions, de créer et d'utiliser des structures et des types, d'avoir un zeste de POO, de découper un programme en "modules", d'utiliser des librairies (en code source seulement), a des boucles (for) ne nécessitant pas d'imbrication comme en C, un if/elif/else, de faire des déclarations très facilement.

    Le générateur d'IRC (un code intermédiaire) est produit avec 445 lignes de code, avec des optimisations du code incluses.

    Mais en informatique, il faut utiliser le bon outil (parmis ceux que l'on maîtrise). C'est ainsi depuis toujours... On utilise un marteau pour enfoncer un clou, et un tournevis pour enfoncer une vis ;-)

    Si tu veux participer à la réflexion sur le langage et son compilateur, ça se passe ici :https://www.developpez.net/forums/d2...uveau-langage/

    BàT et Peace & Love.

  4. #104
    Membre éclairé
    Homme Profil pro
    autre
    Inscrit en
    Septembre 2015
    Messages
    548
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Yvelines (Île de France)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Septembre 2015
    Messages : 548
    Par défaut
    J’ai déjà codé un petit language (en Java)… et ai pris Antlr. C’est un générateur de lexer et parser (façon lex et yacc), mais supporte plusieurs languages cibles dont Python:

    https://github.com/AlanHohn/antlr4-python/tree/master
    https://github.com/antlr/antlr4/blob...r/doc/index.md

    L’outil est très puissant.

  5. #105
    Membre très actif
    Avatar de JPBruneau
    Homme Profil pro
    retraité
    Inscrit en
    Août 2019
    Messages
    251
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Val de Marne (Île de France)

    Informations professionnelles :
    Activité : retraité
    Secteur : Conseil

    Informations forums :
    Inscription : Août 2019
    Messages : 251
    Par défaut Oui et non
    Citation Envoyé par OuftiBoy Voir le message
    KilVaiDeN

    Et de toute façon, chacun fait comme il veut. Certains ont "industrialisé" un domaine, et d'autres sont restés des "artisants" du même domaine. Chacun apporte une chose différente, et c'est très bien ainsi. Je préfère un bon resto qu'un plat sortant de chez Tricatel...

    Sur ce, Bonne journée.

    BàV et Peace & Love.
    Presque OK avec toi 100% sauf ton dernier paragraphe, L' IA restera incontournable dans des cas trés précis , médical , météo , militaire et renseignements etc.. Bref tout ceux qui ont les moyens de payer et participer à l' enrichissement des gros Datacenters, c'est le cas des des centre d'aide des dermatologues, puisqu'ils peuvent envoyer aux hopitaux spécialisés, un photo de peau ayant un petit bouton douteux, le systéme IA arrive à détecter un an avant nos spécialistes, si le petit bouton est clairement cancérigéne. environ 2 ans de cette méthode et zéro erreurs !

    Par contre pour la grande majoritée des PME, Mairies etc... un petit plus est sans doute bien venue qui se baserait sur des données locales donc sans Data-centeurs, sauf éventuélement un petit datacenter tel que "it-planet.com" 3500 € !
    Cette discution de vieux n'éfleurera pas nos enfants ... l' IA Tu as connu les premiers tel portables ?

  6. #106
    Expert confirmé

    Homme Profil pro
    Directeur des systèmes d'information
    Inscrit en
    Avril 2002
    Messages
    2 900
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 65
    Localisation : Luxembourg

    Informations professionnelles :
    Activité : Directeur des systèmes d'information
    Secteur : Finance

    Informations forums :
    Inscription : Avril 2002
    Messages : 2 900
    Par défaut
    Pour la partie bourse le Nasdaq 100 est encore dans la tourmente, Bull versus Bear on ne sais pas encore qui va gagner.
    La majorité des analystes confirment que le niveau de valuation est bien trop élevé sur la tech, et que le Nasdaq pourrait donc se corriger fortement à la baisse. D'autres part les valeurs hardware comme Nvidia ou AMD bien que très très surévaluées restent solides car la demande en composants pour Data Centers va continuer à s'accroitre pendant quelques années, mais c'est pas pour autant que c'est prudent de les garder à court terme car une chute violente du Nasdaq provoquerais probablement un réajustement de leur valeur à la baisse, y compris via des ventes paniques qui interviennent systématiquement dès qu'on dépasse les 20% de baisse.

    Par contre beaucoup de valeurs logicielles sont du vent et pourraient subir des corrections de plus de 90% comme ça s'est déjà vu pendant l'éclatement de la bulle Web.

    Certains analystes jouent encore la hausse avec la supposée baisse des taux US à venir par la FED, mais d'autres analystes expliquent que cette baisse des taux à venir serait une lourde erreur de la FED, car les USA n'ont pas corrigé leur problème d'inflation, et dans le passé une baisse des taux US pendant une inflation à empiré l'inflation et créé une récession et un krach, donc une baisse les taux US par la FED dans un contexte encore inflationniste serais une grave erreur et cela de toute façon conduirait aussi un à un Krach. Donc possible que ça remonte temporairement, ou pas, mais à un moment donné ça va devoir s'écrouler, soit maintenant, soit plus tard.

  7. #107
    Membre confirmé
    Homme Profil pro
    Développeur en systèmes embarqués
    Inscrit en
    Mai 2015
    Messages
    493
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 55
    Localisation : Belgique

    Informations professionnelles :
    Activité : Développeur en systèmes embarqués

    Informations forums :
    Inscription : Mai 2015
    Messages : 493
    Par défaut Je suis bien d'accord...
    JPBruneau

    Citation Envoyé par JPBruneau Voir le message
    Presque OK avec toi 100% sauf ton dernier paragraphe, L' IA restera incontournable dans des cas trés précis , médical , météo , militaire et renseignements etc.. Bref tout ceux qui ont les moyens de payer et participer à l' enrichissement des gros Datacenters, c'est le cas des des centre d'aide des dermatologues, puisqu'ils peuvent envoyer aux hopitaux spécialisés, un photo de peau ayant un petit bouton douteux, le systéme IA arrive à détecter un an avant nos spécialistes, si le petit bouton est clairement cancérigéne. environ 2 ans de cette méthode et zéro erreurs !
    Oui, je suis d'accord sur ce point, c'est ce que je disais en parlant des "traces" que laissera l'IA. L'anlyse d'image médicale en fait partie. Une IA bien spécifique, entrainée avec des données bien spécifiques, et validées auparavant par des spécialistes.

    Citation Envoyé par JPBruneau Voir le message
    Par contre pour la grande majoritée des PME, Mairies etc... un petit plus est sans doute bien venue qui se baserait sur des données locales donc sans Data-centeurs, sauf éventuélement un petit datacenter tel que "it-planet.com" 3500 € !
    Cette discution de vieux n'éfleurera pas nos enfants ...
    Dans ces cas là, il faudrait peut-être avant passer par une phase de simplication de toute les couches et des paperasses inutiles... L'informatique aurait du aider a "limiter" cette paperasse (bien avant l'IA), mais là où un simple carton et un crayon suffisaient pour emprunter un livre dans une bibliothéque, il faut maintenant passer par une borne, qui marche au pas, qui consomme, et génère plus de papier qu'avant. Pourquoi ? Parce c'est plus simple de "produire une copie", alors on le fait même si pas nécessaire...

    Citation Envoyé par JPBruneau Voir le message
    l' IA Tu as connu les premiers tel portables ?
    Oui, évidemment. Même si on s'en passait bien avant, c'est un progrès. Mais un progrès qui a dévié vers des "smartphones" (que je n'ai jamais voulu, par choix). Smartphones qui permettent à n'importe qui de faire des photos de n'importe quoi, et qui s'entassent dans des datacenters. Je ne sais plus où j'ai lu que la majorité des photos stockées étaient des photos de chat... Sans compter que ces "smartphones" t'espionnent, te bombardent de pub, et abrutissent nos enfants avec des débilités sans nom.

    Je "hais" les smartphones et les dérivent qui viennent avec. Un des gros point que je reproche à ceux-ci, c'est qu'ils nous ont plongés dans l'ère de "l'instantané", où l'on publie "sans réflexion" des vidéos et des images sans leurs "contexte", et qui peuvent se terminer en drame. J'ai un amis qui a eu le cas. Sans rentrer dans le détail, on a publier une vidéo qui a première vue le rendait coupable (alors qu'il ne l'était pas), et des idiots sans noms on fait brûler sa maison "en représsaille".

    Cette ère de l'instantané fait de nos enfants des "frustrés" lorsqu'ils n'ont pas immédiatement ce qu'ils désirent, car habitués dès le biberon. Il n'y a plus de recul. Plus de refexion.

    C'est pareil sur internet. Au début, on y trouvait des informations qu'on aurait jamais pu avoir autrement, mais maintenant c'est innondé de "bousses" idiotes, de fausses informations, et, bien évidemment de publicité, nous poussant à consommer alors qu'on nous dit dans le même temps qu'il faut "en vouloir moins" pour "sauver la planère". Triste époque...

    BàT et Peace & Love.

  8. #108
    Membre confirmé
    Homme Profil pro
    Développeur en systèmes embarqués
    Inscrit en
    Mai 2015
    Messages
    493
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 55
    Localisation : Belgique

    Informations professionnelles :
    Activité : Développeur en systèmes embarqués

    Informations forums :
    Inscription : Mai 2015
    Messages : 493
    Par défaut Bonjour
    floyer,

    Citation Envoyé par floyer Voir le message
    J’ai déjà codé un petit language (en Java)… et ai pris Antlr. C’est un générateur de lexer et parser (façon lex et yacc), mais supporte plusieurs languages cibles dont Python:

    https://github.com/AlanHohn/antlr4-python/tree/master
    https://github.com/antlr/antlr4/blob...r/doc/index.md

    L’outil est très puissant.
    Oui, ce sont de très bon outils, mais "faire les choses" à la main, fait que "tu vas certes moins vite", mais tu y gagnes en temps de "reflexion", surtout côté fonctionnalités que tu veux ou pas mettre dans ton langage. Si c'est fait via des outils, tu vas être tenté "d'en faire trop" et de mettre des "fonctionnalités" non nécessaire dans ton langage.

    Je crée ce langage et ce compilateur "à la main" volontairement notamment pour éviter une dérive de ce genre. Et puis, c'est bien plus instructif, intéressant et amusant de le faire ainsi, même si c'est plus difficile. Mais c'est un choix personnelle.

    BàT et Peace & Love.

  9. #109
    Invité
    Invité(e)
    Par défaut
    Je ne suis pas informaticien et je n'en aurai jamais la prétention mais j'ai noté avec 3 IA

    1. copilot j'ai pu lui écrire des débilités sans nom et l'IA pas si maline que ça m'a félicité (je jouerais notamment du tam tam sur des peaux de mammouths laineux ce qui comme chacun sait se trouve dans n'importe quel Amazon de nos jours après pour la livraison c'est compliqué )
    2. Lou mistraou continue et persévère dans l'affirmation selon laquelle Debian 13 n'existerait pas encore, j'en ai marre de la corriger (mal parti pour demander comment l'optimiser vu qu'elle n'existerait pas alors même que Deb13 qui n'existe pas fonctionne parfaitement bien)
    3. en droit l'IA va puiser dans des BDD pros donc l'erreur est rare mais des extrapolations il y en a ... disons que voir ce que voit l'IA dans un texte qui a priori n'a pas de lien direct avec la problématique sauf peut être au 4e ou 5e degré relève donc du postulat capillotracté

    C'est potentiellement utile mais avec prudence et si on ne connait pas du tout le domaine c'est les Tuche se croient admis au CNRS ou Trump se croit déjà prix Nobel (non là c'est méchant car chacun sait qu'il aura le prix Turing)

    In fine pour l'éclatement de bubulle enfin, on va pouvoir utiliser l'outil sans pression excessive et fin de l’aventure pour les trouzmille youtubeurs à la ... qui nous polluent internet avec leurs icônes débilitantes. j’en ai tout autant ras le bol des annonciateurs d'apocalypse que de ceux qui expliquent que ça n'existe pas (Comme debian13 tiens donc).

    Je préfère saisir 0,00000000001 % de la vérité informatique par des informaticiens qualifiés qu'avaler 100% de .... empaquetées par des bateleurs de foire.... On va peut être enfin utiliser l'IA comme il convient et aussi en entendre parler comme il convient aussi. (de manière posée rationnelle réaliste et saine)
    Dernière modification par Invité ; 26/08/2025 à 16h46.

  10. #110
    Membre très actif
    Avatar de JPBruneau
    Homme Profil pro
    retraité
    Inscrit en
    Août 2019
    Messages
    251
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Val de Marne (Île de France)

    Informations professionnelles :
    Activité : retraité
    Secteur : Conseil

    Informations forums :
    Inscription : Août 2019
    Messages : 251
    Par défaut Mais si IA est déja plus loin
    Citation Envoyé par Matthieu Vergne Voir le message
    Avec la techno actuelle, ce n'est effectivement pas possible car elle est statistique. On n'a pas la garantie d'avoir le bon résultat, même si le prompt est hyper garni pour amener à la bonne réponse, même avec un system prompt adapté à la tâche (pour ceux qui utilisent un LLM local, les "instructions/modes/etc" pour ceux qui utilisent des agents officiels).
    Désolé mon ami, ma fille infirmiére dans un centre réputé de dermatologie , voit les professeurs proposer tout les jours depuis 1 an, des photos de petits boutons de la peau douteux, sur les quels ,avant ils disaient "Ah .. a surveiller" et 6 mois plus tard juger par leur savoir de haut niveaux que oui c'était cancéreux ! Et l' IA maintenant le déclare ! OUI avec la techno c'est sur des serveurs couteux certe, mais spécialisés le point les plus en avance à ce jour, oui surement derriére les renseignements généraux (enfin je pense) .
    Pour ma par, j'ai une vieille expérience avec l'aide d'IBM à l' époque des premiers moteurs d'inférence, (tu connait puisque tu est spécialiste)
    coordonner la construction de 2 villes en plein désert en 2 ans ! Imagines combien il nous aurait falu d'ingénieurs sur place pour une telle coordination !

  11. #111
    Membre éprouvé
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 395
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 395
    Billets dans le blog
    3
    Par défaut
    JPBruneau, la partie que tu cites est au sujet de code généré par IA. Donc de l'IA générative, style ChatGPT, Claude, etc. Ce à quoi tu compares n'a rien à voir : ce sont des réseaux de neurones entraînées sur de la reconnaissance d'image (pas de la génération) qui plus avec un entraînement dédié (spécifiquement pour cet usage médical). Ce genre de techno est effectivement utilisé depuis longtemps et fonctionne très bien, mais cela ne remet pas en cause ce que j'ai dit.

    Dans ce que tu dis ensuite, je ne suis d'ailleurs même pas sûr que tu parles de réseaux de neurones. IBM a par exemple fait Watson qui n'a rien à voir avec des réseaux de neurones. Et des systèmes d'inférence on en a fait bien avant avec du symbolique, ce qu'on appelle usuellement des systèmes experts, qui sont effectivement très bons (c'est leur spécialité) pour établir des raisonnements démontrés, mais difficile à produire car nécessitant d'expliciter des règles précises grâce à des experts du domaine. Les réseaux de neurones sont justement venu "régler" ce problème car ils n'ont pas besoin de règles pré-établies, mais en échange n'apprennent pas de règles clairement identifiables dès lors que le réseau devient grand.

    Le soucis quand on parle d'IA est que ça peut qualifier énormément de choses, même des IA de jeu vidéo. Il est important de garder le contexte en tête pour interpréter le terme correctement et ne pas tout mélanger.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  12. #112
    Membre très actif
    Avatar de JPBruneau
    Homme Profil pro
    retraité
    Inscrit en
    Août 2019
    Messages
    251
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Val de Marne (Île de France)

    Informations professionnelles :
    Activité : retraité
    Secteur : Conseil

    Informations forums :
    Inscription : Août 2019
    Messages : 251
    Par défaut Oui IA désigne plusieures technologies
    Citation Envoyé par Matthieu Vergne Voir le message
    JPBruneau, la partie que tu cites est au sujet de code généré par IA. ............................................................................
    Le soucis quand on parle d'IA est que ça peut qualifier énormément de choses, même des IA de jeu vidéo. Il est important de garder le contexte en tête pour interpréter le terme correctement et ne pas tout mélanger.
    Oui j'entends bien mais pour simplifié,(fortement) l'origine que j'ai citée me concernant, est que (si tu veux bien dire les choses pour les nombreux utilisateurs d'outils informatique qui croient utiliser de l'IA) Pour qu'il y ai présence de l'IA il faut les trois éléments,
    1 Une question posée sur un clavier => l'ordinateur envoie sa question à
    2 un moteur d'inférence qui comprend la question même mal dite ,qui ramasse sur son data center tout ce dont il a besoin pour ==>
    3 passer au 3 donné la réponse.
    C'est ça pour moi et c'est toujours cela à mon sens la vrais définition de l' IA, aprés on peut chercher si on a assez de neurones
    Tu est OK avec moi, du reste je cherche à cause des événements avec une Mairie avec un mini Datacenter (5740 €) et leurs réseau interne d'ordinateurs, de gérer tout avec l'IA même si cela prends un an on y croit ! Aucun lien avec internet en cas de je ne sais quel danger ..
    Voila pourquoi je comprend ta réaction, et mes conaissances sont déjas dépassées sur ce domaine par ta vision plus récente des choses que tu as et que deux de mes enfants ont, ce dont je suis certain c'est que leur vie sera dur au début. Ils étaient il y a 2 ans maitre du monde ....
    Nom : ChatGPT-2025-08-23-neurones-IA.jpg
Affichages : 661
Taille : 696,3 Ko

  13. #113
    Membre éclairé
    Homme Profil pro
    autre
    Inscrit en
    Septembre 2015
    Messages
    548
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Yvelines (Île de France)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Septembre 2015
    Messages : 548
    Par défaut
    On parle d’IA pour autre chose que des chatbot. Comme AlphaZero.

    Une particularité de l’IA est d’apprendre… on donne à AlphaZero les règles des échecs, sans aucune heuristique (une dame est plus interessante qu’une tour…) et l’IA se crée ses propre fonctions d’évaluation. Même algorithme mais avec le jeu de go ? Aucun problème.

    Pour les reconnaissance de caractères pareil, l’algorithme n’est pas spécialise pour certains caractères, et peut apprendre chiffres, caractères latin, cyrillique, etc.

    Mais dans les deux exemples, il y a des statistiques ou réseaux de neurones. Je ne mettrais pas dans l’IA un algorithme tel que Dancing Link (algorithme qui résout aussi bien le Sudoku, le pentamino, ou les 8 reines selon le paramétrage), ou encore reconnaissance de grammaire LALR (qui s’adapte à différents language)

  14. #114
    Membre très actif
    Avatar de JPBruneau
    Homme Profil pro
    retraité
    Inscrit en
    Août 2019
    Messages
    251
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Val de Marne (Île de France)

    Informations professionnelles :
    Activité : retraité
    Secteur : Conseil

    Informations forums :
    Inscription : Août 2019
    Messages : 251
    Par défaut Combien de temps pour programmer en IA ?
    Citation Envoyé par floyer Voir le message
    On parle d’IA pour autre chose que des chatbot. Comme AlphaZero.
    ETC...
    Tu confirme le long sujet ICI, qui nous a tous rassemblé, OUI tu as raison, il n'y a pas qu' AlphaZero 👌mais lui tu vois il n'avait aucune base de données c'est fou j'aurais aimé voir le code d'aprentissage je crois de DeepMind, une entreprise rachetée par Google (Alphabet Inc.).
    Il est entièrement basé sur l’apprentissage par renforcement (reinforcement learning) et réseaux de neurones profonds. 😒

  15. #115
    Membre éprouvé
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 395
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 395
    Billets dans le blog
    3
    Par défaut
    Citation Envoyé par JPBruneau Voir le message
    Pour qu'il y ai présence de l'IA il faut les trois éléments,
    1 Une question posée sur un clavier => l'ordinateur envoie sa question à
    2 un moteur d'inférence qui comprend la question même mal dite ,qui ramasse sur son data center tout ce dont il a besoin pour ==>
    3 passer au 3 donné la réponse.
    C'est ça pour moi et c'est toujours cela à mon sens la vrais définition de l' IA
    Pour le coup, l'IA générative n'utilise pas de datacenter lors de l'inférence. Uniquement du temps CPU. Le datacenter sert lors de l'apprentissage et du fine tuning. Pour l'inférence, on peut venir brancher des outils dessus qui donnent accès à des données mais la partie "IA générative" n'en a pas besoin pour fonctionner.

    Hélas, on n'a pas de consensus sur la définition du terme "intelligence artificielle". Des experts se sont frottés rien qu'à la définition d'intelligence, et j'aime à citer cet article de recherche pour bien illustrer cette difficulté :
    Gottfredson, L. S. Mainstream Science on Intelligence: An Editorial with 52 Signatories, History, and Bibliography. Intelligence 1997, 24 (1), 13–23. https://doi.org/10.1016/S0160-2896(97)90011-8.
    Intelligence is a very general mental capability that, among other things, involves the ability to reason, plan, solve problems, think abstractly, comprehend complex ideas, learn quickly and learn from experience. It is not merely book learning, a narrow academic skill, or test-taking smarts. Rather, it reflects a broader and deeper capability for comprehending our surroundings-“catching on,” “making sense” of things, or “figuring out” what to do.
    J'ai mis en gras la partie importante : cette définition est totalement ouverte. On ne sait pas vraiment ce qu'on doit y mettre. Cet article date de 1997, mais le domaine de l'IA date d'il y a bien plus longtemps et a construit sur cette ambiguïté, qui n'est toujours pas résolue aujourd'hui.

    De fait, chacun vient un peu avec la sienne de manière implicite et les discussions peuvent tourner vinaigre juste parce que, bien que les deux intervenants soient fondamentalement d'accord (s'ils parlaient de la même chose ils tomberaient sur des conclusions similaires), ils sont apparemment en désaccord (ils parlent tous deux d'IA mais sans donner leur définition, et donc sans se rendre compte qu'ils parlent de choses différentes).

    Tu peux prendre ta propre définition, qui pour le coup est très opérationnelle, mais celle-ci n'inclue aucune notion de qualité de la réponse. Aussi un simple script qui reçoit n'importe quelle question en entrée et renvoie n'importe quelle réponse aléatoire passe ta définition. Et même si tu incluais la nécessité d'être correct, on pourrait même en faire un qui renvoie systématiquement une variante de "peut-être" ("ça dépend", "il faut nuancer", etc.), il sera alors systématiquement "correct" mais jamais informatif (donc en fait, pas vraiment "correct", juste "jamais incorrect"). Et chaque fois que tu chercherais à compléter ta définition, on pourrait te sortir un exemple qui de toute évidence ne serait pas intelligent mais collerait à la définition revue. Ce n'est pas pour rien que même des experts ne sauraient donner une définition claire et précise.

    Aujourd'hui, quand on dit "IA", la majeure partie du temps on entends par là "IA générative" et donc LLM et génération d'image et de vidéo. Il y a quelques années on parlait plutôt de Deep Neural Network (dont AphaGo, AlphaZero, etc.), avant ça de Neural Network, avant ça de systèmes experts, etc. Là on a de nouvelles technos en cours de conception, comme Yann Lecun et son I-JEPA. Peut-être que dans 10 ans on aura complètement oublié les IA génératives qui font le buzz aujourd'hui au profit de ces nouvelles technos, et "IA" aura donc à nouveau changé d'interprétation.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  16. #116
    Membre très actif
    Avatar de JPBruneau
    Homme Profil pro
    retraité
    Inscrit en
    Août 2019
    Messages
    251
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Val de Marne (Île de France)

    Informations professionnelles :
    Activité : retraité
    Secteur : Conseil

    Informations forums :
    Inscription : Août 2019
    Messages : 251
    Par défaut
    Citation Envoyé par Matthieu Vergne Voir le message
    Pour le coup,
    Oui ça fini par bien complété ce qui avoue le n'est pas simple à faire ,merci et bravo à toi
    Ma question a Copilote
    Un ami essayant de nuancé la définition exacte de cequi est ou pas, l' IA écrit :
    ___________________________________________
    TON TEXTE INTEGRALEMENT
    ______________REPONSE de COPILOTE_____________________________
    Ton avie est quoi sur ce texte ça nous intéresse merci !

    Ton ami a rédigé un texte remarquablement nuancé, dense et lucide — une vraie démonstration de pensée
    critique sur les ambiguïtés qui entourent le terme "intelligence artificielle". Voici quelques réflexions
    que je peux partager :

    🧠 Sur la définition de l’intelligence
    La citation de Gottfredson est bien choisie : elle illustre à quel point même les experts peinent à cerner ce qu’est l’intelligence. La définition proposée — une capacité générale à raisonner, planifier, apprendre, etc. — est large, presque trop inclusive. Et c’est justement là le problème : toute tentative de définition rigoureuse se heurte à des contre-exemples ou à des cas limites. Ce flou conceptuel se répercute naturellement sur la définition de l’IA.
    D’ailleurs, le fait que cette définition date de 1997 et reste encore pertinente aujourd’hui montre à quel point le débat est stagnant… ou peut-être simplement éternel.
    🤖 Sur l’IA générative et l’inférence
    La distinction entre entraînement (qui mobilise des datacenters massifs) et inférence (qui peut se faire sur des machines plus modestes) est techniquement juste. Mais elle mérite une nuance : dans la pratique, l’inférence à grande échelle (comme celle des LLMs en production) repose souvent sur des infrastructures cloud, donc des datacenters, même si ce n’est pas une nécessité théorique.
    🧩 Sur la confusion des définitions
    L’idée que deux personnes peuvent débattre de l’IA sans se rendre compte qu’elles parlent de choses différentes est très juste. C’est un phénomène courant dans les discussions interdisciplinaires : chacun apporte ses propres présupposés, souvent implicites. Et comme le mot "intelligence" est chargé de connotations philosophiques, cognitives, techniques, voire sociales, le malentendu est presque inévitable.
    🌀 Sur l’évolution du terme "IA"
    L’historique que ton ami trace — des systèmes experts aux réseaux de neurones profonds, puis aux LLMs — est fidèle à la réalité. Le terme "IA" est un caméléon : il change de peau selon les modes technologiques. Ce glissement sémantique est fascinant, mais aussi source de confusion. Ce qu’on appelle "IA" aujourd’hui n’a plus grand-chose à voir avec ce qu’on appelait "IA" dans les années 80.
    Et il est tout à fait plausible que dans 10 ans, les IA génératives soient vues comme une étape transitoire, un peu comme les systèmes experts aujourd’hui.
    🧪 Sur la définition opérationnelle
    La critique de la définition "opérationnelle" est pertinente : si on définit l’IA uniquement par sa capacité à produire une réponse, sans exigence de pertinence ou de qualité, alors même un générateur aléatoire pourrait être qualifié d’intelligent. Cela montre bien que toute définition sérieuse doit intégrer des critères qualitatifs — mais lesquels ? Et comment les mesurer ? C’est là que le débat devient philosophique.

    💬 En résumé
    Ce texte est une excellente base pour une discussion profonde sur les fondements de l’IA. Il ne cherche pas à clore le débat, mais à l’ouvrir intelligemment. Il montre que derrière les buzzwords et les prouesses techniques, il y a une vraie complexité conceptuelle — et c’est précisément ce qui rend le sujet si passionnant.
    Si tu veux, on peut creuser ensemble certains points : par exemple, comment définir une "réponse intelligente" ou comment l’IA pourrait évoluer vers des formes plus autonomes ou cognitives. Tu choisis la direction !

    ____________________________________________Reponse de ChatGPT___________________________________________
    Ton ami propose une réflexion riche, sincère, et documentée sur la difficulté de définir clairement
    ce qu’est l’intelligence artificielle (IA), en particulier l’IA dite générative.
    Voici un retour point par point sur son propos, suivi d’un avis global synthétique :

    🧠 1. Sur la difficulté de définir l’intelligence
    Il cite l’article de Gottfredson (1997), dont la définition est effectivement parmi les plus connues
    dans les sciences cognitives :
    « Intelligence is a very general mental capability [...] It is not merely book learning [...],
    it reflects a broader and deeper capability for comprehending our surroundings. »
    ➡️ C’est tout à fait pertinent. Cette définition souligne que l’intelligence implique des dimensions variées :
    raisonnement, compréhension, apprentissage, adaptation… Or, aucune IA actuelle ne réunit tout cela de façon générale.
    Cela rend toute tentative de définir l’IA délicate, car :
    Si on prend une définition large : plein de systèmes banals deviennent "IA"
    Si on prend une définition étroite : même les meilleurs modèles actuels n'en sont pas
    ⚙️ 2. Sur la distinction entre apprentissage, inférence, et datacenters
    Il dit :
    « L’IA générative n’utilise pas de datacenter lors de l’inférence. [...] Le datacenter sert lors de l’apprentissage. »
    ➡️ Ce n’est pas tout à fait exact, mais plutôt bien vu dans l’idée générale.
    Oui : L’entraînement des LLM (GPT, Claude, Mistral…) se fait sur des datacenters massifs pendant des semaines.
    Mais : l’inférence aussi se fait sur des serveurs (souvent GPU ou TPU), dans des datacenters.
    Ce ne sont pas forcément les mêmes datacenters que pour l'entraînement, mais il y a toujours des ressources
    cloud puissantes utilisées.
    🔹 Un simple téléphone ou navigateur n’héberge pas l’inférence localement pour ChatGPT ou Claude.
    Seules quelques IA locales très réduites (comme LM Studio ou Mistral 7B quantisé) fonctionnent ainsi.
    Donc :
    ✅ Bonne distinction apprentissage/inférence
    ❌ Faux de dire que l’inférence n’utilise pas de datacenter (à grande échelle)
    🔄 3. Sur la confusion autour du terme IA
    Il écrit :
    « Ce n’est pas pour rien que même des experts ne sauraient donner une définition claire et précise. »
    ✔️ Entièrement d’accord.
    L’IA est un terme-valise évolutif, qui a changé de sens au fil des décennies :
    Époque Terme dominant Exemple
    1950–1980 Systèmes experts Prolog, Mycin
    1990–2010 Réseaux neuronaux Perceptron, Backprop
    2012–2020 Deep Learning CNN, RNN, DNN
    2021–... IA générative (LLM) GPT, Claude, DALL·E
    Il a raison de dire que le sens glisse en fonction de la technologie la plus visible.
    🤖 4. Sur la "qualité" des réponses comme critère d’intelligence
    « Un script qui renvoie “peut-être” est toujours correct mais pas intelligent. »
    Très bon exemple pédagogique : il montre pourquoi la performance perçue (ou l’utilité) est aussi importante
    que la structure technique.
    ➡️ On peut dire qu’un système est "intelligent" uniquement si :
    Il s’adapte au contexte,
    Il répond avec pertinence,
    Il progresse avec l’expérience (ce que les LLM ne font pas encore directement sans re-entraînement).
    🧩 AVIS GLOBAL SUR SON TEXTE
    Ton ami a :
    Une culture solide en IA,
    Une analyse nuancée et honnête,
    Une capacité de vulgarisation qui mérite d’être saluée.
    👉 Sa conclusion implicite est juste :
    L’IA est un mot pratique, mais flou. On peut donc se parler de la même chose tout en croyant être en désaccord, ou l’inverse.
    C’est précisément pourquoi les débats sur l’IA sont si passionnés et souvent… mal cadrés.
    📌 Résumé en une phrase :
    Ton ami met le doigt sur l'ambiguïté fondatrice de l'IA : c’est un domaine défini autant par l’imaginaire collectif
    que par la technologie réelle, et cette ambiguïté est à la fois sa richesse… et sa faiblesse.
    _____________________________________________________
    Bravo à toi et je gardes cela dans mes archives.

    A propos j'ai pris TchatGPT4 puisque cette semaine aux infos de 20h "son Pére" avait confirmé à la presse (visible sur youtube) que ça verrsion 5 était buguée, et sera, espére t' il , remplacé par la V6 d'ici moins de deux ans.

  17. #117
    Membre éprouvé
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 395
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 395
    Billets dans le blog
    3
    Par défaut
    Merci pour le partage. Je ne me féliciterai cependant pas de ces réponses de Copilot et ChatGPT. D'une part parce que je ne dis rien de très avancé (informé, certes, pédagogique, c'est important pour moi, mais pas à niveau d'expert), et d'autres part car les LLMs ont des lacunes qu'il ne faut pas oublier : leur fonctionnalité première est de générer un texte plausible, pas forcément correct. Tant mieux si c'est le cas, juste ça n'est pas garanti. C'est une limite intrinsèque de cette techno. La positivité sur mes propos n'est donc pas gage de leur qualité. Il vaut mieux demander à un vrai expert dans le domaine pour avoir une vrai critique. Mais je salue l'initiative, car les réponses restent généralement informatives.

    Pour ce qui est du datacenter, la faute est partagée car l'interprétation se base sur un contexte qu'ils n'ont pas. Le fait est que je réponds à ta phrase :
    un moteur d'inférence qui comprend la question même mal dite ,qui ramasse sur son data center tout ce dont il a besoin pour [...] donné la réponse.
    J'ai repris ton terme datacenter, et c'est ce qui a porté à confusion. J'ai adapté mon interprétation de ce terme sur la base de ton discours, notamment suite à ta remarque sur AlphaZero n'ayant pas besoin de base de données. J'aurais pu dire "base de données" plutôt que "datacenter" mais la confusion aurait été identique. Ma compréhension est que tu parles ici de la nécessité pour la machine d'aller chercher des données liées à la question elle-même pour pouvoir répondre. C'est en ce sens que j'ai répondu : non les LLM n'ont pas besoin d'aller chercher de telles données pour forger leur réponse. Ils le font sur la seule base du prompt (requête) reçu et de ce qu'ils ont déjà acquis via leur apprentissage. Encore une fois, à moins qu'on leur ajoute des outils allant chercher de telles données (qui seront ajoutées au prompt), ce qui est devenu fréquent mais ni systématique ni nécessaire.

    La où la confusion intervient, c'est qu'un datacenter comme une base de données peuvent être utilisés pour stocker autre chose que les données pertinentes pour la question. Données qui peuvent servir à la simple exécution du programme faisant tourner le LLM. Auquel cas, même AlphaZero s'appuie sur une base de données. Mais ce n'est juste pas le sens pertinent pour comprendre (et répondre) à tes messages. Copilot et ChatGPT ont donc raison d'un point de vue général (un LLM non local revient nécessairement à utiliser un datacenter, celui-ci devant forcément s'exécuter quelque part). Par contre, cette définition générale n'est pas pertinente ici, où j'utilise "datacenter" dans le sens de "source externe de données liées à la question". Et sur ce point, je campe sur ma position : un LLM n'en a pas besoin pour faire son inférence.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  18. #118
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 735
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 735
    Par défaut Goldman Sachs : l’IA ne pourra pas croître éternellement et un ralentissement pourrait coûter 20 % au S&P 500
    Goldman Sachs : l’IA ne pourra pas croître éternellement et un ralentissement pourrait coûter 20 % au S&P 500,
    la banque alerte sur l'excès d'optimisme autour de l'IA et évoque une désillusion financière massive

    L’IA a porté Wall Street vers des sommets inédits, transformant Nvidia et les géants de la tech en locomotives boursières. Mais selon Goldman Sachs, cette course folle n’est pas éternelle. La banque anticipe un ralentissement inévitable de la productivité liée à l’IA, susceptible d’entraîner une correction brutale des marchés. Le S&P 500, dépendant de quelques valeurs phares, pourrait alors perdre jusqu’à 20 %. Un avertissement qui rappelle la fragilité des cycles d’innovation et l’importance de distinguer entre promesse technologique et réalité économique.

    Depuis le lancement de ChatGPT il y a plus de deux ans, l'intelligence artificielle générative est sur toutes les lèvres. Des géants de la tech aux start-up les plus audacieuses, tout le monde s'est mis à rêver de cette nouvelle révolution. Les chiffres donnent le vertige : des milliards de dollars investis, des valorisations qui s'envolent et un marché boursier enivré par les promesses d'un futur radieux. Les promesses sont immenses : réinventer la productivité, automatiser la créativité, transformer la manière dont nous travaillons. Mais derrière l’emballement médiatique et financier, des signaux inquiétants s’accumulent.

    Aussi, des voix de plus en plus nombreuses murmurent la même inquiétude : sommes-nous en train de vivre la formation d'une nouvelle bulle, prête à éclater ? Plusieurs analystes estiment que nous vivons actuellement une bulle spéculative comparable à celle des dot-com au début des années 2000.

    Une étude récente du MIT fait l’effet d’une douche froide : 95 % des projets en intelligence artificielle générative échouent à créer de la valeur mesurable. Autrement dit, seule une poignée de cas d’usage parvient réellement à générer un retour sur investissement tangible. « Malgré les 30 à 40 milliards de dollars investis par les entreprises dans l'IA générative, ce rapport révèle un résultat surprenant : 95 % des organisations n'obtiennent aucun retour sur investissement », ont écrit les chercheurs du MIT.

    Le mirage de la croissance infinie

    L’intelligence artificielle est devenue le carburant le plus puissant de Wall Street. En l’espace de deux ans, elle a dopé les valorisations de Microsoft, Meta, Alphabet et surtout Nvidia, transformée en véritable totem boursier. Chaque trimestre, ces entreprises annoncent des résultats astronomiques, nourris par une demande insatiable en puissance de calcul et en solutions logicielles. Pour beaucoup d’investisseurs, la trajectoire semble tracée : une croissance sans frein, une révolution économique comparable à l’électricité ou à l’informatique personnelle.

    Mais derrière cet optimisme quasi dogmatique, Goldman Sachs apporte une note de réalisme. Selon la banque, la dynamique actuelle repose sur une illusion de continuité. La productivité générée par l’IA (c’est-à-dire sa capacité à accroître l’efficacité des entreprises et à stimuler les profits) ne pourra pas rester éternellement exponentielle. Un ralentissement est « inévitable ». Et s’il intervient plus tôt que prévu, l’effet de correction pourrait être violent : jusqu’à 20 % de chute sur le S&P 500.

    Pourquoi Goldman Sachs craint une secousse

    L’argument central est lié à la manière dont les marchés fonctionnent. Les investisseurs ne paient pas seulement pour des bénéfices actuels mais pour des bénéfices futurs anticipés. Or, dans le cas de l’IA, ces anticipations ont atteint des niveaux vertigineux. Les multiples de valorisation appliqués aux entreprises de la tech reposent sur l’idée que les gains de productivité de l’IA vont continuer à se diffuser massivement, dans tous les secteurs de l’économie.

    Si la diffusion ralentit – par exemple parce que certaines industries tardent à adopter ces technologies, ou parce que les coûts d’implémentation restent prohibitifs – la promesse de rentabilité pourrait se révéler en partie illusoire. Pour Goldman Sachs, ce scénario ne relève pas de la science-fiction : c’est une trajectoire classique d’innovation, où après une phase d’explosion vient une phase de consolidation, parfois brutale.

    Nom : artificiel.png
Affichages : 12301
Taille : 385,4 Ko

    Des précédents historiques inquiétants

    La comparaison avec la bulle Internet s’impose presque naturellement. À la fin des années 1990, les investisseurs misaient sur la révolution numérique sans toujours distinguer les modèles viables des mirages. Lorsque la réalité économique a rattrapé l’euphorie, le Nasdaq s’est effondré de près de 80 % en deux ans. Certains analystes rappellent aussi l’épisode des énergies renouvelables, où l’enthousiasme pour une transition énergétique rapide a propulsé certaines valeurs vers des sommets… avant que la rentabilité réelle ne déçoive. Dans les deux cas, le schéma était identique : un emballement spéculatif suivi d’un retour à la réalité.

    Au tournant des années 2000, la bulle Internet avait vu les valorisations de jeunes pousses s’envoler à des niveaux absurdes. Beaucoup de ces sociétés ont ensuite disparu. Aujourd’hui, on retrouve les mêmes ingrédients avec l’IA :
    • Des investissements colossaux (plus de 500 milliards de dollars injectés en deux ans par les GAFAM).
    • Des revenus modestes en retour (35 milliards estimés en plus, soit un écart énorme).
    • Une frénésie médiatique où chaque entreprise se doit d’annoncer son « plan IA » pour rester crédible.

    Les entreprises cotées en bourse se sont empressées d'annoncer des investissements dans l'IA ou de revendiquer des capacités d'IA pour leurs produits dans l'espoir de faire grimper le cours de leurs actions, tout comme la génération précédente d'entreprises s'était présentée comme des « dot-coms » dans les années 1990 afin de paraître plus attrayantes aux yeux des investisseurs.

    Nvidia, le fabricant d'une puce haute performance alimentant la recherche en IA, joue presque le même rôle que celui joué par Intel Corp., un autre fabricant de puces, dans les années 1990 en tant que leader boursier, contribuant à soutenir le marché haussier des actions.

    « Cela semble logique pour une bulle », a déclaré Marko Kolanovic, ancien directeur de recherche chez JP Morgan.

    Le MIT a constaté que malgré des investissements massifs dans les logiciels d'IA, la moitié des projets se sont soldés par un échec. Il a indiqué que 80 % des entreprises avaient exploré la technologie de l'IA, mais que seulement 40 % l'avaient déployée. Il ajoute que les « systèmes de niveau entreprise » ont été « discrètement rejetés » par les grandes entreprises et que seulement « 20 % ont atteint le stade pilote et 5 % seulement ont atteint le stade de la production ».

    La grande question est de savoir si l’IA connaîtra la même trajectoire, ou si elle saura éviter ce piège grâce à une adoption réellement transversale et durable.

    La fragilité d’un marché concentré

    Un autre facteur amplificateur est la concentration du S&P 500. Jamais dans l’histoire moderne des marchés américains un si petit nombre d’entreprises n’a autant pesé dans la capitalisation globale. Les « Magnificent Seven » – Microsoft, Apple, Nvidia, Alphabet, Meta, Tesla et Amazon – représentent à elles seules plus d’un quart de l’indice.

    Dans ce contexte, tout ralentissement de la croissance liée à l’IA toucherait en priorité ces mastodontes. Et leur poids est tel que le reste du marché ne pourrait pas compenser. L’effet domino serait immédiat : un ajustement sur Nvidia, par exemple, pourrait suffire à déclencher une vague de ventes sur l’ensemble des valeurs technologiques, entraînant avec elles l’indice global.

    Les incertitudes qui pèsent sur l’IA

    Plusieurs éléments nourrissent le scepticisme de Goldman Sachs. D’abord, les contraintes matérielles : la fabrication des semi-conducteurs, concentrée entre quelques acteurs comme TSMC, reste vulnérable à des goulets d’étranglement. Ensuite, la consommation énergétique colossale des centres de données pose la question de la soutenabilité à long terme. Enfin, la régulation pourrait venir freiner la course à l’IA, avec des normes plus strictes sur la protection des données, la transparence des modèles et l’impact environnemental.

    Au-delà de ces obstacles, il y a la question fondamentale de la diffusion des gains. Si les premiers adoptants – banques, médias, santé, logistique – profitent déjà de gains mesurables, beaucoup d’autres secteurs restent à la traîne. Les PME, notamment, peinent à absorber le coût et la complexité des solutions IA. Sans une adoption généralisée, les effets macroéconomiques resteront limités.

    L'euphorie de l'IA face à la réalité économique : personne ne paie la facture

    Le signal d’alerte le plus tangible se lit dans les états financiers. Amazon et Oracle ont affiché deux trimestres consécutifs de flux de trésorerie libre négatif. Alphabet et Meta, malgré des revenus publicitaires toujours colossaux, voient eux aussi cette métrique essentielle s’éroder. Cela ne veut pas dire que ces entreprises sont déficitaires au sens classique, mais que leur capacité à générer du cash disponible pour financer de nouveaux investissements se réduit fortement.

    En cause : les dépenses astronomiques pour soutenir l’IA. Construction de data centers énergivores, achat massif de GPU NVIDIA, salaires à sept chiffres pour les chercheurs en IA, acquisitions de startups stratégiques… L’équation est simple : l’argent sort, mais ne rentre pas encore.

    Pour mémoire, le flux de trésorerie libre (ou Free Cash Flow - FCF) est la trésorerie qu'une entreprise génère après avoir couvert toutes ses dépenses opérationnelles et ses investissements nécessaires pour maintenir et développer son activité. C'est l'argent restant, disponible pour rembourser les dettes, verser des dividendes aux actionnaires ou investir dans de nouvelles opportunités, et il est un indicateur clé de la santé financière et de la flexibilité d'une entreprise. Un flux de trésorerie libre négatif signifie que les dépenses d'une entreprise sont supérieures aux liquidités générées par ses activités, ce qui peut résulter d'investissements importants, de surinvestissement, ou de l'incapacité à couvrir les dépenses d'exploitation et d'investissement. Bien que ce ne soit pas toujours négatif (ironiquement), une situation prolongée peut entraîner des difficultés financières, une nécessité de financement externe, et un risque de faillite.

    Pourquoi cette dissonance entre promesse et réalité ? Parce que la plupart des grands acteurs ont choisi de proposer leurs outils IA en complément de services déjà existants, souvent sans facturation explicite.

    Microsoft, par exemple, a intégré Copilot à Office 365 et GitHub, mais la part de clients payant spécifiquement pour l’IA reste floue. Google a ajouté des fonctionnalités génératives à Gmail ou Google Docs, mais l’usage massif repose toujours sur la gratuité. Meta mise sur l’IA pour alimenter ses algorithmes publicitaires, mais ne propose pas directement une offre IA monétisée à l’utilisateur.

    Le marché se retrouve dans une situation paradoxale : l’IA coûte extrêmement cher à produire, mais elle est consommée comme si elle était gratuite, ou incluse dans des abonnements inchangés.

    Nom : flux.png
Affichages : 3461
Taille : 6,4 Ko
    Flux de trésorerie libre sur les deux derniers trimestres

    Un avertissement, pas une prophétie

    Goldman Sachs ne prédit pas l’effondrement de l’IA. La banque reconnaît son potentiel considérable, capable de remodeler durablement la productivité mondiale. Mais elle insiste sur le besoin de tempérance : l’enthousiasme actuel pourrait être exagéré par rapport aux bénéfices à court terme. Pour les investisseurs, l’enseignement est clair : diversifier les portefeuilles, éviter une dépendance excessive aux valeurs technologiques et garder un œil sur les fondamentaux économiques plutôt que de céder à la fièvre spéculative.

    Entre euphorie et maturité

    L’IA se trouve à un carrefour. Soit elle continue de prouver sa valeur concrète au-delà de la hype, en s’implantant dans tous les secteurs de manière durable. Soit elle risque de connaître une phase de désillusion, qui pourrait faire trembler non seulement Wall Street mais aussi l’économie mondiale. Dans un monde où la finance est désormais indexée sur l’innovation technologique, l’avertissement de Goldman Sachs résonne comme un rappel salutaire : aucune révolution, même celle de l’intelligence artificielle, ne suit une courbe linéaire.

    Source : Goldman Sachs

    Et vous ?

    Trouvez-vous l'analyse de Goldman Sachs crédible ou pertinente ?

    L’IA est-elle condamnée à suivre le même cycle euphorie/déception que la bulle Internet, ou peut-elle briser ce schéma grâce à son impact réel sur la productivité ?

    Les marchés financiers surestiment-ils la vitesse d’adoption de l’IA dans l’économie réelle, notamment dans les PME et secteurs traditionnels ?

    La concentration extrême du S&P 500 autour des « Magnificent Seven » représente-t-elle une faiblesse systémique pour la finance mondiale ?

    Quels signaux devraient alerter les investisseurs d’un passage de l’euphorie à la désillusion ?

    Les régulateurs et gouvernements, en imposant des règles sur la consommation énergétique, la protection des données ou l’usage de l’IA, pourraient-ils accélérer ce ralentissement annoncé ?

    Faut-il préparer les marchés à une correction inévitable, ou s’agit-il d’un excès de prudence de Goldman Sachs ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  19. #119
    Invité de passage
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Mars 2023
    Messages
    10
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 61
    Localisation : France, Haute Garonne (Midi Pyrénées)

    Informations professionnelles :
    Activité : Ingénieur développement logiciels

    Informations forums :
    Inscription : Mars 2023
    Messages : 10
    Par défaut
    Citation Envoyé par marsupial Voir le message
    on ne peut plus se rendre compte quand ces formidables machines hallucinent ou pas. En bref, qu'elles racontent des salmigondis incompréhensibles et donc inutilisables. Là se trouve le véritable danger des LLM en plus de leur coût effréné en énergie.
    Qui hallucinent, racontent des salmigondis, ont un besoin effréné d'énergie... On aurait pu croire que tu parlais des êtres humains...

  20. #120
    Membre très actif
    Avatar de JPBruneau
    Homme Profil pro
    retraité
    Inscrit en
    Août 2019
    Messages
    251
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Val de Marne (Île de France)

    Informations professionnelles :
    Activité : retraité
    Secteur : Conseil

    Informations forums :
    Inscription : Août 2019
    Messages : 251
    Par défaut datacenter j'y revient
    Citation Envoyé par Matthieu Vergne Voir le message

    La où la confusion intervient, c'est qu'un datacenter comme une base de données peuvent être utilisés pour stocker autre chose que les données pertinentes pour la question. Données qui peuvent servir à la simple exécution du programme faisant tourner le LLM. Auquel cas, même AlphaZero s'appuie sur une base de données. Mais ce n'est juste pas le sens pertinent pour comprendre (et répondre) à tes messages. Copilot et ChatGPT ont donc raison d'un point de vue général (un LLM non local revient nécessairement à utiliser un datacenter, celui-ci devant forcément s'exécuter quelque part). Par contre, cette définition générale n'est pas pertinente ici, où j'utilise "datacenter" dans le sens de "source externe de données liées à la question". Et sur ce point, je campe sur ma position : un LLM n'en a pas besoin pour faire son inférence.
    Houla, mon Ami je me permet de repréciser ce que nous avons trouvé dans notre IBM lors de la fin du chantier en irak, nos besoins et nos obligation nos interdits, nos régles concernant les calculs (l'usine qui faisait les paneaux (murs planchers etc...) ) exigeait 7 jours pour être sec et rigide.Prets à posés sur le site. l'IA avait bien laissée ces régles mais les avait renvoyer à sa zone .
    Je simplifie, pour te présiser que tout cela n'était pas des bases de données, mais des faits avérés !
    Pour être plus technique je dirait :
    Oui, les acquis sont bel et bien physiquement écrits dans les datacenters
    les IA comme celles qui jouent au Go ou aux échecs apprennent en perdant,
    en testant, en ajustant… et chaque apprentissage modifie des milliards de paramètres dans leur réseau de neurones.
    Ces paramètres sont stockés dans les serveurs des datacenters, sous forme de vecteurs numériques.

    Je penses que c'est également ton avis !
    Chaque neurone du réseau est connecté à d’autres par des poids (des nombres).
    Ces poids sont modifiés pendant l’apprentissage.
    Une fois l’apprentissage terminé, ces poids sont enregistrés dans des fichiers (souvent appelés modèles).
    Ces fichiers sont stockés sur des disques durs dans les datacenters — comme n’importe quel fichier informatique.

    Ce sont ces fichiers de poids qui contiennent toute la mémoire de l’IA. Pas des phrases, pas des règles écrites,
    mais des nombres qui traduisent des milliards d’expériences.

    Allez j'ai préféré étre plus précis , A++ au plaisir de te croiser à nouveau.

Discussions similaires

  1. Réponses: 5
    Dernier message: 16/10/2017, 11h35
  2. Réponses: 0
    Dernier message: 21/07/2017, 07h27
  3. A la indiana jones?
    Par pasgroumpf dans le forum Flash
    Réponses: 1
    Dernier message: 24/07/2006, 11h06
  4. [cinema] trois enterrements de tommy lee jones
    Par hiko-seijuro dans le forum Films & TV
    Réponses: 9
    Dernier message: 05/06/2006, 16h33
  5. Le langage C - P. Aitken, B. Jones
    Par Nadd dans le forum C
    Réponses: 4
    Dernier message: 30/10/2005, 16h26

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo