C'est quoi le RSU?Beaucoup de salariés comme moi on gagne plus avec le RSU que en salaire.
Discussion :
C'est quoi le RSU?Beaucoup de salariés comme moi on gagne plus avec le RSU que en salaire.
RSU - Restricted Stock Units
RSU – Restricted Stock Units : promesse par l’employeur d’offrir un nombre d’actions aux salariés au terme d’une période. Les RSU entraînent donc le droit de recevoir gratuitement, à la fin d’une période déterminée, une action ordinaire pour autant que certaines conditions soient remplies à ce moment.
c'est des actions de l'entreprise qu'on te donne. En france c'est d'ailleurs bien plus intéressant que du salaire, fiscalement, il vaut mieux recevoir un équivalent de 100k en rsu que 100k de salaire.
Enfin ca dépends évidement de la boite, si c'est une boite de merde qui va s'effondrer ou si c'est une boite avec du potentiel et ou les actions vont monter.
Dans mon cas par exemple je touche chaque année en prime 30% de mon salaire brut en rsu, elles sont vested sur 5 ans, je touches donc qu'une partie tous les 6 mois et que si je reste sur la période de 5ans, sinon ca s'arrete.
Dans mon cas, c'est une grosse boite international et les actions sont bonne, donc ca permet d'inciter/"forcer" les salariés a rester dans la boite pour toucher leurs actions. Par la suite soit tu touches les dividendes (6-8% dans mon cas) ou tu peux les revendres, ou attendre qu'elle monte encore et les revendre.
Donc ca permet de fidéliser les salariés et pas qu'ils se cassent ailleurs
Tu es actionnaire dans l'entreprise avec plusieurs milliers d'€, ça t'incite donc a prendre soins de l'entreprise, si tu as fait toute ta vie dans cette boite, tu peux facilement avoir 500k ou +d'1 millions en actions. C'est pas la petite prime d’intéressement, donc tu as intérêt a prendre soins de la boite et pas gaspiller l'argent. Ça responsabilise globalement tous le monde.
Fiscalement en France c'est encore plus intéressant car les actions c'est bien moins taxer que le salaire.
L'autre jour, j'avais un tableau de 260 lignes que je souhaitais convertir au format CSV, c'était l'occasion parfaite pour comparer les différentes IA :
- Copilot ==> sort un tableau de Kanji qui n'a rien à voir avec la choucroute
- Gemini 3 ==> refuse juste de faire le boulot
- Claude sonnet 4.5 ==> idem
- ChatGPT ==> impossible de charger l'image
- Kimi K2 ==> idem
- Deepseek ==> traduit le texte alors que je lui ai rien demandé
- Doubao ==> hallucine à mort
Bref les modèles d'IA s'éclatent les dents sur une tâche simple. Ils ne sont pas du tout mûres pour un usage professionnel.
Le cofondateur de Rockstar compare l'intelligence artificielle à la maladie de la vache folle
Et affirme que les dirigeants qui la promeuvent ne sont pas des êtres humains équilibrés
Les récentes décisions chez Microsoft par exemple tendent à lui donner raison. En effet, comment comprendre que l’entreprise elle-même admette que les agents d’intelligence artificielle peuvent avoir des hallucinations et être victimes d’attaques, mais continuer à en faire la promotion au sein de Windows 11 ? La licorne d'IA Builder.ai pour sa part a réussi à faire passer le travail de développeurs basés en Inde pour de l'automatisation d'une IA pendant huit ans. Pourtant, c’est le type même de soi-disant intelligence artificielle dont les entreprises font l’acquisition pour remplacer des humains. Pour Linus Torvalds, l’intelligence artificielle c’est plus de hype que de substance véritable. La récente sortie du PDG de Rockstar aborde la question de cette technologie dans le même sens.
Houser est catégorique lorsqu'on lui pose la question de savoir si l'intelligence artificielle va nous mener vers les sommets ensoleillés que tant de « visionnaires » technologiques promettent : « Personnellement, je ne pense pas, car je pense que l'intelligence artificielle finira par s'autodétruire. D'après ce que j'en comprends (et ma compréhension est très superficielle), les modèles parcourent Internet à la recherche d'informations, mais Internet va être de plus en plus saturé d'informations créées par les modèles. C'est un peu comme lorsque nous avons nourri des vaches avec des vaches et que nous avons obtenu la maladie de la vache folle. »
Le fait avec la filière de l’intelligence artificielle est que les gens s’embrouillent sur sa signification
« Les gens s'embrouillent sur la signification de l'IA dans les discussions sur les tendances technologiques, à savoir qu'il y a une sorte de pensée intelligente dans les ordinateurs qui est responsable du progrès et qui est en concurrence avec les humains. Nous n'avons pas cela, mais les gens parlent comme si c'était le cas », explique Michael I. Jordan, un chercheur de premier plan dans le domaine de l'IA et de l'apprentissage automatique.
En 2019, Jordan a écrit "Artificial Intelligence-The Revolution Hasn't Happened Yet", publié dans la Harvard Data Science Review. Il explique dans cet article que le terme IA est mal compris non seulement par le public, mais aussi par les spécialistes des technologies. Dans les années 1950, lorsque le terme a été inventé, écrit-il, les gens aspiraient à construire des machines informatiques dotées d'une intelligence de niveau humain. Cette aspiration existe toujours, dit-il, mais ce qui s'est passé au cours des décennies écoulées est différent. Les ordinateurs ne sont pas devenus intelligents en soi, mais ils ont fourni des capacités qui augmentent l'intelligence humaine, écrit-il. De plus, ils ont excellé dans les capacités de reconnaissance des formes de bas niveau qui pourraient être réalisées en principe par des humains, mais à un coût élevé. Les systèmes basés sur l'apprentissage automatique sont capables de détecter la fraude dans les transactions financières à grande échelle, par exemple, catalysant ainsi le commerce électronique. Ils sont essentiels pour la modélisation et le contrôle des chaînes d'approvisionnement dans les secteurs de la fabrication et des soins de santé. Ils aident également les agents d'assurance, les médecins, les éducateurs et les cinéastes.
L'apprentissage automatique permet en effet d'agréger des informations provenant de plusieurs ensembles de données, d'explorer des modèles et de trouver de nouvelles solutions à des problèmes susceptibles de fournir des services inédits aux humains dans divers domaines.
Bien que ces développements soient qualifiés de « technologie de l'IA », écrit-il, les systèmes qui les composent n'impliquent pas de raisonnement ou de pensée de haut niveau. Les systèmes ne forment pas les types de représentations sémantiques et de déductions dont les humains sont capables. Ils ne formulent pas et ne poursuivent pas d'objectifs à long terme. « Dans un avenir prévisible, les ordinateurs ne seront pas en mesure d'égaler les humains dans leur capacité à raisonner de manière abstraite sur des situations du monde réel. Nous aurons besoin d'interactions bien pensées entre les humains et les ordinateurs pour résoudre nos problèmes les plus urgents. Nous devons comprendre que le comportement intelligent des systèmes à grande échelle découle autant des interactions entre les agents que de l'intelligence des agents individuels », écrit-il.
En outre, souligne-t-il, le bonheur de l'homme ne devrait pas être une réflexion après coup lors du développement de la technologie. « Nous avons une réelle opportunité de concevoir quelque chose d'historiquement nouveau : une discipline d'ingénierie centrée sur l'humain », écrit-il. Le point de vue de Jordan comprend une discussion revitalisée sur le rôle de l'ingénierie dans la politique publique et la recherche universitaire. Il fait remarquer que lorsque les gens parlent de sciences sociales, cela semble attrayant, mais que le terme d'ingénierie sociale ne l'est pas.
Je pense que nous avons laissé le terme « ingénierie se déprécier dans la sphère intellectuelle », déclare-t-il. Le terme « science » est utilisé à la place du terme « ingénierie » lorsque les gens souhaitent faire référence à une recherche visionnaire. « Je pense qu'il est important de rappeler que, malgré toutes les choses merveilleuses que la science a faites pour l'espèce humaine, c'est vraiment l'ingénierie (civile, électrique, chimique et autres domaines de l'ingénierie) qui a le plus directement et le plus profondément amélioré le bonheur humain », précise-t-il. En gros, c’est un avis qui cadre avec celui de Kate Crawford de Microsoft Research.
La filière intelligence artificielle finit donc par redonner vie au canular du Turc mécaniqueRoger Penrose says AIs aren't intelligent. They don't understand. To understand presupposes awareness. We don't know if AIs are aware. Therefore, we don't know if AIs understand. To Penrose, computations of this sort may never be aware. #AI #Understanding pic.twitter.com/FPkfWHC7iB
— Curt Jaimungal (@TOEwithCurt) November 6, 2025
Le Turc mécanique ou l’automate joueur d'échecs est un célèbre canular construit à la fin du XVIIIe siècle : il s’agissait d'un prétendu automate doté de la faculté de jouer aux échecs. L’automate était prétendument capable de jouer une partie d’échecs contre un adversaire humain. Mais en réalité, il possédait un compartiment secret dans lequel un joueur humain pouvait se glisser. Pendant 84 ans, et grâce au talent des joueurs cachés, le Turc mécanique put remporter la plupart des parties d'échecs auxquelles il participa en Europe et en Amérique, y compris contre certains hommes d'État tels que Napoléon Bonaparte, Catherine II de Russie et Benjamin Franklin.
Plus de deux siècles plus tard, il apparaît que ce même leurre fonctionne toujours. Et pour cause, il est difficile de concevoir un service propulsé par une intelligence artificielle. Une tâche si difficile que certaines startups se sont résolues de se tourner vers des humains et les faire passer pour des robots plutôt que le contraire.
« Utiliser un humain pour faire le travail vous permet d’outrepasser une panoplie d’enjeux de développement d’ordre technique et commercial. Il n’y a pas de scalabilité, bien évidemment, mais cela vous permet de créer quelque chose et sauter très tôt la partie difficile, » a dit Gregory Koberger, PDG de ReadMe, qui dit avoir tombé sur beaucoup de “pseudo-IA”. « Il s’agit essentiellement d’un prototypage de l’IA avec des êtres humains, » dit-il.
Cette pratique a été mise à la lumière du jour après la publication d’un article du Wall Street Journal informant que des centaines de développeurs tiers bénéficient de l’accès aux emails avec l’autorisation de Google.
Dans le cas de la société Edison Software, des ingénieurs d’IA ont scanné les emails personnels de centaines d’utilisateurs (avec leurs identités éditées) pour améliorer une fonctionnalité de « réponses intelligentes ». L’entreprise n’a pas indiqué dans sa politique de confidentialité que des employés humains ont accès aux emails des utilisateurs.
Ce n’est pas la première fois qu’une telle chose arrive. En 2008, Spinvox, une entreprise qui convertissait les messages vocaux en messages textes, a été accusée de recourir à des employés humains étrangers dans des centres d’appel au lieu de machines pour faire le travail.
En 2016, une autre entreprise relevée par Bloomberg cette fois a obligé des employés à passer 12 heures par jour à prétendre qu’ils sont des chatbots pour des services d’agenda comme X.ai et Clara. Ce travail a été si contraignant que les employés ont dit qu’ils avaient hâte de voir une IA venir les remplacer.
En 2017, l’application de gestion de dépenses Expensify a admis avoir employé des humains pour transcrire au moins quelques-uns des reçus supposés être analysés par sa “technologie smartscreen”. L’entreprise a utilisé le service de travail collaboratif Mechanical Turk d’Amazon, où des travailleurs faiblement rémunérés ont dû lire et transcrire les reçus.
« Je me demande si les utilisateurs de SmartScan d’Expensify savent que des travailleurs dans MTurk entrent leurs reçus, » a dit Rochelle LaPlante, une “Turker” et une partisane des travailleurs de la “gig economy” sur Twitter. « Je suis en train de voir le reçu Uber de quelqu’un avec son nom complet, et les adresses de départ et d’arrivée. »
Même Facebook, qui a investi massivement dans l’IA, a eu recours à des employés humains pour son assistant virtuel sur Messenger.
Dans certains cas, certaines entreprises font appel à des humains pour entraîner le système IA et améliorer sa précision. Une entreprise appelée Scale offre une banque de travailleurs humains pour fournir des données d’entrainement aux voitures autonomes et les autres systèmes propulsés par l’IA. Ces employés vont, par exemple, jeter un coup d’œil sur un flux d’une caméra ou un capteur et les marques de voiture, les piétons et les cyclistes dans une image. Avec assez de calibrage humain, l’IA apprend à reconnaître ces objets, seule.
Dans d’autres cas, les entreprises vont juste faire semblant d’avoir une IA prête, en informant les investisseurs et les utilisateurs qu’ils ont réussi à développer une technologie adaptable à grande échelle alors que le travail est réalisé secrètement par des humains.
Et vous ?
Quel commentaire faites-vous de la position du cofondateur de Rockstar sur la question de l’intelligence artificielle ?
Que pensez-vous de la pratique qui consiste à présenter un service comme animé par une IA alors qu'il s'agit en réalité d'humains qui travaillent en arrière-plan ?
Voir aussi :
57 % des travailleurs dans l'industrie technologique dans la Silicon Valley ont déclaré être en burn out, d'après une enquête
Les chercheurs en intelligence artificielle peuvent-ils gagner jusqu'à 1 million $ par an dans la Silicon Valley ? un aperçu des salaires
La bulle technologique de la Silicon Valley est plus grande qu'elle ne l'était en 2000, mais sa fin approche selon des analystes
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
Il est juste jaloux parce que l'IA avance plus vite que la sortie de GTA 6...😜
25 ans après, il fallait bien un successeur à internet pour organiser une bulle financière...
Parce que personne ne soit dupe, quand on parle de "bulle", il y a beaucoup d'argent investi et il y a beaucoup de perdants quand la bulle éclate, mais... L'argent n'est pas perdu pour tous le monde!
Quelques uns raflent la mise...
Ou parce que l'IA manque de finesse pour faire des licenciements alors que c'est mieux de virer spécifiquement ceux qui envisagent de se syndicaliser.
pas tester mais j'ai bien envie de le faire, il y'a blender mcp, qui semble pas mal pour faire des assets 3d (low poly je pense).
étant pas modélisateur 3d et n'ayant pas envie de le devenir ni maitriser à 100% blender, perso ça me tente bien, juqu'a aujourd'hui quand j'ai des petits besoins, je faisais une annonce sur fiverr. L'ia pourrait désormais me faire mes assets 3d.
Beaucoup de ceux qui veulent faire des jeux videos ne sont que développeurs, pas graphiste/modéliste, ca pourrait les aider à monter leurs projets, on peut faire de très bon jeux videos, avec juste des modeles low poly, c'est un bon juste milieux entre les AAA photoréaliste qui coute des millions, et le pixel art des studios indé, plus facile à faire mais perso j'aime pas trop ce style.
j'ai déja un bon workflow pour ca, je ne fais que la structure dans blender, pour les textures et rendu de matériaux je le code directement en opengl et des maps.
Évidement, les besoins de gta 6 ne sont pas comparable a ce que l'ia peut faire a l'heure actuel, mais les moyens financiers non plus...
Les entreprises de la tech commencent à imposer l'utilisation de l'IA à leurs employés : Microsoft, Google, Meta et Amazon surveillent désormais l'utilisation de l'IA par leurs employés
dans le cadre des évaluations de performance
Les grandes entreprises technologiques ne se contentent plus d'encourager leurs salariés à adopter l'intelligence artificielle. Elles les y contraignent, sous peine de conséquences sur leurs évaluations de performance, leurs primes et leurs perspectives de promotion. Amazon, Google, Meta, Microsoft et Salesforce ont toutes franchi le pas d'un simple soutien à une véritable politique d'obligation numérique. Derrière la rhétorique de la productivité et de la compétitivité, une question fondamentale émerge : sommes-nous en train d'assister à la naissance d'un nouveau taylorisme algorithmique ?
Pendant des mois, le discours dominant dans les grandes entreprises technologiques se voulait rassurant : l'intelligence artificielle était présentée comme un outil parmi d'autres, mis à la disposition des équipes pour les aider à travailler mieux et plus vite. Les directions se félicitaient de leur approche volontariste, distribuant accès aux outils et formations, sans systématiquement brandir de menaces. Ce temps est désormais révolu.
Des entreprises technologiques allant de startups de 300 personnes aux géants comme Amazon, Google, Meta, Microsoft et Salesforce ont désormais dépassé le stade de l'encouragement à l'utilisation de l'IA : elles suivent activement l'adoption et, dans plusieurs cas, l'intègrent dans les évaluations de performance.
Le signal le plus fort est venu de Meta. La société a annoncé que « l'impact piloté par l'IA » deviendrait une attente centrale pour tous les employés à partir de 2026, s'appliquant à tous les rôles, des ingénieurs aux spécialistes marketing. La direction des ressources humaines, sous l'impulsion de Janelle Gale, responsable des équipes People de Meta, a envoyé une note interne expliquant que les employés qui atteignaient un « impact exceptionnel piloté par l'IA » seraient récompensés, tandis que ceux qui ignoreraient la technologie risquaient des évaluations défavorables. Pour accompagner ce mandat, Meta a développé un outil de gamification interne appelé « Level Up », qui récompense les salariés avec des badges au fur et à mesure qu'ils atteignent des étapes dans leur adoption de l'IA.
À ce propos, Business Insider notait en octobre :
« Chez Meta, les ingénieurs et les employés sont incités à expérimenter les chatbots grâce à des jeux et des badges. Leurs performances sont également suivies sur des tableaux de bord et, dans certains cas, comparées à des objectifs d'adoption précis. Google surveille le nombre d'heures de productivité supplémentaires que ses ingénieurs gagnent chaque semaine grâce aux outils d'IA et encourage ses employés à tester de nouveaux outils. Microsoft cherche à intégrer l'utilisation de l'IA dans les évaluations de performance. D'autres entreprises acquièrent des logiciels pour contrôler si leurs employés utilisent suffisamment l'IA.
« Pour inciter ses employés à adopter l'IA, Meta a lancé en début d'année un programme volontaire intitulé "Level Up" qui transforme l'adoption de l'IA en jeu. Ce jeu vise à familiariser les employés avec les outils d'IA et est accessible via son chatbot interne, Metamate. Les employés sont récompensés par des badges à mesure qu'ils atteignent différents niveaux d'utilisation. Trois fournisseurs de logiciels de suivi des employés ont précédemment indiqué avoir constaté une forte augmentation de la demande de suivi de l'utilisation de l'IA par les employés au cours des deux dernières années. »
Chez Amazon Web Services, l'approche est encore plus granulaire. Les responsables disposent de tableaux de bord montrant l'utilisation individuelle des outils d'IA par chaque ingénieur, et prennent en compte cette adoption lors de l'évaluation des promotions. Le système porte même un nom interne : Clarity. Google, de son côté, intègre pour la première fois cette année l'utilisation de l'IA dans les évaluations de certains ingénieurs logiciels.
« Nous utilisons la carotte et le bâton », explique Seth Besmertnik, PDG de Conductor, une startup de marketing numérique de 300 personnes. « La seule façon pour une entreprise de prospérer est que tous ses employés possèdent un haut niveau de compétences. » Début 2020, Besmertnik a commencé à intégrer l'IA aux évaluations de performance de toute son entreprise. Les employés reçoivent une note de compétences en IA de 1 à 5, la note maximale étant attribuée aux personnes qui créent des systèmes améliorant le flux de travail de leurs collègues. Il a également créé une nouvelle récompense*: la personne qui conçoit le processus le plus efficace basé sur l'IA remporte une bourse de plusieurs milliers de dollars pour des vacances.
Le retour des métriques absurdes
L'une des dimensions les plus préoccupantes de cette tendance concerne les indicateurs retenus pour mesurer l'adoption. Le nouveau système d'évaluation de la performance de Meta sera capable de suivre le nombre de lignes de code qu'un ingénieur a écrites avec l'assistance de l'IA.
Les praticiens du développement logiciel ont immédiatement reconnu l'absurdité de cette démarche. Le nombre de lignes de code comme indicateur de productivité est une idée largement discréditée depuis les années 1990. L'histoire de l'informatique regorge d'exemples célèbres : la réduction du nombre de lignes de code est souvent le signe d'une meilleure conception logicielle, pas d'un manque de travail. Chez Apple en 1982 déjà, l'ingénieur Bill Atkinson était crédité de « -2000 lignes de code » dans les rapports internes, parce qu'il avait réussi à optimiser un composant graphique de QuickDraw en supprimant du code redondant — ce qui était en réalité une performance remarquable.
En intégrant des métriques d'utilisation de l'IA basées sur la quantité de code généré, les entreprises créent mécaniquement une incitation à produire du code verbeux et inutilement volumineux. Les développeurs qui souhaitent satisfaire aux indicateurs sans réellement changer leur méthode de travail ont déjà trouvé des parades : certains utilisent les outils de génération de code comme un simple système d'auto-complétion avancé, en acceptant puis en supprimant les suggestions, ce qui suffit à gonfler les métriques sans modifier substantiellement le processus. D'autres configurent des tâches automatiques pour consommer des tokens d'API sans aucune valeur productive. La loi de Goodhart, formulée dans les années 1970 par l'économiste britannique Charles Goodhart — « quand une mesure devient un objectif, elle cesse d'être une bonne mesure » — s'applique ici avec une précision chirurgicale.
La pression sociale et la menace voilée
Au-delà des métriques, le discours des dirigeants révèle une pression bien plus diffuse. Le PDG d'Autodesk, Andrew Anagnost, a reconnu que certains employés utilisaient furtivement des outils de développement comme Cursor, qui avaient initialement été bloqués, et a averti que ceux qui résistaient à l'IA « ne survivraient probablement pas à long terme ».
Cette formulation est exemplaire d'une communication patronale qui cherche à normaliser l'adoption de l'IA en diabolisant la résistance, sans jamais assumer clairement les conséquences disciplinaires qui en découleront. Les ingénieurs qui refusent ou peinent à adopter ces outils ne sont pas menacés de licenciement explicite — ils sont simplement avertis qu'ils ne « survivront » pas. La pression est réelle, mais suffisamment abstraite pour échapper aux catégories juridiques habituelles de la discrimination professionnelle.
Environ 42 % des travailleurs du secteur technologique déclaraient en octobre dernier que leur manager direct attendait d'eux l'utilisation de l'IA dans le travail quotidien, contre 32 % huit mois auparavant. L'augmentation est significative, et la tendance ne semble pas près de s'inverser.
Le paradoxe de la productivité
L'argument central invoqué par les entreprises pour justifier ces politiques est celui de la productivité. L'IA permettrait aux développeurs d'écrire du code plus rapidement, de résoudre des problèmes plus efficacement et de se concentrer sur des tâches à plus haute valeur ajoutée. Les études d'impact sont pourtant nettement moins univoques que ne le laissent entendre les directions.
Un sondage ManpowerGroup 2026 Global Talent Barometer a constaté que si l'utilisation régulière de l'IA par les travailleurs avait augmenté de 13 % en 2025, leur confiance dans l'utilité réelle de la technologie avait simultanément chuté de 18 %. Autrement dit, les salariés utilisent davantage l'IA mais lui font de moins en moins confiance. Une enquête distincte auprès de 6 000 dirigeants a révélé que plus de 80 % des entreprises n'avaient enregistré aucun gain de productivité mesurable à partir de l'IA, malgré des investissements se chiffrant en milliards
Ces chiffres sont d'autant plus troublants que les géants de la tech sont en train d'engager des sommes colossales dans cette course à l'armement technologique. Amazon, Meta, Microsoft et Alphabet sont sur la trajectoire d'une dépense cumulée de 650 milliards de dollars dédiés à l'IA en 2026. Face à de tels investissements, la pression pour justifier la valeur de l'IA auprès des actionnaires est immense — ce qui explique en partie pourquoi les directions cherchent à imposer l'adoption plutôt qu'à la laisser émerger naturellement.
Les ingénieurs séniors, premières victimes des métriques aveugles
Les études sur le sujet pointent vers une réalité contre-intuitive : l'IA générative est souvent moins utile pour les ingénieurs les plus expérimentés. Les profils juniors, qui manquent de contexte et de bases solides dans certains domaines, peuvent effectivement gagner en vitesse d'exécution grâce aux assistants de code. Les ingénieurs séniors, eux, travaillent souvent sur des problèmes suffisamment complexes, spécifiques et mal documentés pour que les modèles de langage soient peu pertinents.
En imposant des métriques d'adoption indifférenciées à l'ensemble de leurs équipes, les entreprises risquent d'inverser leur avantage compétitif : pénaliser les ingénieurs les plus expérimentés — précisément ceux dont les jugements permettent d'éviter les erreurs d'architecture coûteuses — au profit de profils qui génèrent du code rapidement mais sans nécessairement en comprendre les implications techniques profondes.
La question de la dette technique est à cet égard centrale. Le code généré par les LLM est fonctionnel dans l'immédiat, mais il n'est pas nécessairement maintenable ni évolutif. Intégré massivement sans relecture critique, il peut constituer une bombe à retardement pour les bases de code des grandes entreprises, qui devront dans quelques années consacrer des ressources importantes à le refactoriser ou à en comprendre les subtilités. Les développeurs qui acceptent aveuglément les suggestions de l'IA pour satisfaire aux métriques accélèrent peut-être leur évaluation de performance de court terme au détriment de la santé technique à long terme de leur entreprise.
La question des droits et de la confidentialité
Une dimension souvent négligée de ce débat concerne la nature même des données qui transitent par ces outils d'IA. Chaque prompt envoyé à GitHub Copilot, Cursor ou aux équivalents internes de Google et Meta contient potentiellement des informations sensibles sur le code propriétaire de l'entreprise, ses architectures internes, voire ses données clients. En forçant l'adoption de ces outils, les directions exposent mécaniquement leur propriété intellectuelle à des systèmes tiers dont les conditions de traitement des données méritent examen.
La réponse habituelle des fournisseurs — les données professionnelles ne sont pas utilisées pour entraîner les modèles — est contractuellement encadrée dans la plupart des offres entreprise, mais elle repose sur la confiance accordée à des acteurs dont le modèle économique a précisément été construit sur la valorisation des données. Les entreprises qui imposent l'IA à leurs ingénieurs sans avoir préalablement évalué les implications en matière de confidentialité et de propriété intellectuelle prennent un risque réglementaire non négligeable, particulièrement dans le contexte du RGPD européen.
Vers un dialogue social sur l'IA au travail ?
La question de l'introduction contrainte de l'IA dans les processus de travail ne devrait pas rester une prérogative exclusive des directions d'entreprise. En Europe notamment, les instances représentatives du personnel disposent souvent de droits d'information et de consultation sur l'introduction de nouvelles technologies susceptibles d'affecter les conditions de travail. L'intégration de l'usage de l'IA dans les critères d'évaluation de performance constitue une modification substantielle des modalités d'appréciation des salariés — un terrain sur lequel les partenaires sociaux ont légitimement leur mot à dire.
Les développeurs, de leur côté, ne manquent pas d'imagination pour résister à des métriques qu'ils jugent arbitraires. Les anecdotes se multiplient sur des forums spécialisés : certains ont mis en place des scripts automatisés pour consommer des tokens sans aucune valeur productive, d'autres utilisent les outils de manière superficielle pour satisfaire aux tableaux de bord tout en continuant à travailler comme avant. Ce jeu du chat et de la souris entre management et ingénieurs illustre une tension profonde : quand les indicateurs de performance se déconnectent de la réalité du travail, les salariés optimisent pour les indicateurs, pas pour la qualité.
La véritable transformation que cherchent ces entreprises — une intégration profonde et bénéfique de l'IA dans les pratiques de développement — ne peut pas s'obtenir par décret. Elle requiert une pédagogie, un accompagnement, et surtout une écoute des réticences légitimes que les professionnels expriment face à des outils dont les limites sont réelles et documentées.
Sources : Meta, LinkedIn, Fortune
Et vous ?
Quelle lecture faites-vous de ce virage ? Êtes-vous surpris ? Qu'est-ce qui pourrait l'expliquer selon vous ?
L'intégration de l'usage de l'IA dans les critères d'évaluation de performance constitue-t-elle une avancée managériale légitime ou un détournement des outils d'appréciation professionnelle ?
Les métriques actuellement retenues (lignes de code générées par IA, tokens consommés) sont-elles fondamentalement inadaptées à la mesure de la qualité du travail d'un ingénieur, et comment pourrait-on en concevoir de meilleures ?
Le fait de forcer l'adoption de l'IA risque-t-il à terme de produire l'effet inverse de celui recherché, en dégradant la qualité des bases de code et en évinçant les profils les plus seniors et les plus critiques ?
Cette tendance a-t-elle des chances de se propager en Europe ? Dans quelle mesure les instances représentatives du personnel, en France et en Europe, devraient-elles être consultées sur ces nouvelles politiques d'adoption forcée de l'IA ?
Voir aussi :
L'utilisation de l'IA au travail a augmenté, avec un taux d'utilisation de 77 % dans le secteur technologique, qui est le plus susceptible d'utiliser l'IA dans le cadre de ses activités, selon Gallup
Les investisseurs s'attendent à une explosion de l'utilisation de l'IA. Ce n'est pas le cas : la part des travailleurs utilisant l'IA au travail est en baisse et les profits se font attendre
700 milliards $ investis et pourtant l'IA n'a quasiment rien apporté à la croissance économique américaine l'an dernier, selon Goldman Sachs. L'IA enrichit Taiwan et la Corée du Sud, pas les États-Unis
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
Si certains considèrent le dollar comme du PQ, les États-Uniens considèrent leur monnaie comme un moyen.

The ecstasy of gold. Oracle, lors de la publication de ses précédents trimetriels, annonçait des prévisions gargantuesques, et là, lors des nouveaux trimestriels, révise ces prévisions à la baisse. Conséquence, le titre chute lourdement de plus de 16%, sa plus grosse chute journalière depuis la bulle internet. Le vol d'Icare ? Ou avoir les yeux plus gros que le ventre ?
Demis Hassabis, PDG de Google DeepMind, alerte sur la formation d'une bulle autour des startups d'IA, alors que les entreprises en phase de démarrage lèvent des milliards de dollars avant même de lancer leur produit
Le PDG de Google DeepMind, Demis Hassabis, a récemment mis en garde contre le caractère non viable des valorisations actuelles des start-ups spécialisées dans l'intelligence artificielle (IA), nombreuses étant celles qui lèvent des milliards avant même de lancer leurs produits. Selon lui, cette tendance au financement spéculatif révèle les failles du modèle de valorisation actuel et laisse présager une potentielle correction du marché. Demis Hassabis a également souligné l'importance de pousser l'IA actuelle à son maximum afin d'atteindre l'intelligence artificielle générale (AGI).
Sir Demis Hassabis est un chercheur et entrepreneur britannique spécialisé dans l'IA. Il est le PDG et cofondateur de Google DeepMind et Isomorphic Labs, ainsi que conseiller du gouvernement britannique en matière d'IA. En 2024, Demis Hassabis et John M. Jumper ont reçu conjointement le prix Nobel de chimie pour leurs contributions à la recherche en IA dans le domaine de la prédiction de la structure des protéines.
Le PDG de Google DeepMind, Demis Hassabis, a une nouvelle fois averti que la vague actuelle d'évaluations des start-ups spécialisées dans l'IA n'était pas viable. Il a également fait part de ses inquiétudes quant à la possibilité d'une correction dans le secteur technologique.
Ces avertissements ravivent les comparaisons avec l'éclatement de la bulle Internet de la fin des années 1990. À l'instar de l'époque, l'enthousiasme exacerbé autour de l'IA générative attire aujourd'hui des investissements massifs, fondés non pas sur la rentabilité actuelle des entreprises d'IA, mais sur leur potentiel de transformation. Les économistes soulignent par ailleurs que certaines infrastructures d'IA, en cours de construction, pourraient rester sous-utilisées si la demande n'évoluait pas au rythme des investissements engagés.
S'exprimant dans le podcast Google DeepMind, Demis Hassabis a déclaré que de nombreuses entreprises en phase de démarrage levaient actuellement des dizaines de milliards de dollars avant même de lancer leur produit. Il estime que cette tendance révèle les failles du modèle de valorisation.
« Certaines start-ups n'ont même pas encore démarré leurs activités », a déclaré Demis Hassabis. « Il est assez intéressant de voir comment cela peut être viable. À mon avis, ce n'est probablement pas le cas, du moins pas en général. » Cette augmentation des financements spéculatifs a suscité des comparaisons avec les bulles passées, telles que le boom des dot-com et la frénésie des cryptomonnaies, où les entreprises ont levé des sommes colossales sur la base d'un engouement médiatique plutôt que de modèles commerciaux éprouvés.
Les géants technologiques contre l'engouement pour les start-ups en phase de démarrage
Demis Hassabis a souligné que ces valorisations en phase d'amorçage, avec des investissements de la part d'entreprises établies telles que Google, sont selon lui soutenues par « de nombreuses activités commerciales réelles ». Alors que les paris des géants technologiques sur l'IA sont soutenus par des sources de revenus et des infrastructures, de nombreuses start-ups ne comptent que sur l'enthousiasme des investisseurs.
Il a ajouté que l'IA est « surestimée à court terme » mais « sous-estimée à moyen et long terme », suggérant que si le potentiel de cette technologie est énorme, l'engouement actuel pour son financement ne reflète peut-être pas une croissance durable.
En réfléchissant aux débuts de DeepMind, Demis Hassabis a noté que les changements technologiques passent souvent du scepticisme à l'obsession, ce qui fait rapidement grimper les valorisations. « C'est presque une réaction excessive à une réaction insuffisante », a-t-il déclaré, soulignant que le sentiment des investisseurs peut changer radicalement dès qu'une technologie gagne en popularité.
Demis Hassabis prend clairement position sur la mise à l'échelle de l'IA
Récemment, le PDG de Google DeepMind a également pris clairement position dans le débat sur la mesure dans laquelle les lois sur la mise à l'échelle de l'IA peuvent faire progresser le secteur. Lors d'une intervention à l'Axios AI+ Summit à San Francisco, Demis Hassabis a déclaré que la mise à l'échelle des systèmes actuels devait être poussée au maximum, la qualifiant de voie critique vers l'intelligence artificielle générale (AGI).
« Nous devons pousser au maximum l'évolutivité des systèmes actuels, car au minimum, elle constituera un élément clé du système AGI final. Elle pourrait même représenter l'intégralité du système AGI », a déclaré Demis Hassabis à l'auditoire.
L'AGI reste une forme théorique d'IA capable de raisonner comme les humains. L'AGI est également l'objectif ultime des grandes entreprises spécialisées dans l'IA, qui investissent des milliards dans les infrastructures et les talents. Les lois de mise à l'échelle suggèrent que plus un modèle d'IA reçoit de données et de puissance de calcul, plus il devient intelligent.
Les inquiétudes de Demis Hassabis concernant la valorisation des start-ups d'IA viennent renforcer certaines observations plus alarmistes sur le marché. Selon un analyste de MacroStrategy Partnership, la bulle actuelle de l'IA serait 17 fois plus importante que la bulle Internet et quatre fois plus importante que celle des subprimes. Si certains y voient une transformation structurelle, ces chiffres ravivent les craintes d'une correction brutale, alimentée par un excès d'optimisme financier.
Et vous ?
Quel est votre avis sur le sujet ?
Trouvez-vous les mises en garde formulées par le PDG de Google DeepMind justifiées ou pertinentes ?
Voir aussi :
Les craintes d'une bulle spéculative autour de l'IA émergent : Perplexity et OpenAI sont en tête de liste des startups que les investisseurs vendraient à découvert pour profiter du krach de la bulle de l'IA
« Il n'existe pas une bulle unique de l'IA, mais trois dynamiques distinctes qui coexistent : la bulle spéculative, la bulle d'infrastructure et les promesses irréalistes », selon une analyse
Les gestionnaires de fonds avertissent que la bulle des investissements dans l'IA a dépassé un « seuil raisonnable », tandis que le PDG de Google reconnaît qu'elle comporte des « éléments irrationnels »
Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
AAAaaah mais c'est la traditionnelle technique "les autres ne sont pas rentable, investissez chez-nous" !
Le gars d'Open AI a fait pareil !
Ils disent "tous les autres vont couler" comme si ils avaient peur pour leur propre survie ^^
Tout le monde est d'accord pour dire que les investissements dans l'IA forment une bulle.
une bulle ou prolifère les escrocs, quand il y a des perdants il y a des gagnantsTout le monde est d'accord pour dire que les investissements dans l'IA forment une bulle.
L'IA fausse déjà la perception qu'elle donne d'elle-même en utilisant majoritairement des acquis de l'informatique conventionnelle qui ne suscitaient aucune admiration quand ce n'était que de l'informatique et qui sont maintenant perçus comme magique depuis qu'ils sont supposés produit par l'IA. La vision de l'IA repose essentiellement sur du bluff par ses supposées capacités à raisonner, il s'avère qu'elle est incapable d'apprendre utilement et encore moins à faire le tri dans les informations qui lui sont accessibles, et évidement, totalement incapable de prendre une initiative autrement que par hasard, donc avec le maximum de chance de ne pas être l'initiative quelle aurait éventuellement du choisir. En dehors des conversations de banalités ou elle est capable de faire illusion, il n'y a que dans des créneaux professionnels présentant un univers réduit qu'une pseudo intelligence peut faire mieux qu'un être humain, tout comme des applications spécifiques de l’informatique traditionnelle. Quand Kasparov, le champion du monde d'échec de l'époque a été battu en 1997 par le logiciel Big Blue d'IBM, on ne parlait pas d'intelligence artificielle, mais j'aimerais bien voir comment un ChatGPT, ou un autre, se comporterait aujourd'hui devant le champion du monde d'échec actuel, Gukesh Dommaraju. Quand les utilisateurs potentiels s'apercevront de la supercherie l'IA tombera plus vite en disgrâce qu'elle ne s'est faite une réputation de collaborateur indispensable. En d'autres mots elle finira comme une application particulière de l'informatique, spécialisée dans l'aide à la décision.
il se ferait écrabouillé, ca commence a dater mais Deepmind avait fait du bruit à l'époque.
Starcraft ou le jeu de go sont bien plus complexe que les échecs qui se résume à de bette calculs. Dans starcraft il y'a la notion le bluff/piège et de travail d'équipe notamment.
Dans l'armée, le cas le plus connus est DARPA AlphaDogfight Trials, le drone ia a gagné 5 manches contre 0 pour le pilote humain.
l'ia a des avantages: elle peut faire des manœuvres plus risqué et avec plus de G que les humains et peut opter pour des stratégies plus suicidaire et obéira aux ordres peut importe les ordres.
elle a aussi des inconvénients qui font que aujourd'hui des pilotes humains sont encore formés, mais ça progresse vite.... Mais a terme on pourrait imaginer 1 solution hybride avec juste 1 pilote humain qui commande une escadrille de plusieurs drone ia.
Comme un développeurs aujourd'hui peut remplacer une équipe entière, avec ces 50agents ia et les pilotes.
ok ok, c'est pas encore parfait, mais ca progresse, en 3ans déjà chatgpt n'a plus rien à voir avec ca 1ere version (je parle de la vrai 1ere version sortie grand publique et qui a durée que quelques jours et qui a hélas été downgradé après)
La France est un pays qui redistribue tout sauf de l'espoir.

Après avoir alerté sur la bulle IA, Sam Altman se dépêche de trouver de nouveaux investisseurs "optimistes" pour atteindre une valorisation de 750 milliards de $ pour OpenAI avant le krach
OpenAI, l'éditeur de ChatGPT, envisagerait une nouvelle levée de fonds qui valoriserait l'entreprise à hauteur de 750 milliards de dollars, alors que les inquiétudes concernant la formation d'une bulle spéculative sur le marché de l'intelligence artificielle (IA) grandissent. Sous la direction de son PDG, Sam Altman, les discussions avec des investisseurs privés en sont encore à un stade préliminaire et font suite à des informations selon lesquelles la société préparerait également le terrain pour une éventuelle introduction en bourse.
Samuel Harris Altman est un entrepreneur et investisseur américain surtout connu pour être le PDG d'OpenAI depuis 2019 (il a été brièvement démis de ses fonctions puis réintégré en novembre 2023). Il est également président des sociétés d'énergie propre Oklo Inc. et Helion Energy. Sam Altman est considéré comme l'une des figures de proue du boom de l'IA. En janvier 2025, sa valeur nette était estimée à 1,1 milliard de dollars.
OpenAI est une entreprise américaine spécialisée dans l'IA dont le siège social est situé à San Francisco, en Californie. Elle a pour objectif de développer une IA générale (AGI) « sûre et bénéfique », qu'elle définit comme « des systèmes hautement autonomes qui surpassent les humains dans la plupart des tâches à forte valeur économique ». OpenAI est connue pour la famille GPT de grands modèles de langage, la série DALL-E de modèles de conversion de texte en image et un modèle de conversion de texte en vidéo nommé Sora.
Selon certaines informations, OpenAI, la société de Sam Altman, aurait engagé des discussions avec des investisseurs privés en vue de lever des fonds pour un montant astronomique de 750 milliards de dollars, une initiative qui intervient alors que des rumeurs circulent selon lesquelles le géant de l'IA envisagerait également d'entrer en bourse. La société surtout connue pour avoir créé ChatGPT cherche à lever des dizaines de milliards de dollars lors d'un tour de table, voire jusqu'à 100 milliards de dollars, selon The Information. Les discussions seraient au stade préliminaire et susceptibles d'évoluer.
Cette perspective intervient alors que Sam Altman a publiquement reconnu l'existence d'une bulle spéculative autour de l'IA, due à l'excitation excessive des investisseurs pour cette technologie. Il a également déclaré trouver « insensé » que certaines start-up spécialisées dans l'IA, composées de « trois personnes et d'une idée », reçoivent des financements à des valorisations aussi élevées.
Si cette levée de fonds aboutit, cela représenterait une augmentation de 50 % de la valorisation d'OpenAI par rapport au mois d'octobre, lorsque la société a autorisé ses employés actuels et anciens à vendre 6,6 milliards de dollars d'actions pour une valorisation de 500 milliards de dollars.
En octobre dernier, des rapports ont révélé qu'OpenAI « préparait le terrain » pour une introduction en bourse et envisageait de soumettre les documents nécessaires aux autorités réglementaires d'ici le second semestre de l'année prochaine. Selon certaines sources, cette introduction en bourse pourrait valoriser OpenAI à 1 000 milliards de dollars.
« Une introduction en bourse n'est pas notre priorité, nous n'avons donc pas pu fixer de date », a déclaré à l'époque un porte-parole d'OpenAI. « Nous construisons une entreprise durable et poursuivons notre mission afin que tout le monde puisse bénéficier de l'AGI. »
Par ailleurs, Amazon serait en pourparlers pour investir au moins 10 milliards de dollars dans OpenAI et vendre ses puces informatiques à l'entreprise.
Bien que ChatGPT dispose d'une base massive de plus de 800 millions d'utilisateurs actifs hebdomadaires, il n'est pas encore rentable.
De plus, les projets de Sam Altman d'investir des centaines de milliards de dollars dans la construction de centres de données et d'autres infrastructures nécessaires à la formation de modèles d'IA plus avancés ont effrayé Wall Street et suscité des discussions sur la question de savoir si le marché est en proie à une bulle technologique.
Sam Altman a récemment déclaré l'état d'alerte « code rouge » chez OpenAI et a demandé à ses employés de se concentrer sur l'amélioration des performances de ChatGPT, craignant que Google et d'autres concurrents ne gagnent du terrain.
Alors qu'OpenAI cherche à convaincre de nouveaux investisseurs, le secteur de l'IA est confronté à des doutes croissants quant à sa viabilité financière. Malgré des promesses technologiques majeures, de nombreux analystes mettent en avant les signes avant-coureurs d'un éclatement imminent de la bulle de l'IA, estimant que les niveaux d'investissement et de valorisation actuels rappellent les excès observés avant l'éclatement de la bulle Internet au début des années 2000. Pour plusieurs observateurs, la question n'est plus celle du potentiel technologique, mais celle du calendrier d'un possible ajustement brutal du marché.
Source : The Information
Et vous ?
Quel est votre avis sur le sujet ?
Trouvez-vous cette initiative d'OpenAI judicieuse ou pertinente ?
Voir aussi :
Demis Hassabis, PDG de Google DeepMind, alerte sur la formation d'une bulle autour des startups d'IA, alors que les entreprises en phase de démarrage lèvent des milliards de $ avant de lancer leur produit
Les gestionnaires de fonds avertissent que la bulle des investissements dans l'IA a dépassé un « seuil raisonnable », tandis que le PDG de Google reconnaît qu'elle comporte des « éléments irrationnels »
Les craintes d'une bulle spéculative autour de l'IA émergent : Perplexity et OpenAI sont en tête de liste des startups que les investisseurs vendraient à découvert pour profiter du krach de la bulle de l'IA
Les valeurs technologiques surévaluées subissent un nouveau recul en raison des craintes d'une bulle IA, plus de 420 milliards $ ont été effacés de la valeur des sept plus grands géants américains de la tech
Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
Qui sont ses investisseurs qui peuvent investir des dizaines de milliards dans OpenAI ?
C'est risqué comme pari :
- On ne sait pas si ce sera rentable un jour
- OpenAI se fait rattraper par la concurrence
- Il faut investir des centaines de milliards de dollars dans la construction de centres de données et d'autres infrastructures
Ok, là il y a une logique.
Ça fait un peu comme une boucle :
Quelque part je suis un peu content pour AMD, mais ça va mal finir cette histoire.https://x.com/YTCryptoDada/status/1990039757527933170
I have explained "The Infinity Money Glitch" with #MSTR & #BTC.
I have also explained propping up the market with controlled demolition.
We are in a BUBBLE and these 7 companies contributed heavily by cycling invisible $$$
$NVIDIA $AMD $OPENAI $MSFT $INTEL $ORACLE $XAI
![]()
Ce n'est pas plus insensé que les levés de fonds d'OpenAI.
J'aime bien les histoires "3 gars dans un garage créer une révolution technologique", par contre j'aime pas la partie "ils lèvent des milliards de dollars", mais bon apparemment pour l'IA c'est souvent important d'investir des milliards. (est-ce que les gars de Mistral AI dépensent des milliards ?)
Partager