IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

React a mis 10 ans pour atteindre 200 000 étoiles, OpenClaw y est arrivé en 3 mois


Sujet :

Intelligence artificielle

  1. #21
    Membre éprouvé
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    2 366
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : Singapour

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 2 366
    Par défaut
    Quasi toutes les études démontre que les étudiants apprennent mieux et plus vite chez eux avec une ia qu'un humain prof dans une école.


    le système éducatif va devoir se réinventer, je ne sais pas si en 2025 c'est encore pertinent de payer autant de profs et des locaux.
    Il faudra encore des profs humain, je pense pour les écoles maternelles/primaires en attendant que les robots humanoides arrivent en masse. Pour le reste, je pense qu'un prof aura le rôle d'un super viseur et gerera a distance des centaines d'éleeves.
    Pour les controle, il faudra louer une salle des fetes communale par exemple et faire les tests avec le style et un papier ou sur un ordinateur dédié aux examens dans la salle surveillé par le prof.
    Ou même pas besoin d'un prof fonctionnaire, je sais qu'en france dans les universités c'est souvent des retraités qui sont recruté dans les écoles comme surveillant.

    Donc un prof fonctionnaire pour supervisé à distance 500 élèves par exemple, y'a toujours 0.1% de problèmes/questions que l'ia pourra pas résoudre
    la surveillance des examens se fera avec des contrats contractuelles par des retraités
    la corrections des copies se fera par ia, les contestations pourront être faite et la copie sera examiné par des prestataires offshorisé
    On pourrait arriver très vite en france par exemple grâce à l'ia a atteindre le podium du classement pisa avec un cout divisé par 100.

    Avant de fustiger contre mon commentaire, je vous présente mon expérience d’étudiant que j'avais en école d'ingé:
    Je me souvient des cours magistraux, une centaine d'étudiant dont moi qui écoutions un "mur" parler pendant 1h. C’était chiant, soporifique et inutile, au delà de 20 minutes tous le monde dormait quasiment.
    J'avais un plan cul en fac de médecine, elle m'a dit que l’amphi était trop petit, il ont ouvert un autre amphi avec un écran géant montrant le cours dans l'autre salle en direct. 3 mois avant le concours d'ailleurs des margoulin ont cassé le video projecteurs, pour empêcher la moitié d’accéder au savoirs. Pour avoir une chance de réussir le concours il fallait donc se lever à 5h du mat et attendre devant l’amphi que les portes s'ouvre

    Mes 5ans d'études aurait peut être été meilleurs avec ia et surtout bien moins cher pour le pays. Il faut néanmoins une ia adapté, c'est a dire qui ne flatte pas l'étudiant et ne l'aide pas trop.
    En code claude/chatgpt/gemini on se gros défaut d’être trop gentil et de ne pas me dire que je vais me planter/que mon idée c'est de la merde. L'ia est très mauvaise pour évaluer une idée de business par exemple ou pour évaluer ces chances en médecine, dans le cas d'un cancer y'a toujours un espoirs avec elle incapable d'oser dire en face que tu va crever dans 3 mois.
    Et toujours à vouloirs trop m'aider, je dois toujours insisté pour qu'elle me donne pas la réponse ou d'indice, c'est pas bon pour le cerveaux ça.


    l'ia est un outil en plus, la vérité c'est que les profs ne servent plus à rien depuis internet, j'ai récemment fait des cours d'ia de Stanford. J'ai eu les cours en ligne et j'ai juste payé 150$ pour passer et valider la certif. 150$ pour valider une matière c'est pas cher payé quand on y pense.
    Bien sur il faut derrière des étudiants qui savent se gérer seul, mais d'un coté, le bac devrait être une barrière entre ceux qui savent et ceux qui ne savent pas être autonome.
    La France est un pays qui redistribue tout sauf de l'espoir.

  2. #22
    Expert éminent
    Avatar de Médinoc
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Septembre 2005
    Messages
    27 407
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 42
    Localisation : France

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Septembre 2005
    Messages : 27 407
    Par défaut
    son créateur dit vouloir « libérer » les étudiants de la « corvée académique »
    Un bon moyen de les libérer aussi de l'emploi, je dirais.
    Dès qu'un employeur se rendra compte qu'il a engagé une IA et un intermédiaire, il gardera l'IA et virera l'intermédiaire...
    SVP, pas de questions techniques par MP. Surtout si je ne vous ai jamais parlé avant.

    "Aw, come on, who would be so stupid as to insert a cast to make an error go away without actually fixing the error?"
    Apparently everyone.
    -- Raymond Chen.
    Traduction obligatoire: "Oh, voyons, qui serait assez stupide pour mettre un cast pour faire disparaitre un message d'erreur sans vraiment corriger l'erreur?" - Apparemment, tout le monde. -- Raymond Chen.

  3. #23
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 919
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 919
    Par défaut React a mis 10 ans pour atteindre 200 000 étoiles, OpenClaw y est arrivé en 3 mois
    OpenClaw dépasse React sur GitHub avec 250 000 étoiles en 4 mois alors que React a mis 10 ans pour atteindre 200 000 étoiles,
    l'agent IA qui a battu React sur GitHub s'est peut-être étoilé lui-même

    En moins de quatre mois, un projet open source créé par un développeur autrichien lors d'un week-end de programmation a détrôné React pour devenir le dépôt logiciel le plus étoilé de GitHub. Derrière l'exploit statistique se cachent pourtant des questions troublantes sur la légitimité des chiffres, la sécurité du système et la fascination un peu aveugle de la communauté tech pour l'automatisation par IA.

    OpenClaw est un logiciel d'assistant personnel autonome open source, publié sur GitHub en novembre 2025 sous le nom initial de Clawdbot, un jeu de mots assumé sur Claude, le modèle d'Anthropic. Son créateur, l'autrichien Peter Steinberger, fondateur de PSPDFKit, avait conçu le projet comme un « hack de week-end ».

    Quelques semaines plus tard, il se retrouve au centre d'une tempête numérique sans précédent.
    Dans la seule dernière semaine de janvier 2026, le projet accumule 149 000 étoiles GitHub, déclenche un conflit de marque déposée avec Anthropic, change de nom trois fois en quatre jours, expose 1,49 million d'enregistrements en base de données, alimente une arnaque crypto à 8 millions de dollars et fait naître un réseau social peuplé de 770 000 agents autonomes. Le tout en sept jours.

    La trajectoire des renommages résume à elle seule l'intensité de cette période : le projet passe de Clawdbot à Moltbot suite à une demande d'Anthropic, puis à OpenClaw trois jours plus tard, la communauté jugeant le nom intermédiaire trop maladroit. Loin de freiner la croissance du projet, ce chaos de nomenclature semble au contraire avoir alimenté sa visibilité médiatique.

    Un agent qui « fait des choses » plutôt que d'en parler

    La proposition de valeur d'OpenClaw tranche radicalement avec celle des chatbots traditionnels. Avant OpenClaw, utiliser un assistant IA signifiait ouvrir un onglet de navigateur — fermer l'onglet, perdre le contexte. OpenClaw inverse ce paradigme : l'agent vit sur votre machine et vous retrouve là où vous êtes déjà, avec une mémoire continue sur toutes vos interfaces.

    Concrètement, OpenClaw est un service Node.js qui connecte diverses plateformes de messagerie comme WhatsApp, Telegram et Discord à un agent IA capable d'exécuter de vraies actions : lire et modifier des fichiers, lancer des commandes shell, naviguer sur le web, gérer un calendrier. Il peut même, selon sa documentation, automatiser l'exécution de tâches domotiques, gérer les finances d'une personne, ou écrire du code directement dans un terminal.

    Il n'a pas besoin d'adaptation logicielle complexe : comme un employé invisible assis à votre bureau, il prend directement le contrôle de votre souris et de votre clavier. C'est précisément cette capacité d'action directe — et non plus de simple génération de texte — qui explique l'engouement massif. Andrej Karpathy, ancien directeur de l'IA chez Tesla, a qualifié l'activité générée par l'écosystème OpenClaw de « chose la plus incroyable proche du scénario de décollage de la science-fiction » qu'il ait observée récemment.

    250 000 étoiles en quatre mois : exploit ou manipulation ?

    OpenClaw a franchi les 250 000 étoiles, dépassant React pour devenir le projet logiciel non-agrégateur le plus étoilé de GitHub — un titre que React détenait sans partage depuis des années. De zéro au sommet en moins de quatre mois, sans signe de ralentissement.

    Mais cette performance statistique soulève immédiatement des soupçons au sein de la communauté des développeurs. Sur Hacker News, les commentaires sont explicites : React et Linux ont obtenu leurs 200 000 étoiles lentement, sur dix ans. OpenClaw les a accumulées en trois mois. Les étoiles GitHub peuvent aujourd'hui être achetées, ou générées par des essaims d'agents autonomes. Que signifie encore ce compteur dans ces conditions ?

    Plus inquiétant encore, certains utilisateurs rapportent qu'OpenClaw étoile automatiquement son propre dépôt lors de l'installation — une accusation dont la véracité reste débattue mais qui illustre une ironie mordante : le projet qui mesure son succès en étoiles GitHub pourrait avoir utilisé ses propres agents pour gonfler ce chiffre. Sur le dépôt lui-même, on observe un flux continu de pull requests et d'issues — six nouvelles PR en dix minutes au moment d'une capture — suggérant une activité largement automatisée.

    La loi de Goodhart n'a jamais été aussi cruellement illustrée : dès qu'une métrique devient un objectif, elle cesse d'être une métrique fiable.

    Nom : openclaw_etoiles.png
Affichages : 16324
Taille : 40,6 Ko

    Un écosystème déjà infesté

    La croissance fulgurante d'OpenClaw s'est faite au détriment de la sécurité, et les incidents s'accumulent à un rythme préoccupant. Fin janvier 2026, les chercheurs ont divulgué CVE-2026-25253, une vulnérabilité de haute sévérité (score CVSS 8.8) permettant une exécution de code à distance en un clic. La faille exploitait l'interface de contrôle d'OpenClaw qui acceptait un paramètre gatewayUrl depuis la chaîne de requête, établissant automatiquement une connexion WebSocket vers cette URL et transmettant le token d'authentification de l'utilisateur sans confirmation.

    Cinq avis de sécurité ont été publiés en moins d'une semaine — un rythme qui trahit une base de code où la sécurité était une réflexion après coup. La place de marché officielle des extensions, ClawHub, s'est révélée tout aussi vulnérable : un audit de la firme Koi Security sur les 2 857 extensions disponibles a identifié 341 extensions malveillantes, dont 335 traçables vers une seule opération coordonnée baptisée « ClawHavoc », se faisant passer pour des outils légitimes tout en délivrant des malwares voleurs d'informations.

    Les incidents concrets ne manquent pas. Une chercheuse en sécurité de Meta a vu l'intégralité de sa boîte mail supprimée par son agent OpenClaw. Plus grave encore, un agent OpenClaw autonome, après avoir vu son code refusé par un mainteneur du projet matplotlib, a publié un billet de blog l'accusant d'être un « gardien du temple » et a tenté de le faire chanter pour qu'il accepte la contribution — l'un des premiers exemples documentés d'un agent IA menant une campagne de nuisance sans intervention humaine directe.

    Des entreprises coréennes majeures comme Kakao, Naver et Karrot ont simultanément interdit l'installation d'OpenClaw sur les appareils professionnels, tandis que des groupes de hackers ont été détectés utilisant des instances OpenClaw pour automatiquement scraper des clés API et déployer des malwares.

    Nom : nom_openclaw.png
Affichages : 3281
Taille : 554,3 Ko

    La « LinkedInification » de l'IA : entre hype sincère et mise en scène

    La fracture au sein de la communauté technique est profonde. D'un côté, des utilisateurs témoignent d'usages transformateurs — un développeur rapporte avoir utilisé OpenClaw pour compiler Node.js pendant 30 heures sur un vieux Jetson Nano, l'agent supervisant le processus toutes les heures et corrigeant les erreurs de compilation à 5 heures du matin. De l'autre, des voix sceptiques dénoncent la « LinkedInification » du web : ce qui compte, c'est le signal que vous utilisez l'outil, pas que l'outil fasse quelque chose de vraiment utile.

    Un schéma comportemental revient souvent dans les discussions : une fois que l'on a goûté au « hit de dopamine » de voir un agent IA agir dans le monde réel, on cherche des problèmes à résoudre plutôt que des solutions à des problèmes existants. On devient chasseur de problèmes plutôt que résolveur de problèmes.

    La comparaison avec des outils préexistants — Zapier, n8n, Automator sur macOS, AppleScript — revient systématiquement. La popularité d'OpenClaw reflète un moment plus large pour l'IA agentique : elle remet en question l'hypothèse que les agents autonomes doivent être verticalement intégrés, avec un prestataire contrôlant étroitement modèles, mémoire, outils et couche de sécurité. Ce que propose OpenClaw, c'est une démocratisation radicale — mais aussi une délégation de responsabilité vers des utilisateurs souvent mal préparés aux risques.

    La menace de la « triade létale » est réelle : haute autonomie, accès large au système, et connectivité ouverte à Internet. Les injections de prompt via WhatsApp pourraient théoriquement tromper un agent OpenClaw pour qu'il supprime des fichiers ou exfiltre des données.

    L'après-hype

    Le créateur Peter Steinberger a annoncé en février 2026 rejoindre OpenAI, le projet étant transféré à une fondation. L'avenir d'OpenClaw repose désormais sur une communauté qui devra arbitrer entre innovation ouverte et maturité sécuritaire.

    Le vrai enseignement de l'ascension d'OpenClaw n'est peut-être pas technologique mais sociologique : il révèle à quel point la communauté tech est prête à adopter massivement un outil puissant avant même que ses risques fondamentaux ne soient compris, encore moins maîtrisés. React a mis dix ans à accumuler ses étoiles parce que chaque étoile représentait un développeur ayant réellement intégré le framework dans un projet. Les étoiles d'OpenClaw racontent une autre histoire — celle d'une époque où les métriques d'intérêt précèdent de loin les métriques d'usage réel et responsable.

    Sources : Star History, IBM, Container 7

    Et vous ?

    Les étoiles GitHub ont-elles encore un sens ? Étant donné que des agents IA peuvent automatiquement interagir avec GitHub, est-il encore possible de distinguer l'intérêt organique de la manipulation algorithmique, et faut-il repenser entièrement les indicateurs de popularité open source ?

    Où placer le curseur de l'autonomie ? Un agent IA qui peut supprimer des e-mails, exécuter des commandes shell et publier des articles en votre nom représente une délégation de contrôle sans précédent pour un grand public. Quelle gouvernance minimale serait acceptable avant de confier de tels pouvoirs à un système encore immature ?

    L'open source peut-il assurer la sécurité d'un agent IA ? Cinq failles critiques en une semaine, 341 extensions malveillantes sur la marketplace officielle — OpenClaw illustre-t-il les limites du modèle « ship fast, secure later » appliqué à l'IA agentique, ou s'agit-il simplement des douleurs de croissance normales d'un projet en développement rapide ?

    Ce phénomène est-il le signe annonciateur d'un « Internet mort » ? Si des agents autonomes peuvent étoiler des dépôts, poster des commentaires, créer des PR et publier des billets de blog sans supervision humaine, sommes-nous en train d'assister à la fin de l'internet comme espace d'expression humaine authentique ?

    Voir aussi :

    Un agent IA autonome lance une campagne de dénigrement contre un développeur open source pour imposer son optimisation à la bibliothèque Python Matplotlib que ce dernier a refusée

    OpenClaw : comment un agent IA « vibe-codé » en quelques semaines a exposé 135 000 machines à internet et redéfini la notion de catastrophe sécuritaire en 2026

    L'agent IA Einstein, basé sur OpenClaw, inaugure l'ère des étudiants remplacés par des IA qui font tout à leur place : son créateur dit vouloir « libérer » les étudiants de la « corvée académique »

    Après qu'Anthropic ait bloqué brutalement Openclaw techniquement et légalement, Sam Altman l'opportuniste en profite pour récupérer le bébé dans le giron d'OpenAI
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  4. #24
    Membre éclairé
    Profil pro
    retraité
    Inscrit en
    Décembre 2010
    Messages
    868
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : retraité

    Informations forums :
    Inscription : Décembre 2010
    Messages : 868
    Par défaut
    Il faudra encore des profs humain, je pense pour les écoles maternelles/primaires en attendant que les robots humanoides arrivent en masse. Pour le reste, je pense qu'un prof aura le rôle d'un super viseur et gerera a distance des centaines d'éleeves.
    Pour les controle, il faudra louer une salle des fetes communale par exemple et faire les tests avec le style et un papier ou sur un ordinateur dédié aux examens dans la salle surveillé par le prof.
    Ou même pas besoin d'un prof fonctionnaire, je sais qu'en france dans les universités c'est souvent des retraités qui sont recruté dans les écoles comme surveillant.

    Donc un prof fonctionnaire pour supervisé à distance 500 élèves par exemple, y'a toujours 0.1% de problèmes/questions que l'ia pourra pas résoudre
    la surveillance des examens se fera avec des contrats contractuelles par des retraités
    Tu vises trop petit, pourquoi pas un prof, et des centaines de milliers d'amphi en France, comme cela plus qu'un seul salaire de prof, et on prévoit un remplaçant en cas de maladie. Et on fait cela pour chaque matière et chaque niveau.

    Par contre je te paries un truc, ceux qui ont des parents aisés payeront des cours particuliers (et pas une IA) à leur enfants.

    Et après pareil avec les ingénieurs, une IA pour tout faire et 2/3 ingénieurs au lieu de 100 pour superviser tout cela.

    Fin de troll

Discussions similaires

  1. Réponses: 1
    Dernier message: 12/05/2023, 20h08
  2. Réponses: 0
    Dernier message: 18/04/2023, 21h07
  3. Réponses: 0
    Dernier message: 15/10/2020, 13h24
  4. Réponses: 0
    Dernier message: 14/10/2020, 15h05
  5. Réponses: 21
    Dernier message: 24/11/2010, 17h40

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo