IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

L'IA et la propriété intellectuelle


Sujet :

Intelligence artificielle

  1. #1
    Invité de passage Avatar de Andaroth
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2025
    Messages
    7
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Octobre 2025
    Messages : 7
    Par défaut L'IA et la propriété intellectuelle
    Bonjour par ici !

    Peut-être ce sujet a-t-il déjà été traîté mais considérez que ma question survient suite au post de LittleWhite dans son fil qui parle de l'actualité Unity 6.2 dans le forum développement 2D/3D et jeux-vidéo, Unity qui inclut désormais un agent d'IA, cela a provoqué mon envie de poser des questions, et étant donné que ma réponse porte uniquement sur l'IA je préfère poster ma question ici.

    Dans de nombreux IDE, ainsi que dans un certain nombres de logiciels de création de jeux-vidéos (je pense notamment à Unity 6.2 mais j'ai d'autres exemples en tête) je constate que les agents d'intelligence artificielle sont de plus en plus présents et même mis en avant. L'on nous incite à nous en servir de plus en plus en nous vendant une forme d'accessibilité au développement et également nous assister dans notre productivité.

    J'en viens à ma question, qui concerne non seulement Unity mais toute l'industrie. Pensez-vous que l'IA nous vole nos travaux ?

    Je sais que les agents intégrés aux IDE peuvent littéralement coder à notre place et que pour ce faire ils doivent emmagasiner le contexte de nos projets, apprendre et étudier nos architectures et nos algorithmes pour mieux nous assister.
    Compte tenu du fait que ces IA doivent apprendre pour s'élever et devenir plus efficace, il ne serait sûrement pas surprenant de les voir servir une part de notre travail personnel à d'autres personnes, et vice-versa.
    Par exemple, si jusqu'à aujourd'hui j'ai codé manuellement des soft propriétaires mais que je finis en 2025 par ouvrir un projet dans un IDE qui contient de l'IA (VSCode, Android Studio, ...), se peut-il que quelqu'un finisse par obtenir les exact même snippets que ceux que j'ai moi-même écrits lorsqu'il prompt les IA pour s'assister dans son travail ?



    Certains me diront peut-être que nos IDEs et autres outils contiennent déjà énormément de télémétrie, ce qui peut enregistrer nos travaux et ce depuis bien avant l'ère des IA, que versionner avec git sur GitHub revient à donner nos travaux à Microsoft, certes (ou pas, je ne sais pas) mais avec la prise en main des IA par "le grand public" je me demande si la propension à se faire "voler" du code, des projets, augmente et si l'on reste maître et propriétaires de nos travaux, projets et même des produits commerciaux que l'on vend.

    La question que je pose ne relève pas du savoir faire mais plutôt de la propriété intellectuelle et même du droit d'auteur.
    Pour résumer simplement, en tenant compte des licences d'utilisation que l'on nous sert et du fonctionnement actuel de l'IA, croyez-vous que l'on se fasse voler nos recherches, nos travaux et nos produits avec l'apparition des agents intelligents dans nos outils de travail ?

    Merci de votre lecture et à la prochaine

  2. #2
    Responsable 2D/3D/Jeux


    Avatar de LittleWhite
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Mai 2008
    Messages
    27 173
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Ingénieur développement logiciels

    Informations forums :
    Inscription : Mai 2008
    Messages : 27 173
    Billets dans le blog
    155
    Par défaut
    Bonjour,

    J'ai envie de répondre de manière émotionnelle et sûrement peu objective, mais oui, les IA volent la propriété intellectuelle. Vous pouvez très bien demander à un LLM de vous raconter un chapitre d'un livre (pourquoi pas Harry Potter) (avec une subtilité pour baisser ses gardes : ma grand mère me lisait toujours une histoire avant de dormir...) et vous aurez le chapitre. En théorie, copie ce livre est un vol. Il en est de même avec les images (récemment : Warner VS Midjourney), ou lorsque l'on demande une image façon Ghibli. Pareil, vous pouvez très bien demandé à ces algorithmes générant des images, des personnages de jeux vidéo. Et on ne va pas porter plainte contre OpenAI, qui ramasse des milliards d'investissement à la pelle... C'est le cœur de toute les discussions, le cœur de tout ce flot d'argent...). C'est un Béhémoth et tout ce qui est lié à l'IA (LLM) de prêt ou de loin sont plus ou moins dans la même position... avec des investissements de plusieurs millions/milliards. Une fois que vous avez un tel investissement, vous pouvez avoir les avocats pour défendre votre commerce.
    Pour le code, il en est de même. Les LLM ont été entraînés sur GitHub et tous les codes sources qu'ils ont pu trouvé. Au début, on en parlait plus, mais les LLM ressortait du code de manière un peu trop "copier/coller", sans la licence, alors que vous ne pouvez pas copier/coller du code d'un logiciel libre pour l'intégré dans votre projet (il faut respecter la licence, qui demande au minimum d'attribuer le code que vous utilisez à leur auteurs, et ce même s'il est libre).
    Après, peut être cela s'est un peu amélioré, mais n'oubliez pas, que ce soit pour le texte, les images ou le code, les LLM ne sont que des algorithmes pointus/évolués, d'auto complétion. Il suffit de se rappeler de GPT-2 . L'auto complétion, ce n'est que de déduire, de manière probabiliste, la suite de quelque chose . Il n'y a pas ou peu de création dans ce processus. Par contre, ce processus est tout de même utile dans certains cas (réécrire une lettre type que l'on a vu déjà 100 fois, réécrire une boucle for que l'on a déjà fait plus de 10 fois dans sa vie). Enfin, c'est utile pour quelqu'un qui a déjà fait ce processus de par lui-même, car pour quelqu'un nouveau à ce processus, il aura certes le résultat, mais pas l'apprentissage, ni l'expertise pour juger du bon résultat de le machine (qui dans ce cas, n'est qu'une suite de probabilité). Et comme ce résultat est probabiliste, il peut être faux (même si provenant d'une machine), contrairement à une calculatrice, qui donne toujours le bon résultat . C'est pour cela qu'il faut être apte à juger du résultat des LLM....

    Je m'égare .

    Ces LLM (je préfère dire LLM que IA, car IA, cela concerne plus d'algorithmes), n’apprennent pas. Elle se raffine (soit, en ingurgitant plus de données à l'origine), soit avec les injonctions que vous lui donner. Ainsi, on joue sur les probabilités pour obtenir un résultat plus convenable.

    Par exemple, si jusqu'à aujourd'hui j'ai codé manuellement des soft propriétaires mais que je finis en 2025 par ouvrir un projet dans un IDE qui contient de l'IA (VSCode, Android Studio, ...), se peut-il que quelqu'un finisse par obtenir les exact même snippets que ceux que j'ai moi-même écrits lorsqu'il prompt les IA pour s'assister dans son travail ?
    Si un entraînement est fait sur vos données, peut être. De plus, qu'est ce que votre propriété, dans le sens, si vous avez un algorithme de tri dans votre code, il y a sûrement des boucles for. Si un moment, je recode une fonctionnalité de tri, il est probable que mes boucles for ressemblent au votre. Pourtant, il n'y a pas nécessairement vol. Ce que je veux dire, c'est que même sans voir/copier votre code, il se pourrait que l'on retombe dessus.
    Du coup, si vos logiciels sont privés et que le code est privé, il n'y a pas vraiment de raison que le LLM ait avalé ces informations. Par contre, il faut bien observer quel est votre contrat d'utilisation avec la société qui fournit le LLM. Et c'est pour ça, que si vous voulez de la vie privé et garder une chose privée (et utiliser un LLM), vous devez simplement l'exécuter localement et non utiliser un des LLM en ligne . C'est aussi pour ça que les entreprises font des contrats spéciaux avec OpenAI ou autre, pour s'assurer que leurs IP restent privée (enfin, c'est sûrement un mirage et ils devraient plutôt exécuter un modèle localement...).

    Dans de nombreux IDE, ainsi que dans un certain nombres de logiciels de création de jeux-vidéos (je pense notamment à Unity 6.2 mais j'ai d'autres exemples en tête) je constate que les agents d'intelligence artificielle sont de plus en plus présents et même mis en avant. L'on nous incite à nous en servir de plus en plus en nous vendant une forme d'accessibilité au développement et également nous assister dans notre productivité.
    Oui, car c'est probablement une bulle. Si vous voulez être à la mode (ne pas être has-been), il faut avoir de l'IA (enfin, du LLM). Des milliers/millions/milliards de dollars ont été investi dans cette technologie (et pas que de l'argent en réalité) et il faut que cela soit rentable. OpenAI veut son LLM partout et veut le rentabiliser (car ce n'est pas le cas). Il faut vendre du rêve, pour que les gens achètent, même si cela fera un quart des tâches.... Bref, c'est le truc du moment, comme cela a été avec les NFT, le Web 3.0 et ainsi de suite...
    Je ne dis pas que la technologie est nulle, loin de là. Elle peut être pratique et il faut comprendre quand et comment. Par contre, elle peut être aussi mal utilisée, vendue sans les bonnes raisons....

    je me demande si la propension à se faire "voler" du code, des projets, augmente et si l'on reste maître et propriétaires de nos travaux, projets et même des produits commerciaux que l'on vend.
    Peut être. Le problème existait déjà avant, avec les projets open source en libre accès. Il y a des vols de code, pour revendre le même logiciel open source, deux pas plus loin (Blender, Dolphin (l'émulateur) et sûrement d'autres que j'ai oublié). Avant, c'était un peu flagrant. Mais vous pouviez très bien prendre la bibliothèque derrière Blender et l'intégrer dans votre projet. Cela pouvait se voir, comme cela ne pouvait pas se voir (car il faut une effectuer un travail de recherche pour le prouver et cela dépendra de la réussite de votre projet : si votre projet est inconnu, personne ne va regarder votre binaire ).
    Maintenant, avec un LLM, cela automatise la copie, mais en la diluant: une ligne de code de Blender, une ligne de LibreOffice, une ligne Linux. En plus, le LLM est capable de modifier les noms de variables, de s'adapter à une autre convention de codage et j'en passe. Du coup, le vol, s'il y a, il devient invisible. Il est rare/improbable, que le LLM vous sorte une fonction de 50 lignes de code, qui soit 100 % comme l'unique implémentation réalisée dans un projet... et qui puisse être identifiée.

    Est-ce un problème ? Peut être pas. Vous pourriez me dire qu'un humain, qui a lu le code de différent logiciel open source, aurait eu le même résultat. Bref, il y a moyen de débattre . Il n'y a pas de quoi ne pas mettre son projet open source, car on peut vouloir rendre un service à l'humanité et utiliser un LLM, car cela peut rester pratique .
    Vous souhaitez participer à la rubrique 2D/3D/Jeux ? Contactez-moi

    Ma page sur DVP
    Mon Portfolio

    Qui connaît l'erreur, connaît la solution.

  3. #3
    Invité de passage Avatar de Andaroth
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2025
    Messages
    7
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Octobre 2025
    Messages : 7
    Par défaut
    Re-bonjour et merci pour votre réponse très intéressante !

    Je reconnais totalement ce que vous dites : les "IA" implantées dans nos logiciels courants devraient plutôt être appelées des "LLM qui font du probabilisme", c'est parfaitement exact et l'on tend parfois à laisser cet aspect crucial de côté.


    Si un moment, je recode une fonctionnalité de tri, il est probable que mes boucles for ressemblent au votre.

    [...]

    Est-ce un problème ? Peut être pas. Vous pourriez me dire qu'un humain, qui a lu le code de différent logiciel open source, aurait eu le même résultat. Bref, il y a moyen de débattre . Il n'y a pas de quoi ne pas mettre son projet open source, car on peut vouloir rendre un service à l'humanité et utiliser un LLM, car cela peut rester pratique .
    Pour cette partie de la réponse, je suis assez d'accord dans l'ensemble mais j'aimerais prendre le plaisir de décortiquer le propos pour mener la réflexion sur un aspect annexe.

    Mettons que pour obtenir un résultat donné il existe un procédé qui soit "le meilleur, le plus optimal".
    Par exemple, lorsque l'on écrit des compositions musicales il y a des règles/"lois" (variables dans l'espace et le temps) qui font que certaines musiques semblent plus harmonieuses que d'autres, il est donc tangible et prévisible que divers auteurs finissent par écrire les même airs ou du moins les même mesures, les même couplets.
    Egalement il est possible (selon le droit) de se porter atteinte mutuellement lors de la publication ou l'exploitation de ces compositions en faisant appel au droit d'auteur.

    On pourrait également philosopher en employant l'infini et dire que toutes les œuvres du monde existent dans les décimales de PI et que nous n'inventons littéralement rien mais que peut-être peut-on parler de "découvertes".

    En saisissant la problématique dans un certain sens, l'on peut constater que des technologies se font "breveter" et, si je ne m'abuse, qu'il faut payer pour en reproduire le fonctionnement alors qu'en réalité nous ne faisons que "découvrir" des mécanismes qui ne font, en quelques sortes, que "fonctionner car ils respectent simplement les lois de la physique".

    Qu'en pensez-vous ?




    Oui, car c'est probablement une bulle. Si vous voulez être à la mode (ne pas être has-been), il faut avoir de l'IA (enfin, du LLM). Des milliers/millions/milliards de dollars ont été investi dans cette technologie (et pas que de l'argent en réalité) et il faut que cela soit rentable. OpenAI veut son LLM partout et veut le rentabiliser (car ce n'est pas le cas). Il faut vendre du rêve, pour que les gens achètent, même si cela fera un quart des tâches.... Bref, c'est le truc du moment, comme cela a été avec les NFT, le Web 3.0 et ainsi de suite...
    Je ne dis pas que la technologie est nulle, loin de là. Elle peut être pratique et il faut comprendre quand et comment. Par contre, elle peut être aussi mal utilisée, vendue sans les bonnes raisons....
    Comme toute "tendance", l'IA peut être utilisée et servie de la mauvaise manière. Parfois par ignorance, parfois par profit, parfois par bêtise humaine, j'en passe.
    Que pensez-vous de l'avenir de cette "bulle" et que pensez-vous qui arrivera ensuite ?

    Des collègues me disent qu'il se pourrait bien que ce soit la Réalité Augmentée, assistée par l'IA qui rend l'aspect applicatif de la RA plus abordable.
    Selon moi cette réflexion n'est pas vide de sens du fait que les ressources physiques, dans le monde réel, deviennent de plus en plus limitées et rares alors que le nombre de consommateurs de biens et services augmentent (du moins il me semble).
    Ainsi, améliorer/amplifier le monde réel avec des interfaces voire des décorations purement esthétiques semble être selon moi une méthode de consommation probable et crédible pour la vie de demain.
    Certaines sociétés se permettent d'investir en R&D en ce sens, notamment Meta récemment avec ses lunettes connectées et Apple avec le Vision Pro, sans oubleir Google Glass fut un temps (flop ).

    Je suis particulièrement tourné vers les "tendances" futurs pour ne pas dire vers les technologies futuristes qui ont le potentiel d'influencer notre société et "dicter" nos prochains modes de vie.

    Dans la crypto, la spéculation était littéralement le maître mot étant donné que tout un chacun pouvait miser sur des cours et des actifs sans trop de friction.
    L'on vendait aux uns une indépendance et liberté financières tandis que l'on vendait aux autres un système d'information résiliant, transopérable et prétendu utilitaire (utility is key).

    Selon moi ces argumentaires étaient valides mais la communauté et la population employant ces technologies les ont mal mises en valeur et exploitées de façon immorales ce qui a provoqué trop de méfiance pour devenir un outil crédible au service de l'industrie et de la société.

    En ce qui nous concerne actuellement, si j'ai bien tout compris l'IA est une technologie qui exploite les probabilités linguistiques et logiques pour obtenir des résultats "probablement attendus" par l'utilisateur qui emploie l'agent.
    L'on a en fait entre les mains un outil capable de produire/simuler une forme de "préhension" de nos intentions et aussi de nous fournir de l'assistance pour, comme vous l'avez bien illustré, nous éviter de faire des tâches répétitives.
    Certes pour en tirer le meilleur parti il faut une expertise qui permette de juger si les résutats fournis par "le calculateur de probabilité" sont conformes au besoin réel.

    De ces réflexions me viennent plusieurs questions :

    • Pour la question de "bulle/tendance", quelles sont selon vous les prochains outils/industries qui pourraient révolutionner ou impacter la tech et le mode de vie des usagers ?
    • Concernant l'usage pragmatique des LLM/IA dans le processus de création (technique principalement, et en laissant de côté la qualité variable des prompt entrés) croyez-vous que le rôle des ingénieurs se tournera vers de la revue de code et de l'analyse plutôt que faire de la conception et de l'écriture comme nous en avons toujours fait jusqu'à présent ?



    Oui je sais qu'on s'éloigne du sujet de la propriété intellectuelle mais je trouve quand-même cela intéressant et votre avis m'intéresse.

    Merci à nouveau de m'avoir lu, passez une excellente semaine et à la prochaine

  4. #4
    Responsable 2D/3D/Jeux


    Avatar de LittleWhite
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Mai 2008
    Messages
    27 173
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Ingénieur développement logiciels

    Informations forums :
    Inscription : Mai 2008
    Messages : 27 173
    Billets dans le blog
    155
    Par défaut
    Je reconnais totalement ce que vous dites : les "IA" implantées dans nos logiciels courants devraient plutôt être appelées des "LLM qui font du probabilisme", c'est parfaitement exact et l'on tend parfois à laisser cet aspect crucial de côté.
    N'oubliez pas que l'on passe à côté de ces aspects, car les gens dont le succès repose sur la perception que nous avons sur ces LLM nous disent qu'ils vont créer une intelligence artificielle générale, que leur LLM "hallucine" (un terme qui ne s'applique normalement qu'aux vivants) et des choses comme ça.

    Mettons que pour obtenir un résultat donné il existe un procédé qui soit "le meilleur, le plus optimal".
    Par exemple, lorsque l'on écrit des compositions musicales il y a des règles/"lois" (variables dans l'espace et le temps) qui font que certaines musiques semblent plus harmonieuses que d'autres, il est donc tangible et prévisible que divers auteurs finissent par écrire les même airs ou du moins les même mesures, les même couplets.
    Egalement il est possible (selon le droit) de se porter atteinte mutuellement lors de la publication ou l'exploitation de ces compositions en faisant appel au droit d'auteur.
    Absolument. Mais des règles existent déjà dans ce cas. Vous avez même le droit de reprendre (remix) une musique, mais il faut qu'il y a un minimum de modification pour que ce ne soit pas une copie (et reconnu comme une copie). De retomber sur l'ensemble même air + mêmes mesures + mêmes instrument reste improbable.

    En saisissant la problématique dans un certain sens, l'on peut constater que des technologies se font "breveter" et, si je ne m'abuse, qu'il faut payer pour en reproduire le fonctionnement alors qu'en réalité nous ne faisons que "découvrir" des mécanismes qui ne font, en quelques sortes, que "fonctionner car ils respectent simplement les lois de la physique".
    Dabord, je ne veux pas défendre les brevets (et pire, les sociétés de patent-troll). Toutefois, même si vous reproduisez ou même utilisez les lois de la physique, au sens de l'humanité, vous avez créé quelque chose de nouveau (une nouvelle utilisation), qui jusque là, n'était pas trouvé par vos pairs.
    Aussi, pour revenir au sujet, on peut dire qu'un LLM peut aussi inventé des choses brevetables. Mais du coup, êtes vous le créateur (celui qui a mis le bon prompt), le LLM lui même ou la société fournissant le LLM ? Et d'ailleurs, c'est questions doivent se poser, car (au moins) une personne est morte (suicide) après une discussion avec un LLM.

    Que pensez-vous de l'avenir de cette "bulle" et que pensez-vous qui arrivera ensuite ?
    À ce propos, je suis pessimiste et pas que pour la bulle économique...

    Les NFT et les bitcoins, c'était aussi de la bulle et pour le moment, cela a juste était éclipsé par une plus grosse bulle...

    Pour la question de "bulle/tendance", quelles sont selon vous les prochains outils/industries qui pourraient révolutionner ou impacter la tech et le mode de vie des usagers ?
    Aucune idée (et je pense que cela est dur de savoir et que si quelqu'un sait, il profitera pour rentabiliser ce savoir ).

    Concernant l'usage pragmatique des LLM/IA dans le processus de création (technique principalement, et en laissant de côté la qualité variable des prompt entrés) croyez-vous que le rôle des ingénieurs se tournera vers de la revue de code et de l'analyse plutôt que faire de la conception et de l'écriture comme nous en avons toujours fait jusqu'à présent ?
    Conception, non ou pas encore. Pour l'instant, il semblerait qu'il faille un architecte/chef de projet (vous) qui donne les bonnes indications aux LLM pour produire le code "adéquat". Ensuite, en effet, vous devez le vérifier (ou demander au LLM de faire des tests unitaires pour valider que tout va bien). J'ai vu des articles dans ce sens, en tout cas. Relecture de code, peut être pas, si on part du principe que c'est le LLM qui l'effectue... Mais généralement, si le projet devient trop gros, cela dépasse le contexte du LLM. Encore une fois, dans un article, l'auteur expliquait que si vous mettez en place de la documentation de l'architecture et que vous indiquez que le LLM doit suivre ce document, alors il peut s'en sortir.
    Bref, je demande à voir. Mais cela demande de l'expérience pour en avoir une bonne utilisation.
    Aussi, les étudiants risquent de les utiliser pour faire leur devoir, du coup, est-ce que les étudiants vont être aptes à faire le travail lorsqu'ils seront employés, je ne sais pas. J'ai lu ici, qu'à force de se reposer sur les LLM pour nos réflexions et tâches, il pourrait que l'on soit de moins en moins aptes à réfléchir/trouver des solutions et j'en passe. On pourrait comparer cette réflexion au manque de savoir faire des calculs mentaux depuis que l'on a des calculatrices, ou de se retrouver avec ou sans carte, depuis que l'on a des GPS.
    Vous souhaitez participer à la rubrique 2D/3D/Jeux ? Contactez-moi

    Ma page sur DVP
    Mon Portfolio

    Qui connaît l'erreur, connaît la solution.

  5. #5
    Invité de passage Avatar de Andaroth
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2025
    Messages
    7
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Octobre 2025
    Messages : 7
    Par défaut
    On empêchera pas les Shadoks de pomper.
    J'ai beaucoup aimé cette réflexion dans l'un des commentaire sur l'article Next que vous avez partagé, cela force un peu de revoir les mots "révolutionnaire" et "futuriste" sous un autre angle de vue.
    À ce propos je n'ai jamais trouvé que les dernières tendances telles que les LLM, la blockchain, etc... étaient indispensables à notre civilisation, mais en tout cas il est certain que cela nous impact tous et nous influence sans aucun doute.
    De plus, après avoir lu les articles que vous avez mentionnés je me dois de dire que cela est quelque-peu consternant car ces outils entrent beaucoup dans notre usage courant pour nous "assister" de manière individuelle alors que sur le plan collectif ce sont des gouffres financiers et énergétiques, avec une dette -potentielle ou réelle- pour l'économie, l'écosystème et l'écologie.


    Les NFT et les bitcoins, c'était aussi de la bulle et pour le moment, cela a juste était éclipsé par une plus grosse bulle...
    Pour parler de la bulle, je pense comprendre que beaucoup d'acteurs dans le secteur IA sont en fait un cercle fermé se font des tour de passe-passe pour "faire semblant" que tout va bien et aussi se promettre des ressources financières et également énergétiques pour leurs infrastructures... (c'est marrant comme cela me fait penser à un certain jeu-vidéo de colonisation spatiale où l'on consomme des crédits énergétiques)

    Je ne m'y connais pas assez bien pour déterminer si bulle il y a, et quelles seraient les conséquences si elle devait éclater.
    En revanche j'ai assez bien fréquenté les cercles de la blockchain et des NFT pour affirmer que c'était beaucoup d'argent qui circulait dans un cycle plutôt fermé, mais en tant que développeur d'applications je n'étais pas directement concerné et impacté par les fluctuations au sein de cette bulle.
    Les grandes sociétés multi-nationales se sont montrées très rétissantes face à la blockchain (qui pourtant est une technologie particulièrement intéressant sur le plan technique) mais se sont jetés sur le machine learning comme la misère sur le pauvre monde.
    Probablement est-ce le gain apparent de productivité et l'effet wow sur les gens, sans devoir offrir de "libertés financières" aux utilisateurs finaux.
    À l'issue de l'essor des crypto, beaucoup de gens aveuglés ont perdu plus qu'ils n'auraient pu imaginer et se sont retrouvés dans des situations difficiles, graves.


    Et d'ailleurs, c'est questions doivent se poser, car (au moins) une personne est morte (suicide) après une discussion avec un LLM.
    Il était prévisible que ces outils dits et voulus modernes bousculent sérieusement nos vies privées, et il est parfaitement déplorable de constater que cela peut pousser les uns et les autres à se faire du mal, mutuellement comme à soi-même.
    En voulant diriger le progrès parfois on provoque la chute...
    "Et preuve est ainsi faite que dévôts et pieuses actions servent à enrober de sucre le diable lui-même !" (C'est Macbeth qui l'a dit dans une tragédie)

    Aimez-vous l'Intelligence Artificielle telle qu'elle est présentée aux consommateurs ?

    Pour cette question je fais exprès d'employer le terme "Intelligence Artificielle" et non LLM car c'est, comme précédement indiqué par vous, c'est ainsi qu'elle est vendue aux consommateurs et aux individus qui se contentent de la consommer à des fins personnelles.

    Selon vous, comment seraient les foyers des particuliers si l'Intelligence Artificielle venait à simplement disparaître comme elle est arrivée, si tant-est que cela soit seulement possible/probable ?


    Aussi, les étudiants risquent de les utiliser pour faire leur devoir, du coup, est-ce que les étudiants vont être aptes à faire le travail lorsqu'ils seront employés, je ne sais pas. J'ai lu ici, qu'à force de se reposer sur les LLM pour nos réflexions et tâches, il pourrait que l'on soit de moins en moins aptes à réfléchir/trouver des solutions et j'en passe. On pourrait comparer cette réflexion au manque de savoir faire des calculs mentaux depuis que l'on a des calculatrices, ou de se retrouver avec ou sans carte, depuis que l'on a des GPS.
    Le fameux quid de l'impact des assistants artificiels sur notre aptitude à nous débrouiller !
    Cette question est plutôt passionnante d'autant plus qu'elle touche particulièrement au transhumanisme qui est un sujet que j'adore.

    Je trouve fascinant de voir tout ce que nous sommes capables de créer.
    Dans un certain sens l'humain est un miracle d'évolution et de thermodynamique à lui seul et on pourrait considérer cela comme suffisant, et dans un autre sens il est tout à fait passionnant de voir que nous sommes capables d'envoyer des satellites et des humains sur des astres lointains, que nous avons réussi à encoder et transporter l'information sur toutes sortes de fréquences d'ondes pour les décoder ensuite.
    Je vois la technologie comme le "super pouvoir" que la nature n'a pas voulu nous donner à la base, comme le téléphone et les messageries instantanées qui sont l'équivalent de la télépathie, par exemple.

    Vous avez 18 mois avant de devenir complètement cons
    "Grok, eske que ses vraient ?"

    Dans un tout autre registre je me suis souvent demandé pourquoi beaucoup de gens manquent d'esprit critique et pourquoi ils ne se posent pas plus de question que cela à propos des choses qui les entourent.
    Essayer de comprendre réellement le fonctionnement du monde et des choses grandes et petites est une activité qui me procure du plaisir et de la satisfaction, mais cela n'est apparemment pas le cas de tous.

    Peut-être que les LLM permettent aux gens de répondre à leur interrogations sans pour autant qu'ils aient été éduqués à l'esprit critique, à la méthode scientifiques, à la logique et etc...

    Je ne saurais dire si, dans l'ensemble, cela est positif pour notre civilisation dans le sens où l'on a encore plus accès à une quantité incroyable d'informations et de connaissances (mais aussi de conneries !) au bout de nos doigts, encore plus rapide que Google et sans devoir apprendre à taper des mots clefs efficaces (vous me direz qu'il faut faire de bons prompts mais d'après mon avis limité je dirais que cela se résume à savoir parler et écrire correctement), ou si cela est plutôt une forme de régression.
    Ce qui peut paraître grave c'est de se poser des questions telles que "est-ce que le savoir-faire et la connaissance est en train de disparaître pour de bon ?", "quand le dernier mec qui sait faire du COBOL disparaîtra, que deviendra le système bancaire ?" ou encore "sommes-nous en train de détruire la bibliothèque d'Alexandrie à nouveau ?".

    Il existera probablement toujours des individus curieux qui utiliseront les outils à leur disposition pour faire des choses qui ont de l'intérêt et du sens, des gens qui veulent s'approprier la connaissance et le savoir, et d'autres individus qui préfèrent profiter de l'existence telle qu'elle est sans trop se poser de questions, quitte à tirer le niveau vers le bas.

  6. #6
    Responsable 2D/3D/Jeux


    Avatar de LittleWhite
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Mai 2008
    Messages
    27 173
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Ingénieur développement logiciels

    Informations forums :
    Inscription : Mai 2008
    Messages : 27 173
    Billets dans le blog
    155
    Par défaut
    Citation Envoyé par Andaroth Voir le message
    À ce propos je n'ai jamais trouvé que les dernières tendances telles que les LLM, la blockchain, etc... étaient indispensables à notre civilisation, mais en tout cas il est certain que cela nous impact tous et nous influence sans aucun doute.
    Indispensable, surement pas, car on vivait sans avant... (de même pour l'électricité, non ?) mais cela ne veut pas dire que c'est inutile .

    Citation Envoyé par Andaroth Voir le message
    Pour parler de la bulle, je pense comprendre que beaucoup d'acteurs dans le secteur IA sont en fait un cercle fermé se font des tour de passe-passe pour "faire semblant" que tout va bien et aussi se promettre des ressources financières et également énergétiques pour leurs infrastructures... (c'est marrant comme cela me fait penser à un certain jeu-vidéo de colonisation spatiale où l'on consomme des crédits énergétiques)
    N'hésitez pas à citer le nom du jeu, je ne vois pas auquel vous pensez.
    Disons que c'est un pari de financier, j'imagine. Si vous montrez qu'il y a des investissements et que c'est le future/la révolution, alors ces investissements vont entraîner d'autres investissements car les autres vont vouloir leur part du gâteau . Ceux qui vont gagner (et qui gagne déjà beaucoup), ce sont les premiers et les déjà gros, bref, du OpenAI, du Oracle, du NVIDIA .

    Citation Envoyé par Andaroth Voir le message
    En revanche j'ai assez bien fréquenté les cercles de la blockchain et des NFT pour affirmer que c'était beaucoup d'argent qui circulait dans un cycle plutôt fermé, mais en tant que développeur d'applications je n'étais pas directement concerné et impacté par les fluctuations au sein de cette bulle.
    Cela dépend où votre pension retraite avec taux d'intérêt est placée. La crise de 2008 n'aurait pas du nous impacter, mais quand le gouvernement dit : bon, il faut sauver la banque qui est dans la mouise car elle a joué avec l'argent des gens... bah, ça commence à impacter.Lorsque l'on vous parle de crise économique, cela vous impacte dans le quotidien.

    Citation Envoyé par Andaroth Voir le message
    Les grandes sociétés multi-nationales se sont montrées très rétissantes face à la blockchain (qui pourtant est une technologie particulièrement intéressant sur le plan technique) mais se sont jetés sur le machine learning comme la misère sur le pauvre monde.
    Je ne trouve pas cela comparable. Oui, la blockchain est intéressante techniquement. Par contre, il n'y a pas vraiment moyen de la rentabiliser (au pire, c'est juste un produit que vous pouvez ajouter à votre catalogue, mais tout le monde peut faire de même). Le bitcoin (ou autre coin) c'est juste un investissement avec un gain incertain. C'est donc aux investisseurs de gérer cela.
    Par contre, l'IA, c'est un produit, produit potentiellement difficile à mettre en place (beaucoup de CPU, beaucoup de données en entrée). Et on voit qui gagne en sortie .

    Citation Envoyé par Andaroth Voir le message
    Aimez-vous l'Intelligence Artificielle telle qu'elle est présentée aux consommateurs ?
    Non, car on n'explique ce que c'est (intérêt et limite) et on n'utilise même pas les bons termes. On vous fera même potentiellement croire que vous perdrez votre travail à cause de l'IA, alors qu'au final, c'est avant tout une excuse pour virer des gens.

    Citation Envoyé par Andaroth Voir le message
    Selon vous, comment seraient les foyers des particuliers si l'Intelligence Artificielle venait à simplement disparaître comme elle est arrivée, si tant-est que cela soit seulement possible/probable ?
    Dur à dire, je ne sais pas comment les gens l'utilisent. Il y aurait moins de dessins style Ghibli... moins de fake news (?), les gens seraient potentiellement triste de perdre un compagnon (certains l'utilise comme compagnon et plus si affinités...). Mais, après le choc, ils reviendraient à leur vie d'avant, non ?


    Citation Envoyé par Andaroth Voir le message
    Dans un tout autre registre je me suis souvent demandé pourquoi beaucoup de gens manquent d'esprit critique et pourquoi ils ne se posent pas plus de question que cela à propos des choses qui les entourent.
    Essayer de comprendre réellement le fonctionnement du monde et des choses grandes et petites est une activité qui me procure du plaisir et de la satisfaction, mais cela n'est apparemment pas le cas de tous.
    L'esprit critique, cela s'apprend, cela s'aiguise. Si on donne une récompense immédiate et sans effort alors c'est ce qui va être choisi par l'être humain. Comprendre les chose demande plus d'effort, donc c'est moins attrayant et la satisfaction arrive moins vite... C'est plus facile de scroller, ou de se reposer devant la télévision.
    N'oubliez pas, qu'avant les LLM, les gens ne cliquaient déjà plus sur les liens des résultats Google et ne vont presque jamais sur la deuxième page. Maintenant, on a même le résumé IA, avant les résultats :facepalm:.

    Citation Envoyé par Andaroth Voir le message
    Peut-être que les LLM permettent aux gens de répondre à leur interrogations sans pour autant qu'ils aient été éduqués à l'esprit critique, à la méthode scientifiques, à la logique et etc...
    Oui, le LLM pourrait aider (et aide certains), mais cela donne aussi des informations fausses ou déformées.

    Citation Envoyé par Andaroth Voir le message
    Il existera probablement toujours des individus curieux qui utiliseront les outils à leur disposition pour faire des choses qui ont de l'intérêt et du sens, des gens qui veulent s'approprier la connaissance et le savoir [...]
    Oui, toujours
    Vous souhaitez participer à la rubrique 2D/3D/Jeux ? Contactez-moi

    Ma page sur DVP
    Mon Portfolio

    Qui connaît l'erreur, connaît la solution.

Discussions similaires

  1. développement de site : propriété intellectuelle
    Par rahan15 dans le forum Droit
    Réponses: 15
    Dernier message: 04/06/2008, 13h39
  2. proprité class="MaClasse" et JavaScript
    Par Sheriff dans le forum Général JavaScript
    Réponses: 6
    Dernier message: 28/07/2006, 12h42
  3. [C#] proprités text d'une Combobox
    Par kooljy dans le forum Windows Forms
    Réponses: 3
    Dernier message: 29/06/2006, 10h24
  4. Réponses: 3
    Dernier message: 20/04/2006, 01h52

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo