IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

La Suisse lance Apertus, son propre modèle d’IA formé sur des données publiques


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 284
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 284
    Par défaut La Suisse lance Apertus, son propre modèle d’IA formé sur des données publiques
    La Suisse lance son propre modèle d’IA formé sur des données publiques : Apertus rejoint la famille de modèles d’IA du Français Mistral
    Dans l’arène dominée par les modèles américains et chinois

    La Suisse vient de lever le voile sur Apertus, son premier modèle de langage multilingue entièrement open source. Ce dernier rejoint la famille de modèles d’IA du Français Mistral dans une arène marquée par la domination américaine et chinoise de l'IA. Apertus se veut être une alternative axée sur la confidentialité et conçue pour la transparence et le respect de la réglementation européenne en la matière. C’est un tournant clé dans la course mondiale à l’intelligence artificielle étant donné que la Suisse rejoint le mouvement des pays qui œuvrent pour assurer leur souveraineté en matière d’infrastructure IA.

    Comment Apertus se positionne-t-il par rapport à l’existant ?

    Apertus et les modèles de la famille Mistral sont tous des grands modèles de langage open source, mais ils divergent considérablement dans leurs approches techniques, réglementaires et linguistiques. Apertus se distingue principalement par son ouverture complète, sa documentation transparente et sa forte concentration sur la confidentialité et la réglementation, tandis que ceux de Mistral sont connus connu pour leurs options de déploiement modulaires et leur conception axée sur les performances pour les contextes d'entreprise.

    Apertus offre une transparence totale : le processus de formation, les pondérations du modèle, l'architecture, les sources de données et les points de contrôle intermédiaires sont tous publics, permettant une reproductibilité complète et des audits indépendants de la conformité et de la qualité du modèle.

    Mistral fournit des pondérations de modèles et une documentation ouvertes, mais ne publie généralement pas tous les détails concernant le corpus de formation, la gestion des droits d'auteur ou la reproductibilité étape par étape ; Mistral se concentre sur la flexibilité des développeurs et les ensembles d'outils modulaires, et non sur une transparence réglementaire approfondie.

    Apertus a été conçu pour respecter la législation suisse sur la protection des données et la loi européenne sur l'IA, avec curation des données avec suppression des données personnelles et mécanismes de désinscription. Il s'agit du premier LLM à publier des résumés conformes des données de formation et de la politique de droits d'auteur, conformément aux nouvelles règles de l'UE. Spécifiquement filtré avant la formation, il respecte les obligations réglementaires et de confidentialité, réduisant ainsi les risques en n'incluant jamais de données problématiques.

    Mistral pour sa part fournit des canaux de déploiement ouverts (locaux, cloud, API) pour les industries à forte exigence de conformité, mais son approche de la confidentialité et du droit d'auteur est moins explicite ; il ne publie pas le même niveau de données ou de documentation réglementaire qu'Apertus et se concentre davantage sur l'utilité technique et les contrôles d'entreprise à faible latence.

    Apertus est entraîné sur 15 000 milliards de jetons dans plus de 1000 langues, dont 40 % des données sont dédiées à des langues autres que l'anglais, y compris des langues sous-représentées comme le suisse allemand et le romanche, démontrant ainsi une approche linguistique unique, tant au niveau mondial qu'européen.

    Mistral prend en charge les tâches multilingues de manière compétitive, avec d'excellentes performances dans les langues européennes et mondiales grâce à ses modèles polyvalents et spécifiques à chaque secteur. Cependant, la composition détaillée de ses données linguistiques n'est pas aussi ouverte ; l'accent est mis sur les cas d'utilisation pratiques plutôt que sur la préservation linguistique.

    Apertus est comparable au modèle Llama 3 2024 de Meta, d’après des rapports. Le modèle a été conçu pour respecter les lois de l'Union européenne sur le droit d'auteur et le code de bonnes pratiques volontaire en matière d'intelligence artificielle, que certaines entreprises d'IA basées aux USA ont déclaré avoir signé à contrecœur, affirmant que ces réglementations freineraient l'innovation et le déploiement de l'IA. Selon les développeurs, les données d'entraînement d'Apertus ont été restreintes aux sources publiques, tout en respectant les demandes de désactivation des robots d'exploration de l'IA sur certains sites web.


    Apertus croule sous les railleries des utilisateurs comme Bing (animé par ChatGPT) à ses débuts

    Lancé mardi matin, leur modèle de langage souverain Apertus a rapidement été testé par des internautes curieux de connaître ses capacités. Et le moins que l’on puisse dire, c’est que certains sont déçus, voire consternés par ce qu’ils ont sous les yeux. Le chatbot créé sur la base d’Apertus offre des résultats de qualité parfois discutable et commet de nombreuses erreurs.

    « Désolé ce LLM est une honte… nous avons besoin d’un peu plus de rigueur surtout de la part de notre EPF… Ce LLM est le pire jamais testé lors de son lancement… les hallucinations sont fréquentes et sa dernière mise à jour date de mars 2024 et surtout pour la transparence il ne donne aucune indication sur son raisonnement… De telles choses ne sont plus possibles aujourd’hui », écrit ainsi Xavier Comtesse, président du groupe de réflexion Manufacture Thinking.


    C’est le même tableau auquel l’on a eu droit suite à l’annonce de la disponibilité de nouvelles moutures de Bing et de Microsoft Edge animées par une mise à jour de ChatGPT. Les premiers retours d’expérience n’avaient pas été à la hauteur des attentes : Bing avait affiché 2,5 milliards de personnes en réponse à la question de savoir quelle est la population sur la planète Mars.

    Selon une étude, les modèles d'intelligence artificielle vont toujours halluciner et il va falloir s'en accommoder surtout qu’un autre rapport fait état de ce que cette propension de l’intelligence artificielle à produire du contenu erroné va aller croissant avec sa sophistication. Le phénomène d’hallucination réduit ainsi considérablement la valeur de l’intelligence artificielle générative en tant que technologie.

    Sources : Apertus, Linkedin

    Et vous ?

    Quelle appréciation faites-vous de la disponibilité de ce modèle d’intelligence artificielle dénommé Apertus ?
    Quel crédit accordez-vous à la filière intelligence artificielle compte tenu du phénomène des hallucinations ? Partagez-vous les avis selon lesquels l’IA c’est de la poudre de Perlimpinpin ?

    Voir aussi :

    OpenAI est perplexe parce que ses nouveaux modèles o3 et o4-mini affichent des taux d'hallucination nettement plus élevés que les modèles précédents, ce qui réduit la précision et la fiabilité de ces modèles

    Les outils d'IA de codage inventent des noms de paquets inexistants qui menacent la chaîne d'approvisionnement en logiciels : les attaquants publient des paquets malveillants avec ces noms sur npm ou PyPI

    Les LLM IA auront toujours des hallucinations, et nous devons nous en accommoder, car les hallucinations découlent de la structure mathématique et logique fondamentale des LLM, selon une étude
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 406
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 406
    Par défaut
    1. Apertus sera éternellement moins efficace qu'une IA des GAFAM. Pourquoi? Tout simplement parce que les capacités d'une IA sont proportionnelles à la quantité de données que l'IA a enregistré... En se la jouant "chevalier blanc" (on utilise que des données respectant le droit d'auteur, etc.), Opertus a déjà perdu la course face à des IA sans foi ni loi qui copient la totalité des données à leur disposition sur le web sans respecter le droit d'auteur, ni les lois des différents pays.

    2. Pour info le sieur Xavier Comtesse n'a pas la moindre compétence en IA... C'est avant tout un personnage médiatique qui aime faire parler de lui. Après des études scientifiques, il a passé son temps dans les dorures politiciennes suisses... Une fois évincé, il s'est reconverti en Monsieur "je sais tout de la science" en donnant son avis sur tout et n'importe quoi dans les médias suisses... Vu que l'IA est à la mode, il aurait été étonnant qu'il n'intervienne pas médiatiquement pour nous faire part de son avis dont tous le monde se fout à part lui... Il doit aimer relire ses interventions dans les média avec délectation.

  3. #3
    Membre confirmé
    Homme Profil pro
    Développeur en systèmes embarqués
    Inscrit en
    Mai 2015
    Messages
    461
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 54
    Localisation : Belgique

    Informations professionnelles :
    Activité : Développeur en systèmes embarqués

    Informations forums :
    Inscription : Mai 2015
    Messages : 461
    Par défaut Pas forcement...
    Anselme45

    Citation Envoyé par Anselme45 Voir le message
    1. Apertus sera éternellement moins efficace qu'une IA des GAFAM. Pourquoi? Tout simplement parce que les capacités d'une IA sont proportionnelles à la quantité de données que l'IA a enregistré... En se la jouant "chevalier blanc" (on utilise que des données respectant le droit d'auteur, etc.), Opertus a déjà perdu la course face à des IA sans foi ni loi qui copient la totalité des données à leur disposition sur le web sans respecter le droit d'auteur, ni les lois des différents pays.
    Je ne suis pas certains, je pense au contraire qu'une IA entrainée pour un objectif précis, avec moins de données, mais des données "validée", sera plus "juste" dans ces réponses qu'une IAG qui se base sur des données non validées. Tout ce qui a été "pompé" sur le Net n'est pas forcément "juste". Pour ce qui est des "droits d'auteurs", soit on s'y attaque avec fermeté, et les IAG qui font du plagiat sont interdites (mais je n'y crois pas trop), soit elles auront tellement de "mauvaises entrées" qu'elle continueront encore longtemps a "Halluciner". De plus, vu les milliards engloutis, je pense que les "investisseurs" vont à un moment ou à un autre vouloir leur ROI, et là, qui va payer quoi à qui, ça risque d'être un joyeux B....L

    Une fois la "hype" passée, il ne restera que des IA bien entrainées, avec des données validées, et qui donnent une réponses correcte. Mais il faudra pour cela pouvoir entrer le "bon prompt" (ce qui dépendras de la compétence des prompteurs), et avant de prendre la réponse pour "argent" comptant, cette réponse "devrait" (ce qui ne sera pas forcément le cas) être validée par une autre personne "compétente" dans le domaine, ce qui fait 2 personnes car comme dans dans tout on ne peux pas être juge et partie...

    Citation Envoyé par Anselme45 Voir le message
    2. Pour info le sieur Xavier Comtesse n'a pas la moindre compétence en IA... C'est avant tout un personnage médiatique qui aime faire parler de lui. Après des études scientifiques, il a passé son temps dans les dorures politiciennes suisses... Une fois évincé, il s'est reconverti en Monsieur "je sais tout de la science" en donnant son avis sur tout et n'importe quoi dans les médias suisses... Vu que l'IA est à la mode, il aurait été étonnant qu'il n'intervienne pas médiatiquement pour nous faire part de son avis dont tous le monde se fout à part lui... Il doit aimer relire ses interventions dans les média avec délectation.
    C'est Monsieur Chevalet Suisse

  4. #4
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 406
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 406
    Par défaut
    Une remarque: il y a "hallucination" et "hallucination" avec l'IA.

    Tu peux avoir des réponses fausses par manque d'apprentissage, ce ne sont pas de vraies "hallucinations". Dans ce cas, la validité ou non des données apprises va avoir une influence sur l'efficacité de l'IA.

    Les "hallucinations" des IA qui posent problème depuis le début de l'IA et qui n'a reçu aucune réponse des experts en IA quand au pourquoi de leur apparition, ni au comment pour les éviter sont des comportements erratiques de l'IA (elle va répondre correctement 9 fois et la dixième fois répondre n'importe quoi).

    Ces "vraies" hallucinations ne sont pas dues à la qualité des données enseignées mais au fonctionnement interne de l'IA et là réside tout le problème de l'utilisation professionnelle de l'IA: Avec une IA qui fait n'importe quoi de temps en temps, on ne peut pas lui confier le contrôle d'un avion ou même le diagnostic autonome d'une maladie grave...

    En l'état, l'IA ne peut donc pas répondre aux promesses de remplacer l'être humain dans ses tâches, l'IA ne peut qu'être tout au plus une aide à l'être humain à condition que l'IA n'empêche pas le développement de spécialistes aptes à détecter quand l'IA fait une connerie...

    Et là, l'IA pose un autre problème qui est déjà bien présent aujourd'hui: Les jeunes ne sont plus motivés à se former...Exemple: Pourquoi s'emmerder pendant des années à apprendre une langue étrangère alors que l'IA fait des traductions? Pourquoi faire de longue étude de médecine? Au final, il n'y aura plus personne apte à corriger les erreur des IA.

  5. #5
    Membre éprouvé
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 362
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 362
    Billets dans le blog
    3
    Par défaut
    Je n'ai pas encore testé le modèle, j'attends qu'il soit dispo en GGUF et utilisable sous LM Studio. Par contre, tout est mauvais dans cette critique :
    Citation Envoyé par Patrick Ruiz Voir le message
    « Désolé ce LLM est une honte… nous avons besoin d’un peu plus de rigueur surtout de la part de notre EPF… Ce LLM est le pire jamais testé lors de son lancement… les hallucinations sont fréquentes et sa dernière mise à jour date de mars 2024 et surtout pour la transparence il ne donne aucune indication sur son raisonnement… De telles choses ne sont plus possibles aujourd’hui », écrit ainsi Xavier Comtesse, président du groupe de réflexion Manufacture Thinking.
    Comme le rappelle l'article, les hallucinations sont normales et intrinsèques aux LLM. La qualité du modèle réside dans sa capacité à générer du texte plausible, pas correct. Attendre de lui qu'il génère des réponses correctes implique soit :
    • qu'il apprenne à raisonner sur la base des données utilisées pendant l'entraînement, sauf que ce n'est pas comme ça qu'un LLM se construit, il travaille au niveau de la forme, pas du fond
    • qu'il apprenne à reproduire du texte correcte qu'il a appris, ce qui implique (1) que le filtrage des données d'entraînement s'assure que seules des données correctes sont utilisées, ce qui n'est pas dans le cahier des charges (et revient à demander aux concepteurs de se tirer une balle), et (2) que le modèle soit sur-entraîné pour coller à ce qu'il a appris, alors que c'est justement ce qu'on veut éviter avec les réseaux de neurones, pour qu'il généralisent à des sujets qui ne font pas partie des données d'entraînement.


    Ensuite, qu'il ne donne aucune indication sur son raisonnement, il parle très certainement du CoT (chain of thought), sauf que nul besoin de l'intégrer au modèle (et tous les modèles ne l'intègrent pas, comme il semble le croire). Il suffit d'intégrer à la requête la demande de dérouler le raisonnement pas à pas. Les modèles qui le font d'office ont été entraînés pour le faire d'office, mais ceux qui ne le sont pas sont tout autant capables de le faire dès lors qu'on le leur demande.

    Enfin, le modèle vient de sortir, donc à voir comment il va évoluer.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

Discussions similaires

  1. Réponses: 5
    Dernier message: 24/10/2020, 23h16
  2. Autodesk lance son propre moteur de jeux, Stingray
    Par dourouc05 dans le forum Moteurs de jeux vidéo
    Réponses: 0
    Dernier message: 03/08/2015, 22h27
  3. [AC-2007] Créer son propre ClipBoard (Copier,Coller) pour des champs déterminé
    Par robyseb dans le forum Contribuez
    Réponses: 0
    Dernier message: 02/11/2011, 04h05
  4. Réponses: 0
    Dernier message: 14/10/2010, 00h33

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo