IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Google DeepMind lance Gemma 4, son modèle ouvert le plus intelligent à ce jour


Sujet :

Intelligence artificielle

  1. #1
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 827
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 827
    Par défaut Google DeepMind lance Gemma 4, son modèle ouvert le plus intelligent à ce jour
    Google DeepMind lance Gemma 4, qu'il présente comme son modèle ouvert le plus intelligent à ce jour, axé sur le raisonnement avancé, destiné aux développeurs, aux centres de données et aux smartphones

    Google vient de lancer Gemma 4, la version la plus récente et la plus performante de sa famille de modèles d'IA open source. Google lance Gemma 4 en quatre tailles, conçues pour couvrir tous les besoins, des appareils mobiles aux machines de développement haut de gamme. Le PDG de Google, Sundar Pichai, a déclaré que ces modèles renfermaient « une quantité incroyable d’intelligence par paramètre », tandis que le directeur général de Google DeepMind a qualifié Gemma 4 de « meilleurs modèles ouverts au monde pour leurs tailles respectives ». L'un des principaux atouts de Gemma 4 réside peut-être dans la façon dont Google a réussi à le rendre si compact tout en conservant sa puissance.

    Gemma est une série de grands modèles de langage open source développés par Google DeepMind. Elle repose sur des technologies similaires à celles de Gemini. La première version a été publiée en février 2024, suivie de Gemma 2 en juin 2024, de Gemma 3 en mars 2025 et de Gemma 4 en avril 2026. Des variantes de Gemma ont également été développées, telles que le modèle vision-langage PaliGemma et le modèle MedGemma dédié aux consultations médicales.

    Google vient de lancer Gemma 4, la version la plus récente et la plus performante de sa famille de modèles d'IA open source. L'entreprise affirme que ces derniers modèles marquent une avancée significative pour rendre l'intelligence artificielle (IA) de pointe accessible aux développeurs partout dans le monde : des puissantes stations de travail des centres de données au smartphone que vous avez dans votre poche. Google affirme que depuis la sortie de la première génération de Gemma, les développeurs l'ont téléchargée plus de 400 millions de fois, donnant naissance à un écosystème communautaire de plus de 100 000 variantes de modèles construites sur la base de Google.

    Le PDG de Google, Sundar Pichai, a déclaré que ces modèles renfermaient « une quantité incroyable d’intelligence par paramètre », tandis que le directeur général de Google DeepMind a qualifié Gemma 4 de « meilleurs modèles ouverts au monde pour leurs tailles respectives ». « Gemma 4 est arrivé, et il renferme une quantité incroyable d’intelligence par paramètre », a déclaré Pichai, tout en partageant un message de Hassabis, qui a déclaré : « Je suis ravi de lancer Gemma 4 : les meilleurs modèles ouverts au monde pour leurs tailles respectives. Disponibles en 4 tailles pouvant être ajustées à votre tâche spécifique : 31B dense pour d’excellentes performances brutes, 26B MoE pour une faible latence, et 2B & 4B efficaces pour une utilisation sur des appareils périphériques – bonne création ! »


    Quatre modèles Gemma 4, un seul objectif

    Google lance Gemma 4 en quatre tailles, conçues pour couvrir tous les besoins, des appareils mobiles aux machines de développement haut de gamme :

    - E2B (2 milliards de paramètres effectifs) — Conçu pour les téléphones et les appareils IoT
    - E4B (4 milliards de paramètres effectifs) — Également optimisé pour une utilisation en périphérie et sur mobile
    - 26B Mixture of Experts (MoE) — Une puissance de milieu de gamme
    - 31B Dense — Le modèle phare, actuellement classé n° 3 parmi tous les modèles d'IA ouverts au monde sur le classement Arena AI, référence du secteur. Ce dernier chiffre est particulièrement frappant. Le modèle 31B aurait surpassé des concurrents 20 fois plus volumineux.

    Selon Google, Gemma 4 va bien au-delà du simple chat de questions-réponses. Ses principales capacités incluent :

    - Raisonnement avancé : le modèle peut gérer une planification en plusieurs étapes et une logique complexe, avec des améliorations dans les tâches mathématiques et de suivi d'instructions.
    - Workflows agentiques : Gemma 4 prend en charge nativement l'appel de fonctions, la sortie de données structurées et les instructions système, permettant aux développeurs de créer des agents IA capables d'interagir de manière autonome avec des outils, des API et des services externes.
    - Génération de code : les développeurs peuvent exécuter Gemma 4 entièrement hors ligne sur une machine locale, transformant ainsi un poste de travail standard en assistant de codage IA privé.
    - Vision et audio : les quatre modèles peuvent traiter nativement les images et les vidéos. Les deux modèles « edge » les plus petits prennent également en charge l’entrée audio pour la reconnaissance vocale.
    - Fenêtres de contexte longues : les modèles edge peuvent traiter jusqu'à 128 000 tokens en une seule invite, tandis que les modèles plus volumineux peuvent aller jusqu'à 256 000 tokens.
    - Plus de 140 langues : enfin, Gemma 4 a été formé en natif sur plus de 140 langues, ce qui en fait l'un des modèles ouverts les plus inclusifs au monde.

    L'un des principaux atouts de Gemma 4 réside peut-être dans la façon dont Google a réussi à le rendre si compact tout en conservant sa puissance. Ces modèles ont été entièrement conçus en étroite collaboration avec l'équipe Pixel de Google, Qualcomm Technologies et MediaTek — les entreprises à l'origine des puces qui équipent des milliards d'appareils Android à travers le monde. Le résultat est un modèle qui fonctionne entièrement hors ligne, avec une latence quasi nulle, sur des appareils courants tels que les téléphones, les cartes Raspberry Pi et le matériel Nvidia Jetson.

    Google décrit Gemma 4 comme étant le fruit de la même recherche et de la même technologie de classe mondiale qui alimentent Gemini 3, son modèle propriétaire phare. Gemma 4 est désormais disponible sous licence Apache 2.0, ce qui signifie que les développeurs peuvent l'utiliser, le modifier et s'en servir librement comme base.

    Voici un extrait de l'annonce de Gemma 4:

    Présentation de Gemma 4 : les modèles ouverts les plus performants

    Aujourd'hui, nous vous présentons Gemma 4, notre modèle ouvert le plus intelligent à ce jour. Spécialement conçu pour le raisonnement avancé et les flux de travail autonomes, Gemma 4 offre un niveau d'intelligence par paramètre sans précédent. Cette avancée s'appuie sur l'incroyable élan de la communauté : depuis le lancement de notre première génération, les développeurs ont téléchargé Gemma plus de 400 millions de fois, créant ainsi un Gemmaverse dynamique comptant plus de 100 000 variantes. Nous avons écouté attentivement ce dont les innovateurs ont besoin pour repousser les limites de l'IA, et Gemma 4 est notre réponse : des capacités révolutionnaires rendues largement accessibles sous licence Apache 2.0.

    Nom : 1.jpg
Affichages : 5548
Taille : 31,2 Ko

    Conçue à partir des mêmes recherches et technologies de classe mondiale que Gemini 3, Gemma 4 est la famille de modèles la plus performante que vous puissiez exécuter sur votre matériel. Elle complète nos modèles Gemini, offrant aux développeurs la combinaison la plus puissante du secteur, alliant outils ouverts et propriétaires.

    Des capacités de pointe et une IA axée sur le mobile

    Nous lançons Gemma 4 en quatre tailles polyvalentes : Effective 2B (E2B), Effective 4B (E4B), 26B Mixture of Experts (MoE) et 31B Dense. L'ensemble de la famille va au-delà du simple chat pour gérer une logique complexe et des workflows agentiques. Nos modèles les plus volumineux offrent des performances de pointe pour leur taille : le modèle 31B occupe actuellement la 3e place mondiale des modèles ouverts dans le classement Arena AI Text, référence du secteur, tandis que le modèle 26B se classe en 6e position. Gemma 4 y surpasse des modèles 20 fois plus volumineux. Pour les développeurs, ce nouveau niveau d'intelligence par paramètre permet d'atteindre des capacités de pointe avec une charge matérielle nettement réduite.

    En périphérie, nos modèles E2B et E4B redéfinissent l'utilité sur appareil, en privilégiant les capacités multimodales, le traitement à faible latence et l'intégration transparente dans l'écosystème plutôt que le nombre brut de paramètres.

    Des modèles polyvalents pour divers matériels

    Nous publions les poids du modèle Gemma 4 dans des tailles adaptées à des matériels et des cas d'utilisation spécifiques, vous garantissant ainsi un raisonnement de pointe partout où vous en avez besoin :

    - Modèles 26B et 31B : une intelligence de pointe, hors ligne sur vos ordinateurs personnels

    Optimisés pour fournir aux chercheurs et aux développeurs un raisonnement de pointe sur du matériel accessible, nos poids bfloat16 non quantifiés s'adaptent efficacement à un seul GPU NVIDIA H100 de 80 Go. Pour les configurations locales, les versions quantifiées s'exécutent en mode natif sur des GPU grand public afin d'alimenter vos IDE, vos assistants de codage et vos workflows agentiques. Notre modèle Mixture of Experts (MoE) de 26 milliards de paramètres se concentre sur la latence, n'activant que 3,8 milliards de ses paramètres totaux lors de l'inférence pour offrir un débit de tokens par seconde exceptionnellement rapide, tandis que notre modèle Dense de 31 milliards de paramètres maximise la qualité brute et fournit une base puissante pour le réglage fin.

    Nom : 2.jpg
Affichages : 584
Taille : 53,8 Ko

    - Modèles E2B et E4B : un nouveau niveau d'intelligence pour les appareils mobiles et IoT

    Conçus dès le départ pour optimiser l'efficacité du calcul et de la mémoire, ces modèles utilisent respectivement 2 milliards et 4 milliards de paramètres lors de l'inférence afin de préserver la mémoire vive et l'autonomie de la batterie. En étroite collaboration avec notre équipe Google Pixel et des leaders du matériel mobile tels que Qualcomm Technologies et MediaTek, ces modèles multimodaux fonctionnent entièrement hors ligne avec une latence quasi nulle sur des appareils périphériques tels que les téléphones, le Raspberry Pi et le NVIDIA Jetson Orin Nano. Les développeurs Android peuvent dès aujourd’hui créer des prototypes de flux agentiques dans l’AICore Developer Preview pour assurer la compatibilité ascendante avec Gemini Nano 4.


    Voici l'annonce de Gemma 4 dans la version AICore Developer Preview :

    Présentation de Gemma 4 dans la version AICore Developer Preview

    Chez Google, nous nous engageons à intégrer les modèles d'IA les plus performants directement dans les appareils Android que vous avez dans votre poche. Aujourd'hui, nous sommes ravis d'annoncer la sortie de notre tout dernier modèle ouvert à la pointe de la technologie : Gemma 4.

    Ces modèles constituent la base de la prochaine génération de Gemini Nano. Ainsi, le code que vous écrivez aujourd’hui pour Gemma 4 fonctionnera automatiquement sur les appareils compatibles avec Gemini Nano 4 qui seront disponibles plus tard cette année. Avec Gemini Nano 4, vous bénéficierez de nos optimisations de performances supplémentaires, ce qui vous permettra de déployer en production dans tout l’écosystème Android avec l’inférence sur appareil la plus efficace qui soit.

    Vous pouvez accéder en avant-première à ce modèle dès aujourd’hui via l’AICore Developer Preview.

    Nom : Inline-imagery.gif
Affichages : 588
Taille : 1,87 Mo

    Comme Gemma 4 prend en charge nativement plus de 140 langues, vous pouvez vous attendre à des expériences localisées et multilingues améliorées pour votre audience mondiale. De plus, Gemma 4 offre des performances de pointe avec une compréhension multimodale, permettant à vos applications de comprendre et de traiter du texte, des images et de l'audio. Pour vous offrir le meilleur équilibre entre performances et efficacité, Gemma 4 sur Android est disponible en deux versions :

    - E4B : Conçu pour une plus grande capacité de raisonnement et des tâches complexes.

    - E2B : Optimisé pour une vitesse maximale (3 fois plus rapide que le modèle E4B !) et une latence réduite.

    Le nouveau modèle est jusqu’à 4 fois plus rapide que les versions précédentes et consomme jusqu’à 60 % de batterie en moins. Dès aujourd’hui, vous pouvez tester des fonctionnalités améliorées, notamment :

    - Raisonnement : les commandes en chaîne de pensée et les instructions conditionnelles devraient désormais fournir des résultats de meilleure qualité. Par exemple : « Déterminez si le commentaire suivant, issu d’un fil de discussion, respecte les directives de la communauté. Le commentaire ne respecte pas les directives de la communauté s’il contient un ou plusieurs des éléments suivants : raison_pour_signaler : grossièreté, langage désobligeant, discours de haine ». Si l’examen montre que le commentaire respecte les directives de la communauté, renvoyez {true}. Sinon, renvoyez {false, raison_pour_signaler}. »

    - Mathématiques : Grâce à de meilleures compétences mathématiques, le modèle peut désormais répondre plus précisément aux questions. Par exemple : « Si je reçois 26 paies par an, combien dois-je mettre de côté à chaque paie pour atteindre mon objectif d’épargne de 10 000 $ sur une année ? »

    - Compréhension du temps : le modèle est désormais plus performant dans le raisonnement temporel, ce qui le rend plus précis pour les cas d’utilisation impliquant des calendriers, des rappels et des alarmes. Par exemple : « L’événement a lieu à 18 h le 18 août, et un rappel doit être envoyé 10 heures avant l’événement. Renvoie l’heure et la date auxquelles le rappel doit être envoyé. »

    - Compréhension des images : les cas d'utilisation impliquant la reconnaissance optique de caractères (OCR), tels que la compréhension de graphiques, l'extraction de données visuelles et la reconnaissance de l'écriture manuscrite, renverront désormais des résultats plus précis.
    Rejoignez dès aujourd'hui le programme Developer Preview pour télécharger ces modèles en avant-première et commencer immédiatement à développer des fonctionnalités de nouvelle génération.


    À quoi s'attendre pendant la Developer Preview

    L'objectif de cette Developer Preview est de vous donner une longueur d'avance pour affiner la précision des invites et explorer de nouveaux cas d'utilisation pour vos applications spécifiques.

    Nous effectuerons plusieurs mises à jour tout au long de la période de prévisualisation, notamment la prise en charge de l'appel d'outils, des sorties structurées, des invites système et du mode de réflexion dans l'API Prompt, ce qui facilitera l'exploitation optimale des nouvelles fonctionnalités et des optimisations de performances significatives de Gemma 4.

    Les modèles de la préversion sont disponibles pour être testés sur les appareils compatibles AICore. Ces modèles fonctionneront sur la dernière génération d'accélérateurs IA spécialisés de Google, MediaTek et Qualcomm Technologies. Sur les autres appareils, les modèles fonctionneront dans un premier temps sur une implémentation CPU qui n'est pas représentative des performances finales en production. Si votre appareil n'est pas compatible AICore, vous pouvez également tester ces modèles via l'application AI Edge Gallery. Nous prendrons en charge davantage d'appareils à l'avenir.

    Sources : Annonce de Gemma 4, Présentation de Gemma 4 dans la version AICore Developer Preview

    Et vous ?

    Pensez-vous que cette annonce est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Google a annoncé la sortie complète de Gemma 3n, la dernière version de son modèle d'IA ouvert capable de fonctionner sur un seul GPU, "Gemma 3n représente une avancée majeure pour l'IA sur appareil"

    OpenAI lance GPT-OSS, son premier modèle d'IA open source, téléchargeable sous licence Apache 2.0 et compatible avec des plateformes telles que GitHub, Hugging Face et LM Studio

    Apple aurait développé une technique qui permet d'exécuter les modèles d'IA localement sur l'iPhone plutôt que sur le cloud, selon une étude
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Communiqués de presse

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Avril 2025
    Messages
    633
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Avril 2025
    Messages : 633
    Par défaut L'application Google AI Edge vous permet d'utiliser l'IA Gemma 4 en local sur des appareils iPhone et Android
    L'application Google AI Edge vous permet d'utiliser l'IA Gemma 4 en local sur des appareils iPhone et Android sans connexion Internet, et propose des outils d'IA tels que le chat et l'analyse d'images

    Google a lancé Gemma 4, la version la plus récente et la plus performante de sa famille de modèles d'IA open source. L'un des principaux atouts de Gemma 4 réside peut-être dans la façon dont Google a réussi à le rendre si compact tout en conservant sa puissance. Parallèlement, Google a également mis à jour son application AI Edge Gallery, qui intègre le modèle de langage Gemma 4 et permet aux utilisateurs de l'exécuter localement sur leurs smartphones Android et iOS. L'application permet un traitement sur l'appareil, ce qui signifie que les utilisateurs peuvent accéder aux fonctionnalités d'IA sans avoir besoin d'une connexion Internet active.

    Début avril, Google a lancé Gemma 4, la version la plus récente et la plus performante de sa famille de modèles d'IA open source. L'entreprise affirme que ces derniers modèles marquent une avancée significative pour rendre l'intelligence artificielle (IA) de pointe accessible aux développeurs partout dans le monde : des puissantes stations de travail des centres de données au smartphone que vous avez dans votre poche.

    Google lance Gemma 4 en quatre tailles, conçues pour couvrir tous les besoins, des appareils mobiles aux machines de développement haut de gamme : E2B (2 milliards de paramètres effectifs) — conçu pour les téléphones et les appareils IoT, E4B (4 milliards de paramètres effectifs) — Également optimisé pour une utilisation en périphérie et sur mobile, 26B Mixture of Experts (MoE) — Une puissance de milieu de gamme, et 31B Dense - le modèle phare. L'un des principaux atouts de Gemma 4 réside peut-être dans la façon dont Google a réussi à le rendre si compact tout en conservant sa puissance.

    Parallèlement, Google a également mis à jour son application AI Edge Gallery, qui intègre le modèle de langage Gemma 4 et permet aux utilisateurs de l'exécuter localement sur leurs smartphones Android et iOS. L'application permet un traitement sur l'appareil, ce qui signifie que les utilisateurs peuvent accéder aux fonctionnalités d'IA sans avoir besoin d'une connexion Internet active. L'application Google AI Edge offre ainsi des outils de chat IA, d'analyse d'images, de transcription et d'automatisation grâce au traitement sur l'appareil.


    Google AI Edge Gallery se distingue des applications de chatbot IA classiques en exécutant les modèles d'IA directement sur l'appareil plutôt que de s'appuyer sur des serveurs cloud. Ce traitement sur l'appareil permet aux utilisateurs d'accéder à des fonctionnalités telles que le chat, l'analyse d'images et la transcription sans connexion Internet ni dépendance au cloud. Cela renforce également la confidentialité, car les données restent sur l'appareil plutôt que d'être envoyées vers des serveurs externes.

    Contrairement aux chatbots traditionnels qui dépendent d'une connectivité constante et des temps de réponse des serveurs, AI Edge offre des performances plus rapides et des fonctionnalités hors ligne. De plus, il prend en charge plusieurs modèles d'IA tels que Gemma 4, offrant ainsi aux utilisateurs plus de flexibilité dans leur interaction avec les outils d'IA. Les modèles Gemma 4 traitent les entrées de texte, d'image et audio. Le modèle E2B utilise 2 milliards de paramètres, tandis que le modèle E4B en utilise 4 milliards. Les deux modèles sont conçus pour fonctionner hors ligne, en mettant l'accent sur la confidentialité et le traitement local.

    Nom : 1.jpg
Affichages : 6429
Taille : 61,2 Ko

    L'application comprend plusieurs outils intégrés qui permettent aux utilisateurs d'interagir avec l'IA de différentes manières :

    - Chat IA : Les utilisateurs peuvent saisir des requêtes et recevoir des réponses. Un mode « Réflexion » affiche le raisonnement étape par étape.
    - Ask Image : Téléchargez ou capturez des images pour extraire du texte, identifier des objets ou générer des descriptions.
    - Audio Scribe : Convertissez la parole en texte et traduisez-la dans d'autres langues.
    - Agent Skills : Connectez le modèle d'IA à des sources externes telles que Wikipédia ou des cartes à l'aide d'URL.
    - Prompt Lab : Testez des invites et ajustez des paramètres tels que la température pour obtenir des résultats contrôlés.
    - Tiny Garden : Interagissez avec un environnement de simulation à l'aide de commandes textuelles.
    - Mobile Actions : Contrôlez les fonctions de l'appareil et automatisez certaines tâches grâce à l'IA.


    Le lancement de Gemma 4 et de l'application AI Edge Gallery rappelle le lancement très apprécié de Gemini 3 de Google, une mise à jour qui, selon de nombreux acteurs du monde technologique, a permis à l'entreprise de dépasser le GPT-5 d'OpenAI. À la suite de cette annonce, Geoffrey Hinton, le « parrain de l'IA », avait estimé que Google est en train de rattraper OpenAI dans la course à l'intelligence artificielle (IA). Hinton a déclaré : « Je pense qu'il est en fait plus surprenant que Google ait mis autant de temps à dépasser OpenAI. Je pense qu'à l'heure actuelle, ils commencent à le dépasser ».

    Source : Application Google AI Edge Gallery

    Et vous ?

    Pensez-vous que cette application est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Trois ans après avoir été pris au dépourvu par ChatGPT, Gemini est-il en train de gagner ? Des benchmarks et des chercheurs suggèrent que Gemini a ce qu'il faut pour détrôner OpenAI et tous ses concurrents

    Rapport technique Microsoft Phi-3 : un modèle de langage très performant en local sur votre téléphone, qui rivalise avec Llama 3, Mixtral et GPT-3.5, et assez petit pour être déployé sur un téléphone

    Apple aurait développé une technique qui permet d'exécuter les modèles d'IA localement sur l'iPhone plutôt que sur le cloud, selon une étude
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 0
    Dernier message: 02/02/2026, 09h15
  2. Réponses: 0
    Dernier message: 23/09/2025, 11h48
  3. Réponses: 0
    Dernier message: 18/07/2025, 17h29
  4. Réponses: 0
    Dernier message: 13/03/2025, 10h57
  5. Réponses: 0
    Dernier message: 11/09/2015, 01h12

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo