IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Google DeepMind a lancé Gemini 2.5 Pro, affirmant qu'il est le meilleur en raisonnement et en codage


Sujet :

Intelligence artificielle

  1. #1
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 340
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 340
    Par défaut Google DeepMind a lancé Gemini 2.5 Pro, affirmant qu'il est le meilleur en raisonnement et en codage
    Google DeepMind a lancé Gemini 2.5 Pro, un modèle d'IA qui raisonne avant de répondre, affirmant qu'il est le meilleur sur plusieurs critères de référence en matière de raisonnement et de codage

    Google DeepMind a lancé Gemini 2.5 Pro, citant des avancées majeures dans les capacités de raisonnement et de codage. Gemini 2.5 est un modèle de raisonnement conçu pour résoudre des problèmes de plus en plus complexes. Google affirme que son premier modèle 2.5, Gemini 2.5 Pro Experimental, est le meilleur dans les critères de référence courants par des marges significatives.

    Google DeepMind ou DeepMind est un laboratoire de recherche en intelligence artificielle (IA) américano-britannique qui sert de filiale à Alphabet. Fondé au Royaume-Uni en 2010, il a été acquis par Google en 2014 et a fusionné avec la division Google Brain de Google AI pour devenir Google DeepMind en avril 2023. DeepMind a développé Gemini qui est le produit d'IA phare de Google.

    Le 25 mars 2025, Google DeepMind a lancé Gemini 2.5 Pro, son dernier modèle d'IA, qui aurait surpassé ses concurrents dans plusieurs tests de mathématiques, de sciences et de raisonnement, y compris en obtenant le meilleur score sur le tableau de classement LMArena. Affirmant qu'il établit des normes industrielles en matière de raisonnement et de codage, Google DeepMind a présenté Gemini 2.5 Pro étant un nouveau modèle d'IA destiné à la résolution de problèmes complexes.

    Google qualifie ce modèle de "plus intelligent" à ce jour. Gemini 2.5 Pro a obtenu les meilleures notes dans les tests de mathématiques et de sciences tels que les ensembles de données Graduate-Level Physics Question Answering (GPQA) et American Invitational Mathematics Examination (AIME) 2025. Google DeepMind affirme que Gemini 2.5 Pro a obtenu un score de 18,8 % au "dernier examen de l'humanité", un test de référence créé par des experts en la matière pour évaluer la capacité de raisonnement de haut niveau des modèles d'IA sans outils externes.

    Selon l'entreprise, Gemini 2.5 Pro a surpassé son prédécesseur en termes de performances de codage. En utilisant une configuration d'agent personnalisée, il a atteint 63,8 % sur SWE-Bench Verified, un test de création et de modification de code piloté par l'IA. Selon Google, le modèle peut transformer des requêtes en applications web complètes et opérationnelles, ainsi qu'en code de jeu vidéo entièrement exécutable.

    Avec une fenêtre contextuelle d'un million de jetons, le modèle peut traiter des quantités de données textuelles, audio, photographiques, vidéo et même des référentiels de code entiers. Google prévoit une future mise à jour avec une fenêtre contextuelle de 2 millions de jetons. S'appuyant sur l'approche précédente du "modèle de pensée" de l'entreprise, Gemini 2.5 utilise l'incitation à la chaîne de pensée et l'apprentissage par renforcement pour améliorer la capacité de prise de décision. Google a déclaré que le modèle 2.5 Pro combine ces techniques avec un nouveau modèle de base et un post-entraînement amélioré.

    Publié en tant que version expérimentale, Gemini 2.5 Pro est accessible via Google AI Studio et l'application Gemini pour les utilisateurs de Gemini Advanced. L'entreprise a déclaré qu'elle divulguerait prochainement les prix pour une utilisation accrue et rendrait disponible l'accès à Vertex AI de Google Cloud. Les développeurs et les utilisateurs professionnels peuvent donc désormais expérimenter Gemini 2.5 Pro.


    Voici la présentation de Gemini 2.5 Pro par Google :

    Nous présentons aujourd'hui Gemini 2.5, notre modèle d'IA le plus intelligent. Notre première version 2.5 est une version expérimentale de 2.5 Pro, qui est à la pointe de la technologie sur une large gamme de benchmarks et qui débute à la première place sur LMArena avec une marge significative.

    Les modèles Gemini 2.5 sont des modèles de raisonnement, capables de raisonner sur leurs pensées avant de répondre, ce qui se traduit par des performances et une précision accrues.

    Dans le domaine de l'IA, la capacité de « raisonnement » d'un système ne se limite pas à la classification et à la prédiction. Il s'agit de sa capacité à analyser les informations, à tirer des conclusions logiques, à intégrer le contexte et les nuances, et à prendre des décisions éclairées.

    Depuis longtemps, nous explorons les moyens de rendre l'IA plus intelligente et plus capable de raisonner grâce à des techniques telles que l'apprentissage par renforcement et l'incitation à la réflexion en chaîne. Sur cette base, nous avons récemment présenté notre premier modèle de raisonnement, Gemini 2.0 Flash Thinking.

    Aujourd'hui, avec Gemini 2.5, nous avons atteint un nouveau niveau de performance en combinant un modèle de base considérablement amélioré avec un post-entraînement plus performant. À l'avenir, nous intégrerons ces capacités de raisonnement directement dans tous nos modèles, afin qu'ils puissent traiter des problèmes plus complexes et prendre en charge des agents encore plus performants et conscients du contexte.


    Présentation de Gemini 2.5 Pro

    Gemini 2.5 Pro Experimental est notre modèle le plus avancé pour les tâches complexes. Il arrive en tête du classement LMArena - qui mesure les préférences humaines - avec une marge significative, ce qui indique un modèle très performant doté d'un style de haute qualité. 2.5 Pro présente également de solides capacités de raisonnement et de codage, en tête des tests de codage, de mathématiques et de sciences les plus courants.

    Gemini 2.5 Pro est disponible dès maintenant dans Google AI Studio et dans l'application Gemini pour les utilisateurs de Gemini Advanced, et sera bientôt disponible dans Vertex AI. Nous introduirons également une tarification dans les semaines à venir, permettant aux utilisateurs d'utiliser 2.5 Pro avec des limites de taux plus élevées pour une utilisation en production à grande échelle.

    Nom : 1.jpg
Affichages : 5908
Taille : 113,0 Ko

    Raisonnement amélioré

    Gemini 2.5 Pro est à la pointe de la technologie pour toute une série de tests nécessitant un raisonnement avancé. Sans les techniques de temps de test qui augmentent les coûts, comme le vote majoritaire, 2.5 Pro est en tête dans les tests de mathématiques et de sciences comme GPQA et AIME 2025.

    Il obtient également un score de pointe de 18,8 % sur l'ensemble des modèles sans utilisation d'outils dans Humanity's Last Exam, un ensemble de données conçu par des centaines d'experts en la matière pour capturer la frontière humaine de la connaissance et du raisonnement.

    Nom : 2.jpg
Affichages : 1496
Taille : 47,8 Ko

    Codage avancé

    Nous nous sommes concentrés sur les performances de codage et, avec Gemini 2.5, nous avons fait un grand bond en avant par rapport à la version 2.0 - avec d'autres améliorations à venir. 2.5 Pro excelle dans la création d'applications web visuellement attrayantes et d'applications de code agentique, ainsi que dans la transformation et l'édition de code. Sur SWE-Bench Verified, le standard de l'industrie pour les évaluations de code agentique, Gemini 2.5 Pro obtient un score de 63,8 % avec une configuration d'agent personnalisée.

    Voici un exemple de la façon dont 2.5 Pro peut utiliser ses capacités de raisonnement pour créer un jeu vidéo en produisant le code exécutable à partir d'une simple ligne d'invite.


    S'appuyer sur le meilleur de Gemini

    Gemini 2.5 s'appuie sur ce qui fait la force des modèles Gemini : la multimodalité native et une longue fenêtre contextuelle. La version 2.5 Pro est livrée dès aujourd'hui avec une fenêtre contextuelle de 1 million de jetons (bientôt 2 millions), avec des performances élevées qui s'améliorent par rapport aux générations précédentes. Il peut comprendre de vastes ensembles de données et traiter des problèmes complexes à partir de différentes sources d'information, y compris le texte, l'audio, les images, la vidéo et même des référentiels de code entiers.

    Les développeurs et les entreprises peuvent commencer à expérimenter Gemini 2.5 Pro dans Google AI Studio dès maintenant, et les utilisateurs de Gemini Advanced peuvent le sélectionner dans la liste déroulante des modèles sur les ordinateurs de bureau et les téléphones portables. Il sera disponible sur Vertex AI dans les semaines à venir.

    Comme toujours, nous apprécions les commentaires afin de pouvoir continuer à améliorer rapidement les nouvelles capacités impressionnantes de Gemini, dans le but de rendre notre IA plus utile.

    Et vous ?

    Pensez-vous que ce modèle est crédible ou pertinent ?
    Quel est votre avis sur l'annonce de Google

    Voir aussi :

    Google lance son nouveau modèle d'IA Gemini 2.0 pour pratiquement tout, qui promet d'être plus rapide et plus intelligent grâce aux progrès agentiques et offre des capacités avancées de sorties multimodales

    Anthropic annonce Claude 3.7 Sonnet, un modèle qui donne un contrôle sur le temps que l'IA passe à "réfléchir" avant de générer une réponse, et Claude Code, un agent IA de codage en ligne de commande

    OpenAI riposte à DeepSeek avec o3-mini, son nouveau modèle de raisonnement plus intelligent pour les utilisateurs payants et gratuits de ChatGPT. O3-mini est qualifié de « monstre de codage ultra-rapide »
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 695
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 695
    Par défaut Google a lancé une nouvelle fonctionnalité qui permet aux utilisateurs de générer des vidéos dans Gemini
    Google a lancé une nouvelle fonctionnalité qui permet aux utilisateurs de générer des vidéos dans Gemini et Whisk à l'aide de Veo 2, en convertissant du texte en vidéos haute résolution de huit secondes

    Google a introduit une nouvelle fonctionnalité qui permet aux utilisateurs de générer des vidéos dans Gemini et Whisk à l'aide de Veo 2. Cette fonctionnalité permet aux abonnés de Gemini Advanced de convertir des invites textuelles en vidéos haute résolution de huit secondes. En outre, les abonnés à Google One AI Premium peuvent utiliser Whisk Animate pour transformer des images en clips animés de huit secondes.

    Pour rappel, Google DeepMind a lancé Gemini 2.5 Pro, son dernier modèle d'intelligence artificielle (IA), en mars dernier. Selon l'entreprise, ce modèle établit des normes industrielles en matière de raisonnement et de codage et surpasse ses concurrents sur plusieurs benchmarks, dont le classement LMArena.

    À partir de ce 15 avril, les utilisateurs de Gemini Advanced peuvent produire et partager des vidéos à l'aide du modèle vidéo de pointe de Google, Veo 2. Cette fonctionnalité permet aux utilisateurs de convertir des invites textuelles en vidéos dynamiques dans Gemini.

    Google Labs a également mis Veo 2 à disposition des utilisateurs via Whisk, une expérience d'IA qui permet de créer de nouvelles images à l'aide d'invites textuelles et d'images, et de les animer pour en faire des vidéos.


    Comment créer des vidéos avec Gemini

    Le modèle Veo 2 de Google, conçu pour créer des vidéos détaillées en haute résolution avec un réalisme cinématographique, représente un bond en avant dans la génération de vidéos. Veo 2 réalise une compréhension de la physique du monde réel et des mouvements humains pour offrir des mouvements de personnages fluides, des scènes réalistes et des détails visuels plus fins sur des sujets et des styles variés.

    Pour générer des vidéos, les utilisateurs peuvent sélectionner Veo 2 dans le menu déroulant du modèle dans Gemini. Cette fonction permet de créer un clip vidéo de huit secondes à une résolution de 720p, livré sous la forme d'un fichier MP4 au format paysage 16:9. Le nombre de vidéos qu'un utilisateur peut créer est limité mensuellement, mais les utilisateurs seront avertis lorsqu'ils approcheront de cette limite.

    La création de vidéos avec Gemini est simple. Les utilisateurs décrivent simplement la scène qu'ils souhaitent créer - qu'il s'agisse d'une histoire courte, d'un concept visuel ou d'une scène spécifique - et Gemini donne vie à leurs idées. Plus la description est détaillée, plus l'utilisateur a le contrôle sur la vidéo finale. Cette fonctionnalité permet aux utilisateurs d'explorer plusieurs possibilités créatives amusantes, de laisser libre cours à leur imagination pour créer des combinaisons irréelles, d'explorer différents styles visuels, du réalisme à la fantaisie, ou de raconter rapidement de courtes idées visuelles.

    Nom : Google Veo fig 1.PNG
Affichages : 4413
Taille : 294,8 Ko

    Selon Google, l'une des meilleures parties de la création est le partage avec les autres. Le partage de vidéos sur mobile est facile, les utilisateurs n'ont qu'à appuyer sur le bouton de partage pour télécharger rapidement de courtes vidéos attrayantes sur des plateformes telles que TikTok et YouTube Shorts.

    La fonctionnalité de génération de vidéos est désormais déployée pour les abonnés de Gemini Advanced dans le monde entier sur le web et les mobiles, à partir du 15 avril et au cours des prochaines semaines. Cette fonction est disponible pour les abonnés Google One AI Premium dans toutes les langues prises en charge par Gemini.


    Comment Whisk Animate donne vie aux images

    Lancée en décembre 2024, Whisk est une expérience de Google Labs qui aide les utilisateurs à explorer et à visualiser rapidement de nouvelles idées à l'aide de textes et d'images. Les utilisateurs peuvent animer leurs créations grâce à Whisk Animate.

    Whisk Animate permet aux utilisateurs de transformer leurs images en vidéos de huit secondes à l'aide de Veo 2. L'outil est disponible dès maintenant pour les abonnés à Google One AI Premium dans le monde entier.

    Nom : Google Veo fig 2.PNG
Affichages : 838
Taille : 350,9 Ko

    Comment Google aborde la sécurité

    Google a pris des mesures importantes pour faire de la génération de vidéos une expérience sûre. Cela inclut des équipes d'experts et des évaluations approfondies visant à empêcher la génération de contenus qui enfreignent les règles de Google. En outre, toutes les vidéos générées avec Veo 2 sont marquées d'un SynthID, un filigrane numérique intégré à chaque image, qui indique que les vidéos sont générées par l'IA.

    Les résultats de Gemini sont principalement déterminés par les invites de l'utilisateur et, comme tout outil d'IA générative, il peut arriver qu'il génère un contenu que certaines personnes jugent inacceptable. Google a annoncé qu'elle continuera d'écouter les commentaires des utilisateurs par l'intermédiaire des boutons « pouce en l'air » et « pouce en bas » et apportera des améliorations constantes.

    Source : Google

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous cette initiative de Google crédible ou pertinente ?

    Voir aussi :

    Google Deepmind présente Veo 2, un nouvel outil de génération de vidéos par l'IA pour créer des "vidéos d'une qualité incroyable", dans le but de battre Sora d'OpenAI et d'être le meilleur modèle IA vidéo

    Google présente Veo, son modèle d'IA pour générer des vidéos haute définition, et Imagen 3, son modèle texte-image de haute qualité, ainsi que des enregistrements de démonstration créés avec Music AI Sandbox

    Google Gemini peut désormais scanner vos images privées et vos captures d'écran pour vous localiser et suivre vos déplacements afin d'alimenter son IA, ce qui vous aidera à planifier vos voyages, selon Google

    Les abonnés à l'IA Gemini Advanced de Google peuvent désormais faire appel aux conversations passées pour améliorer la précision des réponses, et permettre aux nouvelles discussions de ne plus repartir de zéro
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  3. #3
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 695
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 695
    Par défaut Google a lancé Gemini 2.5 Flash, offrant aux développeurs un contrôle sur le niveau de raisonnement de l'IA
    Google a lancé Gemini 2.5 Flash, une mise à jour majeure de sa famille d'IA, qui offre aux entreprises et aux développeurs un contrôle sans précédent sur le niveau de « raisonnement » de leur IA

    Google a lancé Gemini 2.5 Flash, une mise à jour majeure de sa famille d'intelligence artificielle (IA) qui donne aux entreprises et aux développeurs un contrôle sans précédent sur le degré de « raisonnement » de leur IA. Le nouveau modèle, disponible aujourd'hui en avant-première via Google AI Studio et Vertex AI, représente un effort stratégique pour offrir des capacités de raisonnement améliorées tout en maintenant des prix compétitifs sur le marché de l'IA, de plus en plus encombré.

    Ce développement fait suite au lancement par Google DeepMind de Gemini 2.5 Pro en mars 2025. Selon Google, ce modèle de raisonnement est conçu pour résoudre efficacement les problèmes complexes et se classe parmi les meilleurs sur plusieurs critères de référence en matière de raisonnement et de codage.

    Conçu pour résoudre plus efficacement les problèmes complexes, Gemini 2.5 Pro a surpassé expérimentalement les modèles concurrents sur plusieurs critères de référence, selon Google.

    Gemini 2.5 Flash introduit ce que Google appelle un « budget de raisonnement », un mécanisme qui permet aux développeurs de spécifier la puissance de calcul à allouer au raisonnement sur des problèmes complexes avant de générer une réponse. Cette approche vise à résoudre une tension fondamentale sur le marché actuel de l'IA : un raisonnement plus sophistiqué s'accompagne généralement d'une latence et d'une tarification plus élevées.

    « Nous savons que le coût et la latence sont importants pour un certain nombre de cas d'utilisation des développeurs, et nous voulons donc offrir aux développeurs la flexibilité d'adapter la quantité de raisonnement que le modèle effectue, en fonction de leurs besoins », a déclaré Tulsee Doshi, directeur de produit pour Gemini Models chez Google DeepMind.

    Cette flexibilité révèle l'approche pragmatique de Google en matière de déploiement de l'IA, alors que la technologie s'intègre de plus en plus dans des applications commerciales où la prévisibilité des coûts est essentielle.


    Le premier modèle de raisonnement entièrement hybride de Google

    En permettant d'activer ou de désactiver la capacité de raisonnement, Google a créé ce qu'il appelle son « premier modèle de raisonnement entièrement hybride ». Gemini 2.5 Flash s'appuye sur le modèle populaire 2.0 Flash de Google. Cette nouvelle version offre une amélioration majeure des capacités de raisonnement, tout en donnant la priorité à la vitesse et au coût. Le modèle permet également aux développeurs de définir des budgets de raisonnement afin de trouver le bon compromis entre la qualité, le coût et la latence. Selon Google, même si le raisonnement est désactivé, les développeurs peuvent conserver les vitesses rapides de Flash 2.0 et améliorer les performances.

    Les modèles Gemini 2.5 de Google sont des modèles de raisonnement, capables de réfléchir avant de répondre. Au lieu de générer immédiatement une sortie, le modèle 2.5 Flash peut effectuer un processus de « raisonnement » pour mieux comprendre l'invite, décomposer les tâches complexes et planifier une réponse. Pour les tâches complexes nécessitant plusieurs étapes de raisonnement (comme la résolution de problèmes mathématiques ou l'analyse de questions de recherche), le processus de raisonnement permet au modèle d'obtenir des réponses plus précises et plus complètes.

    Selon l'entreprise, Gemini 2.5 Flash obtient d'excellents résultats sur les questions difficiles dans LMArena, juste derrière 2.5 Pro.

    Nom : Google Gemini 2.5 Flash Fig 1.PNG
Affichages : 15614
Taille : 121,9 Ko
    2.5 Flash présente des caractéristiques comparables à celles d'autres modèles de premier plan pour une fraction du coût et de la taille.

    Ne payez que pour la matière grise dont vous avez besoin : Au cœur du nouveau modèle de tarification de l'IA de Google

    La nouvelle structure tarifaire met en évidence le coût du raisonnement dans les systèmes d'IA actuels. Lorsqu'ils utilisent Gemini 2.5 Flash, les développeurs paient 0,15 dollar par million de jetons pour les données d'entrée. Les coûts de sortie varient considérablement en fonction des paramètres de raisonnement : 0,60 $ par million de jetons avec le raisonnement désactivé, passant à 3,50 $ par million de jetons avec le raisonnement activé.

    Cette différence de prix de près de six fois pour les sorties raisonnées reflète l'intensité informatique du processus de « raisonnement », au cours duquel le modèle évalue plusieurs voies et considérations potentielles avant de générer une réponse.

    « Les clients paient pour tous les jetons de raisonnement et de sortie que le modèle génère », a déclaré Doshi. « Dans l'interface utilisateur d'AI Studio, vous pouvez voir ces réflexions avant la réponse. Dans l'API, nous ne donnons actuellement pas accès aux réflexions, mais un développeur peut voir combien de jetons ont été générés. »

    Le budget de raisonnement peut être ajusté de 0 à 24 576 jetons, fonctionnant comme une limite maximale plutôt que comme une allocation fixe. Selon Google, le modèle détermine intelligemment la part de ce budget à utiliser en fonction de la complexité de la tâche, en préservant les ressources lorsqu'un raisonnement élaboré n'est pas nécessaire.

    Nom : Google Gemini 2.5 Flash Fig 2.PNG
Affichages : 3078
Taille : 70,2 Ko
    Gemini 2.5 Flash ajoute un autre modèle à la frontière de pareto de Google entre le coût et la qualité.

    Des contrôles fins pour gérer le raisonnement

    Google a reconnu que les différents cas d'utilisation ont des compromis différents en termes de qualité, de coût et de latence. Pour donner de la flexibilité aux développeurs, l'entreprise a permis de définir un budget de raisonnement qui offre un contrôle fin sur le nombre maximum de jetons qu'un modèle peut générer pendant qu'il raisonne. Un budget plus élevé permet notamment au modèle de raisonner davantage pour améliorer la qualité. Google souligne que le budget fixe un plafond à la quantité de raisonnement de 2.5 Flash, mais le modèle n'utilise pas la totalité du budget si l'invite ne l'exige pas.

    Gemini 2.5 Flash est entraîné à savoir combien de temps il doit réfléchir pour une invite donnée et décide donc automatiquement de la quantité de raisonnement à effectuer en fonction de la complexité perçue de la tâche.

    Si un utilisateur souhaite conserver les coûts et la latence les plus bas tout en améliorant les performances par rapport à Flash 2.0, il peut fixer le budget de raisonnement à 0. Il peut également choisir de fixer un budget de jetons spécifique pour la phase de raisonnement à l'aide d'un paramètre dans l'API ou du curseur dans Google AI Studio et dans Vertex AI. Le budget peut aller de 0 à 24576 jetons pour 2,5 Flash.

    Nom : Google Gemini 2.5 Flash Fig 3.PNG
Affichages : 3070
Taille : 30,0 Ko
    Amélioration de la qualité du raisonnement à mesure que le budget de raisonnement augmente.

    Les invites suivantes illustrent la quantité de raisonnement qui peut être utilisée dans le mode par défaut de 2.5 Flash.

    Invites nécessitant un faible raisonnement :

    Exemple 1 : « Merci » en espagnol
    Exemple 2 : Combien de provinces compte le Canada ?

    Invites nécessitant un raisonnement moyen :

    Exemple 1 : Vous lancez deux dés. Quelle est la probabilité que le total soit de 7 ?
    Exemple 2 : Mon club de sport propose des heures de ramassage pour le basket-ball entre 9 et 15 heures le lundi matin et entre 14 et 20 heures le mardi et le samedi. Si je travaille de 9 à 18 heures, 5 jours par semaine, et que je veux jouer 5 heures au basket-ball en semaine, créez un emploi du temps qui me permette de faire tout cela.

    Questions nécessitant un raisonnement poussé :

    Exemple 1 : Une poutre en porte-à-faux de longueur L=3m a une section rectangulaire (largeur b=0,1m, hauteur h=0,2m) et est fabriquée en acier (E=200 GPa). Elle est soumise à une charge uniformément répartie w=5 kN/m sur toute sa longueur et à une charge ponctuelle P=10 kN à son extrémité libre. Calculer la contrainte de flexion maximale (σ_max).

    Exemple 2 : écrire une fonction evaluate_cells(cells : Dict[str, str]) -> Dict[str, float] qui calcule les valeurs des cellules d'une feuille de calcul.

    Chaque cellule contient :

    • Un nombre (par exemple, "3")
    • Ou une formule comme "=A1 + B1 * 2" utilisant +, -, *,/ et d'autres cellules.

    Exigences :

    • Résoudre les dépendances entre les cellules.
    • Gérer la précédence des opérateurs (*/ avant +-).
    • Détecter les cycles et lever ValueError(« Cycle détecté à <cellule> »).
    • Pas d'eval(). N'utiliser que les bibliothèques intégrées.

    Commencez à construire avec Gemini 2.5 Flash dès maintenant

    Gemini 2.5 Flash avec des capacités de raisonnement est désormais disponible en avant-première via l'API Gemini dans Google AI Studio et dans Vertex AI, et dans un menu déroulant dédié dans l'application Gemini. Google a encouragé les utilisateurs à expérimenter le paramètre thinking_budget et à découvrir comment le raisonnement contrôlable peut les aider à résoudre des problèmes plus complexes. L'entreprise a également indiqué qu'elle continuera à améliorer Gemini 2.5 Flash avant de la rendre disponible pour une utilisation en production complète.

    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    from google import genai
     
    client = genai.Client(api_key="GEMINI_API_KEY")
     
    response = client.models.generate_content(
      model="gemini-2.5-flash-preview-04-17",
      contents="You roll two dice. What’s the probability they add up to 7?",
      config=genai.types.GenerateContentConfig(
        thinking_config=genai.types.ThinkingConfig(
          thinking_budget=1024
        )
      )
    )
     
    print(response.text)

    Le lancement de Gemini 2.5 Flash fait suite à une période de turbulences pour Google, marquée par les critiques publiques de son PDG à l'encontre de l'outil d'IA Gemini. Dans une note adressée aux employés en février 2024, Sundar Pichai a qualifié les erreurs de diversité commises par Gemini de totalement inacceptables. A l'époque, les réponses biaisées générées par le modèle ont déclenché des réactions négatives de la part des utilisateurs et fait perdre 90 milliards de dollars à la valeur boursière de l'entreprise.

    Source : Google

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous cette initiative de Google crédible ou pertinente ?

    Voir aussi :

    L'outil d'IA de codage de Google Gemini est désormais gratuit pour les utilisateurs individuels, et fournit 90 fois plus de complétions de code par mois que la version gratuite de GitHub Copilot

    L'IA Gemini de Google peut désormais consulter votre historique de recherche pour personnaliser ses réponses, mais la fonction suscite des préoccupations en matière de protection de la vie privée

    Google annonce Sec-Gemini v1, un nouveau modèle expérimental d'IA conçu pour aider les professionnels de la sécurité à lutter contre les cybermenaces grâce à des données en temps réel et un raisonnement avancé
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  4. #4
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 695
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 695
    Par défaut Google DeepMind présente l'IA super-avancée AlphaEvolve, un agent de codage alimenté par Gemini
    Google DeepMind présente l'IA super-avancée AlphaEvolve, un agent de codage alimenté par Gemini pour la conception d'algorithmes avancés

    Google DeepMind a dévoilé AlphaEvolve, un puissant agent de codage intelligence artificielle (IA) alimenté par Gemini, pour la découverte et l'optimisation d'algorithmes avancés. AlphaEvolve associe les capacités créatives de résolution de problèmes des modèles Gemini de Google à des évaluateurs automatisés qui vérifient les réponses, et utilise un cadre évolutif pour améliorer les idées les plus prometteuses.

    Cette initiative voit le jour un mois à peine après que Google a lancé Gemini 2.5 Flash, une mise à jour majeure de sa famille d'IA Gemini, qui offre un contrôle avancé sur le niveau de raisonnement de l'IA. Conçu pour résoudre plus efficacement les problèmes complexes, Gemini 2.5 Pro a surpassé expérimentalement les modèles concurrents sur plusieurs critères de référence, selon l'entreprise.

    La division de recherche DeepMind de Google affirme que AlphaEvolve, son dernier agent d'intelligence artificielle, marque une étape importante dans l'utilisation de la technologie pour résoudre les grands problèmes en mathématiques et en sciences. Le système, baptisé AlphaEvolve, est basé sur les LLM Gemini de l'entreprise, avec l'ajout d'une approche « évolutive » qui évalue et améliore les algorithmes à travers une gamme de cas d'utilisation.

    AlphaEvolve est essentiellement un agent de codage IA, mais il va plus loin qu'un chatbot Gemini standard. Lorsqu'un utilisateur échange avec Gemini, le risque d'hallucination est toujours présent, l'IA inventant des détails en raison de la nature non déterministe de la technologie sous-jacente. AlphaEvolve utilise quant à lui une approche intéressante pour augmenter sa précision lorsqu'il traite des problèmes algorithmiques complexes.


    Selon DeepMind, cette IA utilise un système d'évaluation automatique. Lorsqu'un chercheur interagit avec AlphaEvolve, il saisit un problème avec des solutions possibles et des pistes à explorer. Le modèle génère plusieurs solutions possibles, en utilisant Gemini Flash et le modèle plus détaillé Gemini Pro, puis chaque solution est analysée par l'évaluateur. Un cadre évolutif permet à AlphaEvolve de se concentrer sur la meilleure solution et de l'améliorer.

    La plupart des anciens systèmes d'IA de Google DeepMind, par exemple le système de repliement des protéines AlphaFold, ont été formés de manière approfondie sur un seul domaine de connaissances. AlphaEvolve, en revanche, est plus dynamique. DeepMind affirme qu'AlphaEvolve est une IA polyvalente qui peut aider la recherche dans n'importe quel problème de la programmation ou de l'algorithmique.

    Google a déjà commencé à déployer AlphaEvolve dans son entreprise, avec des résultats positifs. L'IA AlphaEvolve de DeepMind a optimisé le planificateur du cluster Borg de Google, réduisant l'utilisation globale des ressources informatiques de 0,7 %, ce qui représente une économie importante à l'échelle de Google. Elle a également surpassé l'IA spécialisée AlphaTensor en découvrant un algorithme plus efficace pour multiplier les matrices à valeurs complexes. En outre, AlphaEvolve a proposé des optimisations au niveau du matériel pour la prochaine génération de puces Tensor de Google.

    L'IA reste à ce jour trop complexe pour être diffusée au grand public, mais cela pourrait changer à l'avenir, à mesure qu'elle sera intégrée dans des outils de recherche plus petits.

    Concevoir de meilleurs algorithmes avec de grands modèles de langage

    En 2023, Google a montré pour la première fois que les grands modèles de langage peuvent générer des fonctions écrites dans un code informatique pour aider à découvrir de nouvelles connaissances prouvées correctes sur un problème scientifique ouvert. AlphaEvolve est un agent qui peut aller au-delà de la découverte d'une seule fonction pour faire évoluer des bases de code entières et développer des algorithmes beaucoup plus complexes.

    AlphaEvolve s'appuie sur un ensemble de grands modèles de langage à la pointe de la technologie : le modèle le plus rapide et le plus efficace de Google, Gemini Flash, maximise l'étendue des idées explorées, tandis que son modèle le plus puissant, Gemini Pro, fournit une profondeur critique avec des suggestions perspicaces. Ensemble, ces modèles proposent des programmes informatiques qui mettent en œuvre des solutions algorithmiques sous forme de code.

    Nom : Google AlphaEvolve Fig 1.PNG
Affichages : 33724
Taille : 128,5 Ko

    Selon DeepMind, AlphaEvolve vérifie, exécute et note les programmes proposés en utilisant des mesures d'évaluation automatisées. Ces mesures fournissent une évaluation objective et quantifiable de la précision et de la qualité de chaque solution. Ceci rend AlphaEvolve particulièrement utile dans une large gamme de domaines où le progrès peut être clairement et systématiquement mesuré, comme en mathématiques et en informatique.

    Optimiser l'écosystème de calcul de Google

    Au cours de l'année écoulée, Google a déployé des algorithmes découverts par AlphaEvolve à travers son écosystème informatique, y compris ses centres de données, son matériel et ses logiciels. L'impact de chacune de ces améliorations est multiplié à travers l'infrastructure d'IA et de calcul de Google afin de construire un écosystème numérique plus puissant et plus durable pour tous ses utilisateurs.

    Nom : Google AlphaEvolve Fig 2.PNG
Affichages : 7526
Taille : 77,0 Ko

    Améliorer la planification des centres de données

    AlphaEvolve a découvert une heuristique simple mais remarquablement efficace pour aider Borg à orchestrer plus efficacement les vastes centres de données de Google. Cette solution, en production depuis plus d'un an, récupère continuellement, en moyenne, 0,7 % des ressources informatiques mondiales de Google, indique l'entreprise. Ce gain d'efficacité durable signifie qu'à tout moment, plus de tâches peuvent être accomplies sur la même empreinte informatique. La solution d'AlphaEvolve ne conduit pas seulement à une forte performance mais offre également des avantages opérationnels significatifs du code lisible par l'homme : interprétabilité, débogage, prévisibilité et facilité de déploiement.

    Aider à la conception matérielle

    AlphaEvolve a proposé une réécriture de Verilog qui supprime les bits inutiles dans un circuit arithmétique clé et hautement optimisé pour la multiplication de matrices. De manière cruciale, la proposition doit passer par des méthodes de vérification robustes pour confirmer que le circuit modifié conserve sa correction fonctionnelle. Cette proposition a été intégrée dans une prochaine Tensor Processing Unit (TPU), l'accélérateur d'IA personnalisé de Google. En suggérant des modifications dans le langage standard des concepteurs de puces, AlphaEvolve favorise une approche collaborative entre les ingénieurs en IA et les ingénieurs en matériel afin d'accélérer la conception de futures puces spécialisées.

    Améliorer l'entraînement et l'inférence de l'IA

    Selon DeepMind, AlphaEvolve accélère les performances de l'IA et la vitesse de la recherche. En trouvant des moyens plus intelligents de diviser une grande opération de multiplication de matrice en sous-problèmes plus faciles à gérer, AlphaEvolve a accéléré ce noyau vital de l'architecture de Gemini de 23 %, ce qui a permis de réduire de 1 % le temps d'apprentissage de Gemini. Étant donné que le développement de modèles d'IA générative nécessite des ressources informatiques considérables, chaque gain d'efficacité se traduit par des économies considérables.

    Au-delà des gains de performance, l'entreprise précise qu'AlphaEvolve a également réduit considérablement le temps d'ingénierie nécessaire à l'optimisation du noyau, passant de semaines d'efforts d'experts à des jours d'expériences automatisées, permettant ainsi aux chercheurs d'innover plus rapidement.

    AlphaEvolve a permis en outre d'optimiser les instructions de bas niveau du GPU. Ce domaine complexe est généralement déjà fortement optimisé par les compilateurs, de sorte que les ingénieurs humains ne le modifient généralement pas directement. Selon Google, AlphaEvolve a atteint une vitesse de 32,5 % pour l'implémentation du noyau FlashAttention dans les modèles d'IA basés sur Transformer. Ce type d'optimisation aide les experts à identifier les goulets d'étranglement en matière de performance et à intégrer facilement les améliorations dans leur base de code, ce qui stimule leur productivité et leur permet de réaliser des économies futures en termes de calcul et d'énergie, précise l'entreprise.

    Faire avancer les frontières des mathématiques et de la découverte d'algorithmes

    Google DeepMind indique que AlphaEvolve peut également proposer de nouvelles approches pour résoudre des problèmes mathématiques complexes. A partir d'un squelette de code minimal pour un programme informatique, AlphaEvolve a conçu de nombreux composants d'une nouvelle procédure d'optimisation basée sur le gradient qui a permis de découvrir de nombreux nouveaux algorithmes pour la multiplication de matrices, un problème fondamental en informatique.

    Nom : Google AlphaEvolve Fig 3.PNG
Affichages : 7505
Taille : 156,7 Ko
    A list of changes proposed by AlphaEvolve to discover faster matrix multiplication algorithms. In this example, AlphaEvolve proposes extensive changes across several components, including the optimizer and weight initialization, the loss function, and hyperparameter sweep. These changes are highly non-trivial, requiring 15 mutations during the evolutionary process.

    La procédure d'AlphaEvolve a trouvé un algorithme pour multiplier 4x4 matrices à valeurs complexes en utilisant 48 multiplications scalaires, améliorant l'algorithme de Strassen de 1969 qui était auparavant connu comme le meilleur dans ce domaine. Cette découverte constitue une avancée significative par rapport au travail précédent de Google, AlphaTensor, qui se spécialisait dans les algorithmes de multiplication de matrices et qui, pour les matrices 4x4, n'avait trouvé d'améliorations que pour l'arithmétique binaire.

    Pour étudier l'étendue d'AlphaEvolve, Google a appliqué le système à plus de 50 problèmes ouverts en analyse mathématique, géométrie, combinatoire et théorie des nombres. La flexibilité du système a permis de mettre en place la plupart des expériences en l'espace de quelques heures.

    L'entreprise rapporte que dans environ 75 % des cas, AlphaEvolve a redécouvert des solutions de pointe. Et dans 20 % des cas, l'IA a amélioré les meilleures solutions connues précédemment, en progressant sur les problèmes ouverts correspondants. Par exemple, AlphaEvolve a fait progresser le problème du nombre de baisers. Ce défi géométrique, qui fascine les mathématiciens depuis plus de 300 ans, concerne le nombre maximal de sphères non superposées qui touchent une sphère unitaire commune. Selon Google, AlphaEvolve a découvert une configuration de 593 sphères extérieures et a établi une nouvelle limite inférieure en 11 dimensions.

    Trajectoire future

    Google affirme qu'AlphaEvolve illustre la progression de la découverte d'algorithmes pour des domaines spécifiques vers le développement d'algorithmes plus complexes pour un large éventail de défis du monde réel. L'entreprise s'attend à ce qu'AlphaEvolve continue de s'améliorer en même temps que les capacités des grands modèles de langage, en particulier lorsqu'ils deviendront encore plus performants en matière de codage.

    En collaboration avec l'équipe de recherche People + AI, Google a construit une interface utilisateur conviviale pour interagir avec AlphaEvolve. Elle prévoit un programme d'accès anticipé pour les utilisateurs universitaires sélectionnés et explore également les possibilités de rendre AlphaEvolve plus largement disponible.

    Bien qu'AlphaEvolve soit actuellement appliqué aux mathématiques et à l'informatique, Google indique que sa nature généraliste signifie qu'il peut être appliqué à n'importe quel problème dont la solution peut être décrite comme un algorithme, et vérifiée automatiquement. Google pense qu'AlphaEvolve pourrait être transformateur dans de nombreux autres domaines tels que la science des matériaux, la découverte de médicaments, la durabilité et des applications technologiques et commerciales plus larges.

    Source : Google DeepMind

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous cette initiative de Google DeepMind crédible ou pertinente ?

    Voir aussi :

    L'outil d'IA de codage de Google Gemini est désormais gratuit pour les utilisateurs individuels, et fournit 90 fois plus de complétions de code par mois que la version gratuite de GitHub Copilot

    L'IA AlphaFold résout un problème scientifique vieux de 50 ans grâce à une "avancée stupéfiante" qui pourrait changer radicalement la manière dont l'organisme humain lutte contre les maladies

    Google lance le premier "système d'agents d'IA" au monde, le projet Oscar, une plateforme open-source qui permet aux équipes de développement d'utiliser des agents d'IA pour gérer des projets logiciels
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  5. #5
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 340
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 340
    Par défaut Gemini 2.5 Flash et Pro s'étend sur Vertex AI avec les résumés des réflexions et le Mode Deep Think
    Gemini 2.5 Flash et Pro s'étend sur Vertex AI pour favoriser une innovation plus sophistiquée et plus sûre en matière d'IA grâce aux résumés des réflexions, au mode Deep Think et à la sécurité avancée.

    Lors de la conférence annuelle des développeurs Google I/O, Google a annoncé Deep Think, un mode de raisonnement "amélioré" pour Gemini 2.5 Pro qui montre des compétences "incroyables" en matière de mathématiques complexes et de codage. L'entreprise a également annoncé des améliorations pour Pro ainsi que pour Gemini 2.5 Flash, le deuxième de ses modèles "les plus intelligents". Google a indiqué qu'il avait "considérablement augmenté les protections" contre les menaces pour ces modèles.

    Cette année, Google a lancé successivement Gemini 2.5 Pro et Gemini 2.5 Flash. Gemini 2.5 Pro est un modèle de raisonnement conçu pour résoudre efficacement les problèmes complexes, tandis que Gemini 2.5 Flash un modèle qui donnerait aux entreprises et aux développeurs un contrôle sans précédent sur le degré de "raisonnement" de leur IA. Les nouveaux modèles représentent un effort stratégique pour offrir des capacités de raisonnement améliorées tout en maintenant des prix compétitifs sur le marché de l'IA, de plus en plus encombré.

    Récemment, Google a présenté le nouveau mode Deep Think de Gemini. L'entreprise a dévoilé la dernière option de Google Gemini 2.5 Pro lors de la conférence Google I/O 2025, montrant ce que son IA peut faire avec plus de profondeur. Le mode Deep Think permet d'ajouter "plus d'intelligences" à l'IA Gemini. En mode Deep Think, Gemini ne se contente pas de sortir une réponse à une requête aussi rapidement que possible. Au lieu de cela, il lance plusieurs lignes de raisonnement possibles en parallèle avant de décider de la réponse à donner. C'est un peu l'équivalent pour l'IA de regarder dans les deux sens ou de relire les instructions avant de construire un meuble.

    Et si l'on en croit les tests de Google, la puissance cérébrale de Deep Think fonctionne. Il obtient des résultats de premier ordre à l'olympiade américaine de mathématiques 2025, se classe en tête du test de programmation compétitif LiveCodeBench et obtient un score étonnamment élevé de 84 % au populaire MMMU, une sorte de décathlon de tâches de raisonnement multimodal.

    Nom : 1.jpg
Affichages : 3492
Taille : 39,1 Ko

    À l'occasion de la conférence Google I/O, Google a notamment annoncé :

    • Résumés des réflexions : Pour l'IA d'entreprise, Google apporte de la clarté et de la vérifiabilité grâce aux résumés des pensées. Cette fonctionnalité organise les pensées brutes d'un modèle, y compris les détails clés et l'utilisation des outils, dans un format clair. Les clients peuvent désormais valider des tâches d'IA complexes, s'assurer de l'alignement avec la logique de l'entreprise et simplifier considérablement le débogage, ce qui permet d'obtenir des systèmes d'IA plus fiables et plus sûrs.

    • Mode Deep Think : L'utilisation de nouvelles techniques de recherche qui permettent au modèle d'envisager plusieurs hypothèses avant de répondre, aidera Gemini 2.5 Pro à s'améliorer encore. Ce mode de raisonnement amélioré est conçu pour des cas d'utilisation très complexes tels que les mathématiques et le codage.

    • Sécurité avancée : Google a augmenté le taux de protection de Gemini contre les attaques par injection indirecte pendant l'utilisation de l'outil, un facteur critique pour l'adoption par les entreprises.



    Gemini 2.5 Flash sera disponible pour tous les utilisateurs de Vertex AI au début du mois de juin, et la version 2.5 Pro sera disponible peu de temps après. Voici quelques retours de ceux qui ont pu testé ces nouvelles fonctionnalités :

    Citation Envoyé par Mike Branch, vice-président des données et de l'analyse, Geotab
    Avec respect à Geotab Ace (notre agent d'analyse de données pour les flottes commerciales), Gemini 2.5 Flash sur Vertex AI atteint un excellent équilibre. Il maintient une bonne cohérence dans la capacité de l'agent à fournir un aperçu pertinent de la question du client, tout en offrant des temps de réponse 25 % plus rapides sur les sujets qu'il connaît moins bien. De plus, notre première analyse suggère qu'elle pourrait fonctionner à un coût par question potentiellement inférieur de 85 % par rapport à la base de référence Gemini 1.5 Pro. Cette efficacité est vitale pour mettre à disposition de nos clients, via Ace, des informations sur l'IA à un prix abordable
    Citation Envoyé par Yashodha Bhavnani, vice-président de la gestion des produits d'IA, Box
    Box révolutionne la façon dont les entreprises interagissent avec leurs vastes quantités de contenu, rarement organisées. Avec les agents d'extraction Box AI, alimentés par Gemini 2.5 sur Vertex AI, les utilisateurs peuvent instantanément extraire des informations précises à partir de contenus complexes et non structurés, qu'il s'agisse de PDF scannés, de formulaires manuscrits ou de documents contenant beaucoup d'images. Le raisonnement avancé de Gemini 2.5 Pro en fait le meilleur choix pour s'attaquer aux tâches complexes des entreprises, avec une précision de plus de 90 % sur les cas d'utilisation d'extraction complexes et une performance supérieure aux modèles précédents à la fois dans l'interprétation des clauses et le raisonnement temporel, ce qui entraîne une réduction significative des efforts de révision manuelle. Cette évolution repousse les limites de l'automatisation, permettant aux entreprises de débloquer et d'agir sur leurs informations les plus précieuses avec encore plus d'impact et d'efficacité.
    Citation Envoyé par Roopak Gupta, vice-président de l'ingénierie, LiveRamp
    Avec ses capacités de raisonnement améliorées et ses réponses perspicaces, Gemini 2.5 offre un potentiel énorme à LiveRamp. Ses fonctionnalités avancées peuvent améliorer nos agents d'analyse de données et ajouter un support à notre gamme de produits, y compris la segmentation, l'activation et la mesure en salle blanche pour les annonceurs, les éditeurs et les réseaux de médias de détail. Nous nous engageons à évaluer l'impact du modèle sur un large éventail de caractéristiques et de fonctionnalités afin de garantir que nos clients et nos partenaires puissent débloquer de nouveaux cas d'utilisation et améliorer les cas existants.

    Et vous ?

    Pensez-vous que ces fonctionnalités sont crédibles ou pertinentes ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Google Deepmind écrase OpenAI Sora avec son générateur vidéo Veo 3 qui intègre l'audio, et annonce Imagen 4 et Lyria 2, ses nouveaux modèles multimédias génératifs Vertex AI

    Google développe un agent d'IA en prévision de sa conférence annuelle, destiné à aider les ingénieurs logiciels à naviguer dans toutes les étapes du processus logiciel

    Google DeepMind a lancé Gemini 2.5 Pro, un modèle d'IA qui raisonne avant de répondre, affirmant qu'il est le meilleur sur plusieurs critères de référence en matière de raisonnement et de codage
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  6. #6
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 340
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 340
    Par défaut Google présente Google AI Ultra pour profiter du meilleur de Google AI avec un seul abonnement
    Google présente l'abonnement unique Google AI Ultra pour profiter du meilleur de Google AI, proposant les limites d'utilisation les plus élevées et l'accès aux meilleurs modèles d'IA de Google

    Google présente Google AI Ultra, une nouvelle formule d'abonnement pour profiter du meilleur de Google AI. Google AI Ultra permettrait de bénéficier d'un accès maximal aux modèles d'IA les plus performants et aux fonctionnalités premium grâce à cette nouvelle formule de Google. Google renomme également le plan AI Premium existant en Google AI Pro.

    Actuellement, les derniers modèles d'IA de Google sont Gemini 2.5 Pro et Gemini 2.5 Flash. Gemini 2.5 Pro est un modèle de raisonnement conçu pour résoudre efficacement les problèmes complexes, tandis que Gemini 2.5 Flash est un modèle qui donnerait aux entreprises et aux développeurs un contrôle sans précédent sur le degré de "raisonnement" de leur IA. Les nouveaux modèles représentent un effort stratégique pour offrir des capacités de raisonnement améliorées tout en maintenant des prix compétitifs sur le marché de l'IA, de plus en plus encombré.

    Avec l'arrivée des nouvelles fonctionnalités émergentes et des nouveaux modèles, Google souhaite proposer davantage de moyens d'accéder au meilleur de ce que Google AI a à offrir pour aider les utilisateurs à être mieux informés, plus créatifs et plus productifs. C'est pourquoi Google présente Google AI Ultra, une nouvelle formule d'abonnement à l'IA avec les limites d'utilisation les plus élevées et l'accès à ses modèles les plus performants et à ses fonctionnalités premium. L'abonnement Google AI Ultra est décrit par Google comme le laissez-passer VIP pour Google AI.


    Google AI Ultra est disponible dès aujourd'hui aux États-Unis au prix de 249,99 $/mois (avec une offre spéciale pour les nouveaux utilisateurs de 50 % de réduction pour les trois premiers mois), et sera bientôt disponible dans d'autres pays.

    Google renomme également le plan AI Premium existant en Google AI Pro et améliore également l'offre. Sans frais supplémentaires, les abonnés à Google AI Pro auront désormais accès aux fonctionnalités de réalisation de films à l'aide de l'IA dans Flow, où vous pourrez essayer l'outil avec le modèle Veo 2, ainsi qu'à un accès anticipé à Gemini dans Chrome. Les abonnés à Google AI Pro bénéficieront de ces nouveaux avantages aux États-Unis dans un premier temps, puis dans d'autres pays par la suite. Google étend également l'accès gratuit à Google AI Pro pendant une année scolaire aux étudiants universitaires au Japon, au Brésil, en Indonésie et au Royaume-Uni, en plus des États-Unis.

    Nom : 1.jpg
Affichages : 4985
Taille : 93,9 Ko

    Voici ce que vous obtenez avec Google AI Ultra :

    • Gemini : Découvrez la meilleure version de l'application Gemini. Cette formule offre les limites d'utilisation les plus élevées pour Deep Research, la génération de vidéos avec Veo 2 et un accès anticipé au modèle Veo 3. Il est conçu pour le codage, la recherche universitaire et les projets créatifs complexes. Dans les semaines à venir, les abonnés Ultra auront également accès à Deep Think dans 2.5 Pro, le nouveau mode de raisonnement amélioré.

    • Flow : ce nouvel outil de réalisation de films d'IA est conçu pour les modèles de Google DeepMind (Veo, Imagen et Gemini). Il permet de créer des clips cinématographiques, des scènes et des récits à l'aide d'invites intuitives. Google AI Ultra permet d'atteindre les limites les plus élevées de Flow grâce à la génération de vidéos en 1080p, aux commandes avancées de la caméra et à l'accès anticipé à Veo 3.

    • Whisk : Whisk vous permet d'explorer et de visualiser de nouvelles idées à l'aide d'invites textuelles et visuelles. Avec Google AI Ultra, bénéficiez des limites les plus élevées pour Whisk Animate, qui transforme vos images en vidéos de huit secondes avec Veo 2.

    • NotebookLM : accédez aux limites d'utilisation les plus élevées et aux fonctionnalités améliorées des modèles dans le courant de l'année, que vous utilisiez NotebookLM pour étudier, enseigner ou travailler sur vos projets.

    • Gemini dans Gmail, Docs, Vids et plus encore : Facilitez vos tâches quotidiennes en accédant à Gemini directement dans vos applications Google préférées telles que Gmail, Docs, Vids et bien plus encore.

    • Gemini dans Chrome : Bénéficiez d'un accès anticipé à Gemini directement dans le navigateur Chrome. Cette fonctionnalité vous permet de comprendre des informations complexes et de réaliser des tâches sur le web en utilisant le contexte de la page en cours.

    • Projet Mariner : Ce prototype de recherche agentique peut vous aider à gérer jusqu'à 10 tâches simultanément - de la recherche aux réservations et aux achats - le tout à partir d'un seul tableau de bord.

    • YouTube Premium : Un abonnement individuel à YouTube Premium vous permet de regarder YouTube et d'écouter YouTube Music sans publicité, hors ligne et en arrière-plan.

    • 30 To de stockage : Offre une capacité de stockage massive dans Google Photos, Drive et Gmail pour sécuriser vos créations et vos fichiers.




    Et vous ?

    Pensez-vous que cet abonnement est crédible ou pertinent ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Google I/O : Google déploie le mode IA pour tous les utilisateurs de Search d'abord aux États-Unis et ajoute des fonctionnalités comme le contexte ou les graphiques et diagrammes personnalisés

    Anthropic a lancé un nouvel abonnement Max de 100 à 200 dollars par mois à Claude, qui offre des limites d'utilisation élargies pour son assistant d'IA, à la suite des demandes d'utilisateurs

    OpenAI lance un ChatGPT "plus intelligent et plus rapide" accessible via un abonnement de 200 dollars par mois qui ouvre aussi à un "mode encore plus intelligent", que les développeurs pourront passer au test
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  7. #7
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 340
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 340
    Par défaut Google a publié une "préversion améliorée" 06-05 de Gemini 2.5 Pro qui sera bientôt disponible
    Google a publié une "préversion améliorée" 06-05 de Gemini 2.5 Pro qui sera bientôt disponible, et serait performant en mathématiques, en sciences, en connaissances et en raisonnement

    Google a publié une "préversion améliorée" 06-05 de Gemini 2.5 Pro qui sera bientôt disponible dans les semaines à venir. Google note que la version 06-05 affiche "une augmentation de 24 points du score Elo sur LMArena", avec un score de 1470, tandis qu'elle affiche "une augmentation de 35 points du score Elo, ce qui la place en tête sur WebDevArena avec un score de 1443"

    En mars 2025, Google DeepMind a lancé Gemini 2.5 Pro, citant des avancées majeures dans les capacités de raisonnement et de codage. Gemini 2.5 est un modèle de raisonnement conçu pour résoudre des problèmes de plus en plus complexes. Google affirmait que son premier modèle 2.5, Gemini 2.5 Pro Experimental, est le meilleur dans les critères de référence courants par des marges significatives.

    Récemment, Google a annoncé une préversion améliorée de Gemini 2.5 Pro. Cette mise à jour du modèle s'appuie sur la version I/O Edition de 2.5 Pro du mois de mai, qui apportait des améliorations en matière de codage. Cette avance en matière de codage se poursuit avec la version 06-05 dans des benchmarks tels que AIDER Polyglot, tandis que l'on observe "des performances de premier ordre sur GPQA et Humanity's Last Exam (HLE), des benchmarks très exigeants qui évaluent les capacités d'un modèle en mathématiques, en sciences, en connaissances et en raisonnement".

    Nom : 1.jpg
Affichages : 6217
Taille : 52,2 Ko

    Par ailleurs, Google note que la version 06-05 affiche "une augmentation de 24 points du score Elo sur LMArena", avec un score de 1470, tandis qu'elle affiche "une augmentation de 35 points du score Elo, ce qui la place en tête sur WebDevArena avec un score de 1443"

    Avec les dernières mises à jour du modèle, certaines personnes ont remarqué une baisse des performances en dehors du codage, en particulier par rapport à la version 03-25. Google répond désormais à ces commentaires en améliorant "le style et la structure", afin que Gemini 2.5 Pro "puisse être plus créatif avec des réponses mieux formatées".

    Cette mise à jour du modèle Gemini 2.5 Pro est encore en phase de prévisualisation, mais vous pouvez vous attendre à une disponibilité générale et à une version stable "dans quelques semaines". Elle est actuellement déployée sur l'API Gemini via Google AI Studio et Vertex AI, les développeurs pouvant contrôler les coûts et la latence grâce à des budgets de réflexion (comme introduit avec la version 2.5 Flash). L'application Gemini bénéficie également de cette mise à jour 2.5 Pro en prévisualisation.

    Nom : 2.jpg
Affichages : 444
Taille : 104,0 Ko

    Voici l'annonce de Google :

    Essayez la dernière version de Gemini 2.5 Pro avant sa mise à disposition générale.

    Nous vous présentons une version préliminaire améliorée de Gemini 2.5 Pro, notre modèle le plus intelligent à ce jour. Basé sur la version que nous avons lancée en mai et présentée lors de la conférence I/O, ce modèle sera disponible dans quelques semaines dans une version stable et prête à être utilisée dans des applications à l'échelle de l'entreprise.

    La dernière version 2.5 Pro affiche une progression de 24 points au classement Elo sur LMArena, conservant ainsi sa place de leader avec 1470 points, et une progression de 35 points au classement Elo sur WebDevArena, où elle occupe la première place avec 1443 points. Il continue d'exceller dans le domaine du codage, se classant en tête dans des benchmarks de codage difficiles tels que Aider Polyglot. Il affiche également des performances de haut niveau sur GPQA et Humanity's Last Exam (HLE), des benchmarks très difficiles qui évaluent les capacités mathématiques, scientifiques, cognitives et de raisonnement d'un modèle.

    Nous avons également tenu compte des commentaires reçus lors de la sortie de la version 2.5 Pro précédente, en améliorant son style et sa structure. Il peut désormais faire preuve de plus de créativité et fournir des réponses mieux formatées.

    Les développeurs peuvent commencer à créer avec la préversion améliorée de la version 2.5 Pro dans l'API Gemini via Google AI Studio et Vertex AI, où nous avons également ajouté des budgets de réflexion pour donner aux développeurs plus de contrôle sur les coûts et la latence. Elle est également déployée aujourd'hui dans l'application Gemini.

    Source : Google

    Et vous ?

    Pensez-vous que cette amélioration est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Gemini 2.5 Flash et Pro s'étend sur Vertex AI pour favoriser une innovation plus sophistiquée et plus sûre en matière d'IA grâce aux résumés des réflexions, au mode Deep Think et à la sécurité avancée

    Google I/O 2025 : toutes les annonces majeures qu'il faut retenir de la conférence centrée sur l'IA. Google présente une architecture numérique tournée vers l'IA générative avec Gemini comme OS invisible

    Une nouvelle étude montre pourquoi les modèles d'IA à raisonnement simulé ne sont pas encore à la hauteur de leur réputation, performants sur les problèmes standards, mais limités en raisonnement olympique
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  8. #8
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 340
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 340
    Par défaut Google commence à déployer la fonctionnalité "Actions programmées" dans l'IA Gemini
    Google commence à déployer la fonctionnalité "Actions programmées" dans l'IA Gemini afin de permettre aux utilisateurs abonnés de demander à l'assistant IA d'effectuer des tâches à des moments précis.

    Google a annoncé que la fonctionnalité "Actions programmées" de l'application Gemini serait déployée pour les abonnés Gemini AI Pro et Ultra. Ces actions programmées sont similaires à des tâches automatisées que les utilisateurs peuvent demander à Gemini d'effectuer à une heure/un jour précis, comme le résumé des e-mails le matin, etc. Gemini réserve encore bien d'autres surprises, car lors de l'I/O 2025, Google a dévoilé les mises à niveau Deep Think et les améliorations 2.5 Flash pour le modèle.

    Récemment, Google a publié une "préversion améliorée" 06-05 de Gemini 2.5 Pro qui sera bientôt disponible dans les semaines à venir. Google note que la version 06-05 affiche "une augmentation de 24 points du score Elo sur LMArena", avec un score de 1470, tandis qu'elle affiche "une augmentation de 35 points du score Elo, ce qui la place en tête sur WebDevArena avec un score de 1443".

    En plus de cette annonce, Google a annoncé le lancement de la fonctionnalité "Actions programmées" dans l'application Gemini pour les abonnés Gemini AI Pro et Ultra. D'après l'annonce, cette fonctionnalité est conçue pour "rationaliser les tâches routinières" et fournir des mises à jour "personnalisées" directement de Gemini à l'utilisateur. Google indique que les utilisateurs pourront demander à Gemini d'effectuer "une tâche à un moment précis ou de transformer une invite que vous utilisez déjà en une action récurrente"

    Il semble que Gemini sera en mesure de couvrir un large éventail d'actions potentielles des utilisateurs. Par exemple, les utilisateurs peuvent obtenir un résumé basé sur leurs e-mails du matin de la part de Gemini. De plus, Gemini peut collecter et afficher les résultats sportifs, détailler les événements importants de votre calendrier, et bien plus encore. En outre, Google affirme que Gemini fonctionnera également très bien avec les actions "ponctuelles".

    Vos actions programmées dans Gemini seront hébergées sur une nouvelle page dans les paramètres de l'application. À partir de là, les utilisateurs pourront modifier les heures programmées ou peut-être l'action elle-même, ainsi que la supprimer entièrement si nécessaire. Comme indiqué précédemment, les actions programmées dans Gemini sont déployées pour les utilisateurs mobiles. Google ajoute que cette fonctionnalité s'étend également aux plans Workspace « éligibles » pour les entreprises et l'éducation dans le cadre de ce déploiement.


    Cette annonce montre que Google ne ralentit pas après l'I/O 2025, car les mises à niveau de Gemini vont bien au-delà de sa dernière mise à jour des actions programmées. La société prévoit de renforcer considérablement les capacités de Gemini pour les utilisateurs, ce qui devrait améliorer les performances du modèle dans tous les domaines. Google a annoncé que les modèles 2.5 de Gemini iront encore plus loin, grâce à Deep Think et Flash.

    Le modèle 2.5 Flash rendrait Gemini encore plus rapide et plus efficace lorsqu'on lui confie des tâches à accomplir. D'autre part, Deep Think, le tout dernier modèle de raisonnement de Google, sera intégré à Gemini 2.5 Pro. La société a déclaré qu'elle prévoyait de demander à l'IA « d'envisager plusieurs hypothèses » avant de donner sa réponse.

    En mars, Google avait déjà annoncé une nouvelle fonctionnalité de Gemini qui transforme les captures d'écran de textes et de messages publiés sur les réseaux sociaux concernant des endroits que vous souhaitez visiter ou des restaurants dans lesquels vous voulez manger en épingles sur Google Maps. Il vous suffirait de télécharger la capture d'écran et la nouvelle fonctionnalité d'IA de Google Maps analysera et identifiera automatiquement les lieux qui y sont répertoriés, puis les épinglera pour qu'ils soient plus facilement accessibles ultérieurement.

    Voici l'annonce de Google :

    Planifiez à l'avance grâce aux actions programmées dans l'application Gemini.

    Comme nous l'avons annoncé lors de la conférence I/O, l'application Gemini devient plus personnelle, proactive et puissante. À partir d'aujourd'hui, nous déployons les actions programmées dans l'application Gemini, une nouvelle fonctionnalité conçue pour gérer vos tâches de manière proactive.

    Grâce aux actions programmées, vous pouvez rationaliser vos tâches routinières ou recevoir des mises à jour personnalisées directement de Gemini. Dans votre conversation, demandez simplement à Gemini d'effectuer une tâche à un moment précis ou transformez une invite que vous utilisez déjà en une action récurrente. Vous pouvez les gérer à tout moment dans la page des actions programmées dans les paramètres.

    Vous pouvez désormais vous réveiller avec un résumé de votre calendrier et de vos e-mails non lus, ou stimuler votre créativité en demandant à Gemini de rédiger cinq idées pour votre blog chaque lundi. Restez informé en recevant des mises à jour sur votre équipe sportive préférée, ou programmez une tâche ponctuelle comme demander à Gemini de vous donner un résumé d'une cérémonie de remise de prix le lendemain de celle-ci. Il vous suffit de dire à Gemini ce dont vous avez besoin et quand, et il s'occupera du reste.

    Les actions programmées sont désormais disponibles pour les utilisateurs de l'application Gemini disposant d'un abonnement Google AI Pro ou Ultra et d'un forfait Google Workspace professionnel ou éducatif éligible.
    Source : Google

    Et vous ?

    Pensez-vous que cette fonctionnalité est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Google I/O 2025 : toutes les annonces majeures qu'il faut retenir de la conférence centrée sur l'IA. Google présente une architecture numérique tournée vers l'IA générative avec Gemini comme OS invisible

    Les nouveaux résumés IA de Gmail s'affichent désormais automatiquement sur mobile. L'application Gmail créera désormais des résumés IA, que vous le souhaitiez ou non

    Gemini 2.5 Flash et Pro s'étend sur Vertex AI pour favoriser une innovation plus sophistiquée et plus sûre en matière d'IA grâce aux résumés des réflexions, au mode Deep Think et à la sécurité avancée
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  9. #9
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 340
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 340
    Par défaut Google peut désormais générer un faux podcast IA à partir de vos résultats de recherche
    Google peut désormais générer un faux podcast IA à partir de vos résultats de recherche, Audio Overviews est une fonctionnalité expérimentale qui utilise Gemini pour générer des aperçus audio rapides.

    Google peut désormais générer un faux podcast IA à partir de vos résultats de recherche : Audio Overviews est une nouvelle fonctionnalité expérimentale qui utilise les derniers modèles Gemini pour générer des aperçus audio rapides. L'idée est de fournir une "vue d'ensemble" des sujets que vous ne connaissez pas bien. Cette fonctionnalité peut également être utilisée pour "absorber des informations, que vous soyez en train d'effectuer plusieurs tâches à la fois ou que vous préfériez simplement une expérience audio."

    Début juin 2025, Google a annoncé une préversion améliorée de Gemini 2.5 Pro. Cette mise à jour du modèle s'appuie sur la version I/O Edition de 2.5 Pro du mois de mai, qui apportait des améliorations en matière de codage. Cette avance en matière de codage se poursuit avec la version 06-05 dans des benchmarks tels que AIDER Polyglot, tandis que l'on observe "des performances de premier ordre sur GPQA et Humanity's Last Exam (HLE), des benchmarks très exigeants qui évaluent les capacités d'un modèle en mathématiques, en sciences, en connaissances et en raisonnement".

    Après NotebookLM, l'application Gemini et Discover's Daily Listen, Google a annoncé Audio Overviews dans les résultats de recherche Google dans le cadre d'une nouvelle fonctionnalité expérimentale de Search Labs. Dans Google Search, Audio Overviews utilisera les modèles Gemini pour "générer des aperçus audio rapides et conversationnels pour certaines requêtes de recherche". L'idée est de fournir une "vue d'ensemble" des sujets que vous ne connaissez pas bien. Cette fonctionnalité peut également être utilisée pour "absorber des informations, que vous soyez en train d'effectuer plusieurs tâches à la fois ou que vous préfériez simplement une expérience audio."

    Nom : 1.jpg
Affichages : 4548
Taille : 43,8 Ko

    L'exemple fourni par Google est "comment fonctionnent les casques à réduction de bruit". Faites défiler la page de résultats jusqu'au bouton "Générer un aperçu audio". Cela peut prendre jusqu'à 40 secondes, Google utilisant les deux mêmes voix/formats que pour les autres expériences. Vous disposerez d'un lecteur audio simple avec des commandes de lecture/pause, de contrôle du volume avec mise en sourdine rapide et de vitesse de lecture réglable (de 0,25x à 2x). Une option "Basé sur [x] sites" situé en dessous vous permet d'en savoir plus, tout en pouvant donner votre avis positif ou négatif. Cette fonctionnalité est disponible sur mobile et sur ordinateur pour l'anglais américain.

    Pour rappel, en mars 2025, Google a doté son chatbot Gemini d'une nouvelle capacité qui s'inscrit dans le cadre de ses efforts visant à utiliser l'IA pour réinventer la recherche. Cette fonctionnalité permet à Gemini d'accéder à l'historique de vos recherches sur Google, ce qui, selon Google, aide le chatbot à produire des résultats plus personnalisés. Si vous lui en donnez l'accès, l'IA utilisera prétendument ces données sensibles pour vous proposer des recommandations plus pertinentes.

    Voici l'annonce de Google :

    Obtenez un aperçu audio des résultats de recherche dans Labs, puis cliquez pour en savoir plus.

    Aujourd'hui, nous lançons une nouvelle expérience de recherche dans Labs : les aperçus audio, qui utilisent nos derniers modèles Gemini pour générer des aperçus audio rapides et conversationnels pour certaines requêtes de recherche. Vous recherchez un sujet que vous ne connaissez pas bien ? Un aperçu audio peut vous aider à vous faire une idée générale, en vous offrant un moyen pratique et mains libres d'absorber des informations, que vous soyez en train d'effectuer plusieurs tâches à la fois ou que vous préfériez simplement une expérience audio.

    Vous souhaitez approfondir un sujet ? Nous affichons des pages web utiles directement dans le lecteur audio de la page de résultats de recherche afin que vous puissiez facilement vous plonger dans le sujet et en savoir plus.

    Pour l'essayer, participez à l'expérience dans Labs. Lorsque nos systèmes déterminent que cela peut être utile, vous verrez apparaître une option sur la page de résultats de recherche que vous pouvez sélectionner pour générer un bref aperçu audio sur le sujet de votre requête. Vous pouvez donner votre avis sur chaque discussion et sur l'expérience dans son ensemble dans Labs.

    Source : Google

    Et vous ?

    Pensez-vous que cette fonctionnalité est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Google I/O 2025 : toutes les annonces majeures qu'il faut retenir de la conférence centrée sur l'IA. Google présente une architecture numérique tournée vers l'IA générative avec Gemini comme OS invisible

    Google Gemini peut désormais scanner vos images privées et vos captures d'écran pour vous localiser et suivre vos déplacements afin d'alimenter son IA, ce qui vous aidera à planifier vos voyages, selon Google

    Google commence à déployer la fonctionnalité "Actions programmées" dans l'IA Gemini afin de permettre aux utilisateurs abonnés de demander à l'assistant IA d'effectuer des tâches à des moments précis
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  10. #10
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 340
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 340
    Par défaut Google a annoncé une importante expansion de sa gamme de modèles d'IA Gemini et dévoile Gemini 2.5 Flash-Lite
    Google a annoncé une importante expansion de sa gamme de modèles d'IA Gemini et dévoile Gemini 2.5 Flash-Lite, un modèle hautement efficace, tout en rendant 2.5 Flash et 2.5 Pro disponibles pour tous.

    Google a annoncé la mise à disposition générale de ses modèles d'IA Gemini 2.5 Flash et Gemini 2.5 Pro, les rendant stables pour les applications de production. Cette expansion de la famille Gemini 2.5 comprend également le dévoilement d'un aperçu de Gemini 2.5 Flash-Lite, positionné comme le modèle le plus rentable et le plus rapide de la série. Google affirme notamment : "Nous avons conçu Gemini 2.5 pour être une famille de modèles de raisonnement hybrides offrant des performances exceptionnelles, tout en se situant à la frontière de Pareto en termes de coût et de vitesse."

    Au début du mois, Google a publié une "préversion améliorée" 06-05 de Gemini 2.5 Pro qui serait bientôt disponible dans les semaines à venir. Google note que la version 06-05 affiche "une augmentation de 24 points du score Elo sur LMArena", avec un score de 1470, tandis qu'elle affiche "une augmentation de 35 points du score Elo, ce qui la place en tête sur WebDevArena avec un score de 1443".

    Récemment, Google a annoncé la mise à disposition générale de ses modèles d'IA Gemini 2.5 Flash et Gemini 2.5 Pro, les rendant stables pour les applications de production. Cette expansion de la famille Gemini 2.5 comprend également le dévoilement d'un aperçu de Gemini 2.5 Flash-Lite, positionné comme le modèle le plus rentable et le plus rapide de la série. Le passage de Gemini 2.5 Flash et 2.5 Pro de la phase d'avant-première à la disponibilité générale fait suite à une période de commentaires approfondis de la part des développeurs et des entreprises. Des sociétés telles que Snap, SmartBear, Spline et Rooms ont déjà intégré ces modèles dans leurs applications.

    "Nous avons conçu Gemini 2.5 pour être une famille de modèles de raisonnement hybrides offrant des performances exceptionnelles, tout en se situant à la frontière de Pareto en termes de coût et de vitesse. Aujourd'hui, nous franchissons une nouvelle étape avec nos modèles 2.5 Pro et Flash en les rendant stables et disponibles pour tous. Et nous vous proposons 2.5 Flash-Lite en avant-première, notre modèle 2.5 le plus rentable et le plus rapide à ce jour", a annoncé Google.

    Le tout nouveau Gemini 2.5 Flash-Lite est le dernier-né des produits d'IA de Google, conçu pour les charges de travail où la vitesse et l'efficacité sont primordiales. Ce modèle léger est désormais disponible en avant-première, afin que les développeurs puissent évaluer ses capacités et faire part de leurs commentaires. Selon Google, la conception de Flash-Lite donne la priorité à la latence, offrant des réponses plus rapides tout en consommant moins de ressources informatiques. Cela en fait une option viable pour les applications à grande échelle où la rentabilité et la rapidité de traitement sont des considérations majeures.

    Malgré sa nature compacte, Flash-Lite conserve les fonctionnalités essentielles de la famille Gemini 2.5, notamment la prise en charge d'une fenêtre contextuelle d'un million de jetons, ce qui lui permet de traiter des documents, des conversations et des bases de code volumineux. Il s'intègre également à Google Search et aux outils d'exécution de code, traite les entrées multimodales et fournit des réponses précises pour diverses tâches.

    Nom : 0.jpg
Affichages : 5238
Taille : 118,9 Ko

    Tous les modèles de la série Gemini 2.5 sont basés sur une architecture Mixture-of-Experts (MoE). Cette conception permet aux modèles d'activer uniquement les réseaux neuronaux spécifiques pertinents pour une invite donnée, optimisant ainsi l'utilisation du matériel et contribuant à réduire les coûts d'inférence. De plus, les modèles Gemini 2.5 représentent la première génération formée à l'aide de la puce IA TPUv5p développée en interne par Google, utilisant des clusters équipés d'un nouveau logiciel pour atténuer les problèmes techniques pendant la formation.

    Gemini 2.5 Pro et Flash étant désormais disponibles pour le grand public, ils fournissent des modèles stables et prêts à l'emploi pour des tâches complexes telles que le codage avancé, le raisonnement complexe et la compréhension multimodale, ce qui peut être utile pour garantir la fiabilité et des performances constantes, tandis que les différents modèles (Pro pour la puissance, Flash pour la vitesse, Flash-Lite pour une efficacité extrême) permettent une meilleure optimisation des ressources en fonction des besoins spécifiques.

    Les développeurs peuvent accéder aux versions stables de Gemini 2.5 Flash et Pro via Google AI Studio, Vertex AI et l'application Gemini. L'aperçu de Gemini 2.5 Flash-Lite est disponible via Google AI Studio et Vertex AI. Des versions personnalisées de Flash et Flash-Lite ont également été intégrées à Google Search, étendant leurs capacités à diverses fonctionnalités d'IA liées à la recherche, où Google vise à utiliser le modèle le plus adapté à chaque requête.

    Les structures tarifaires de la famille Gemini 2.5 élargie reflètent les différentes capacités et les cas d'utilisation cibles de chaque modèle. Gemini 2.5 Flash-Lite est fixé à 0,10 $ par million de jetons d'entrée (pour le texte, les images ou la vidéo) et à 0,40 $ par million de jetons de sortie, ce qui en fait le point d'entrée le plus économique. Gemini 2.5 Flash coûte 0,30 $ par million de jetons d'entrée et 2,50 $ par million de jetons de sortie.

    Cette annonce semble confirmer les efforts de Google en matière d'IA. Pour rappel, en mai 2025, un rapport a montré que Google a dépassé IBM pour devenir le leader des brevets liés à l'IA générative et prend désormais la tête dans le domaine de l'IA agentique. Si les dépôts de brevets ne mesurent pas directement la qualité de l'innovation, ils constituent des indicateurs précieux des priorités de recherche et des investissements stratégiques. L'ascension de Google dans ces classements s'aligne sur ses initiatives plus larges en matière d'IA, y compris des investissements substantiels dans les technologies d'IA générative et agentique.


    Voici un extrait de l'annonce de Google :

    Nous sommes ravis de vous présenter aujourd'hui les mises à jour apportées à l'ensemble de notre gamme de modèles Gemini 2.5 :

    • Gemini 2.5 Pro est désormais disponible et stable (aucun changement par rapport à la préversion 06-05).
    • Gemini 2.5 Flash est désormais disponible et stable (aucun changement par rapport à la préversion 05-20, voir les mises à jour des tarifs).
    • Gemini 2.5 Flash-Lite est désormais disponible en avant-première.

    Les modèles Gemini 2.5 sont des modèles de réflexion, capables de raisonner avant de répondre, ce qui se traduit par des performances accrues et une précision améliorée. Chaque modèle contrôle son budget de réflexion, ce qui permet aux développeurs de choisir quand et combien le modèle « réfléchit » avant de générer une réponse.
    Nom : 1.jpg
Affichages : 838
Taille : 49,1 Ko

    Présentation de Gemini 2.5 Flash-Lite

    Gemini 2.5 Flash-Lite est maintenant dispponible en avant-première, avec la latence et le coût les plus bas de la famille de modèles 2.5. Il est conçu comme une mise à niveau rentable par rapport aux précédents modèles Flash 1.5 et 2.0. Il offre également de meilleures performances dans la plupart des évaluations, un temps de premier jeton plus court et un débit de décodage par seconde plus élevé. Ce modèle est idéal pour les tâches à haut débit telles que la classification ou la synthèse à grande échelle.

    Gemini 2.5 Flash-Lite est un modèle de raisonnement qui permet un contrôle dynamique du budget de réflexion à l'aide d'un paramètre API. Flash-Lite étant optimisé en termes de coût et de vitesse, la "réflexion" est désactivée par défaut, contrairement aux autres modèles. 2.5 Flash-Lite prend également en charge des outils natifs tels que Grounding with Google Search, Code Execution et URL Context, en plus de l'appel de fonctions.

    Nom : 2.jpg
Affichages : 838
Taille : 89,7 Ko

    Mises à jour de Gemini 2.5 Flash et tarification

    Lorsque 2.5 Flash a été initialement annoncé, les capacités de 2.5 Flash-Lite n'étaient pas encore finalisées. Google a donc annoncé un "prix avec réflexion" et un "prix sans réflexion", ce qui a semé la confusion chez les développeurs. Cependant, avec le déploiement de la version stable de Gemini 2.5 Flash, voici la tarification de 2.5 Flash :

    • 0,30 $ / 1 million de jetons d'entrée (*contre 0,15 $ auparavant)
    • 2,50 $ / 1 million de jetons de sortie (*contre 3,50 $ auparavant)
    • La différence de prix entre les modèles "avec réflexion" et "sans réflexion" a été supprimée.
    • Un prix unique, quelle que soit la taille des jetons d'entrée.


    Google commente notamment ce changement : "Bien que nous nous efforcions de maintenir une tarification cohérente entre les versions préliminaires et les versions stables afin de minimiser les perturbations, il s'agit d'un ajustement spécifique qui reflète la valeur exceptionnelle de Flash, qui offre toujours le meilleur rapport coût/intelligence disponible. Et avec Gemini 2.5 Flash-Lite, nous proposons désormais une option encore moins coûteuse (avec ou sans réflexion) pour les cas d'utilisation sensibles au coût et à la latence qui nécessitent moins d'intelligence du modèle."

    Nom : 3.jpg
Affichages : 841
Taille : 38,8 Ko

    Si vous utilisez Gemini 2.5 Flash Preview 04-17, le prix de la préversion existante restera en vigueur jusqu'à sa suppression prévue le 15 juillet 2025, date à laquelle le point de terminaison du modèle sera désactivé. Vous pouvez passer au modèle « gemini-2.5-flash » disponible en général, ou opter pour la version 2.5 Flash-Lite Preview, qui constitue une option moins coûteuse.


    Mise à jour de Gemini 2.5 Pro

    Google annonce que la version 06-05 est maintenant la version stable du modèle. Google affirme que cette version Pro sera "particulièrement utile dans les cas où vous avez besoin d'une intelligence et de capacités maximales, comme le codage et les tâches d'agent." Gemini 2.5 Pro est au cœur des outils de développement très appréciés.

    Nom : 4.jpg
Affichages : 838
Taille : 17,4 Ko

    Si vous utilisez la version 2.5 Pro Preview 05-06, le modèle restera disponible jusqu'au 19 juin 2025, puis sera désactivé. Si vous utilisez la version 2.5 Pro Preview 06-05, il vous suffit de mettre à jour votre chaîne de modèle en « gemini-2.5-pro ».


    Source : Annonce de Google

    Et vous ?

    Pensez-vous que cette annonce est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Google I/O 2025 : toutes les annonces majeures qu'il faut retenir de la conférence centrée sur l'IA. Google présente une architecture numérique tournée vers l'IA générative avec Gemini comme OS invisible

    Les agents IA basés sur le LLM obtiennent des résultats inférieurs à la moyenne lors des tests CRM standard et ne comprennent pas la nécessité de préserver la confidentialité des clients, selon Salesforce

    Google annonce en avant-première Gemma 3n, la dernière version de son modèle d'IA ouvert capable de fonctionner sur un seul GPU. Gemma 3n serait une IA puissante, efficace et mobile-first
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 136
    Dernier message: 05/05/2025, 15h04
  2. Réponses: 0
    Dernier message: 13/03/2025, 10h57
  3. Réponses: 4
    Dernier message: 14/06/2018, 09h05
  4. Réponses: 39
    Dernier message: 12/08/2017, 17h50
  5. Réponses: 44
    Dernier message: 17/09/2015, 09h02

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo