IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Google DeepMind a lancé Gemini 2.5 Pro, affirmant qu'il est le meilleur en raisonnement et en codage


Sujet :

Intelligence artificielle

  1. #1
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 297
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 297
    Par défaut Google DeepMind a lancé Gemini 2.5 Pro, affirmant qu'il est le meilleur en raisonnement et en codage
    Google DeepMind a lancé Gemini 2.5 Pro, un modèle d'IA qui raisonne avant de répondre, affirmant qu'il est le meilleur sur plusieurs critères de référence en matière de raisonnement et de codage

    Google DeepMind a lancé Gemini 2.5 Pro, citant des avancées majeures dans les capacités de raisonnement et de codage. Gemini 2.5 est un modèle de raisonnement conçu pour résoudre des problèmes de plus en plus complexes. Google affirme que son premier modèle 2.5, Gemini 2.5 Pro Experimental, est le meilleur dans les critères de référence courants par des marges significatives.

    Google DeepMind ou DeepMind est un laboratoire de recherche en intelligence artificielle (IA) américano-britannique qui sert de filiale à Alphabet. Fondé au Royaume-Uni en 2010, il a été acquis par Google en 2014 et a fusionné avec la division Google Brain de Google AI pour devenir Google DeepMind en avril 2023. DeepMind a développé Gemini qui est le produit d'IA phare de Google.

    Le 25 mars 2025, Google DeepMind a lancé Gemini 2.5 Pro, son dernier modèle d'IA, qui aurait surpassé ses concurrents dans plusieurs tests de mathématiques, de sciences et de raisonnement, y compris en obtenant le meilleur score sur le tableau de classement LMArena. Affirmant qu'il établit des normes industrielles en matière de raisonnement et de codage, Google DeepMind a présenté Gemini 2.5 Pro étant un nouveau modèle d'IA destiné à la résolution de problèmes complexes.

    Google qualifie ce modèle de "plus intelligent" à ce jour. Gemini 2.5 Pro a obtenu les meilleures notes dans les tests de mathématiques et de sciences tels que les ensembles de données Graduate-Level Physics Question Answering (GPQA) et American Invitational Mathematics Examination (AIME) 2025. Google DeepMind affirme que Gemini 2.5 Pro a obtenu un score de 18,8 % au "dernier examen de l'humanité", un test de référence créé par des experts en la matière pour évaluer la capacité de raisonnement de haut niveau des modèles d'IA sans outils externes.

    Selon l'entreprise, Gemini 2.5 Pro a surpassé son prédécesseur en termes de performances de codage. En utilisant une configuration d'agent personnalisée, il a atteint 63,8 % sur SWE-Bench Verified, un test de création et de modification de code piloté par l'IA. Selon Google, le modèle peut transformer des requêtes en applications web complètes et opérationnelles, ainsi qu'en code de jeu vidéo entièrement exécutable.

    Avec une fenêtre contextuelle d'un million de jetons, le modèle peut traiter des quantités de données textuelles, audio, photographiques, vidéo et même des référentiels de code entiers. Google prévoit une future mise à jour avec une fenêtre contextuelle de 2 millions de jetons. S'appuyant sur l'approche précédente du "modèle de pensée" de l'entreprise, Gemini 2.5 utilise l'incitation à la chaîne de pensée et l'apprentissage par renforcement pour améliorer la capacité de prise de décision. Google a déclaré que le modèle 2.5 Pro combine ces techniques avec un nouveau modèle de base et un post-entraînement amélioré.

    Publié en tant que version expérimentale, Gemini 2.5 Pro est accessible via Google AI Studio et l'application Gemini pour les utilisateurs de Gemini Advanced. L'entreprise a déclaré qu'elle divulguerait prochainement les prix pour une utilisation accrue et rendrait disponible l'accès à Vertex AI de Google Cloud. Les développeurs et les utilisateurs professionnels peuvent donc désormais expérimenter Gemini 2.5 Pro.


    Voici la présentation de Gemini 2.5 Pro par Google :

    Nous présentons aujourd'hui Gemini 2.5, notre modèle d'IA le plus intelligent. Notre première version 2.5 est une version expérimentale de 2.5 Pro, qui est à la pointe de la technologie sur une large gamme de benchmarks et qui débute à la première place sur LMArena avec une marge significative.

    Les modèles Gemini 2.5 sont des modèles de raisonnement, capables de raisonner sur leurs pensées avant de répondre, ce qui se traduit par des performances et une précision accrues.

    Dans le domaine de l'IA, la capacité de « raisonnement » d'un système ne se limite pas à la classification et à la prédiction. Il s'agit de sa capacité à analyser les informations, à tirer des conclusions logiques, à intégrer le contexte et les nuances, et à prendre des décisions éclairées.

    Depuis longtemps, nous explorons les moyens de rendre l'IA plus intelligente et plus capable de raisonner grâce à des techniques telles que l'apprentissage par renforcement et l'incitation à la réflexion en chaîne. Sur cette base, nous avons récemment présenté notre premier modèle de raisonnement, Gemini 2.0 Flash Thinking.

    Aujourd'hui, avec Gemini 2.5, nous avons atteint un nouveau niveau de performance en combinant un modèle de base considérablement amélioré avec un post-entraînement plus performant. À l'avenir, nous intégrerons ces capacités de raisonnement directement dans tous nos modèles, afin qu'ils puissent traiter des problèmes plus complexes et prendre en charge des agents encore plus performants et conscients du contexte.


    Présentation de Gemini 2.5 Pro

    Gemini 2.5 Pro Experimental est notre modèle le plus avancé pour les tâches complexes. Il arrive en tête du classement LMArena - qui mesure les préférences humaines - avec une marge significative, ce qui indique un modèle très performant doté d'un style de haute qualité. 2.5 Pro présente également de solides capacités de raisonnement et de codage, en tête des tests de codage, de mathématiques et de sciences les plus courants.

    Gemini 2.5 Pro est disponible dès maintenant dans Google AI Studio et dans l'application Gemini pour les utilisateurs de Gemini Advanced, et sera bientôt disponible dans Vertex AI. Nous introduirons également une tarification dans les semaines à venir, permettant aux utilisateurs d'utiliser 2.5 Pro avec des limites de taux plus élevées pour une utilisation en production à grande échelle.

    Nom : 1.jpg
Affichages : 5729
Taille : 113,0 Ko

    Raisonnement amélioré

    Gemini 2.5 Pro est à la pointe de la technologie pour toute une série de tests nécessitant un raisonnement avancé. Sans les techniques de temps de test qui augmentent les coûts, comme le vote majoritaire, 2.5 Pro est en tête dans les tests de mathématiques et de sciences comme GPQA et AIME 2025.

    Il obtient également un score de pointe de 18,8 % sur l'ensemble des modèles sans utilisation d'outils dans Humanity's Last Exam, un ensemble de données conçu par des centaines d'experts en la matière pour capturer la frontière humaine de la connaissance et du raisonnement.

    Nom : 2.jpg
Affichages : 1426
Taille : 47,8 Ko

    Codage avancé

    Nous nous sommes concentrés sur les performances de codage et, avec Gemini 2.5, nous avons fait un grand bond en avant par rapport à la version 2.0 - avec d'autres améliorations à venir. 2.5 Pro excelle dans la création d'applications web visuellement attrayantes et d'applications de code agentique, ainsi que dans la transformation et l'édition de code. Sur SWE-Bench Verified, le standard de l'industrie pour les évaluations de code agentique, Gemini 2.5 Pro obtient un score de 63,8 % avec une configuration d'agent personnalisée.

    Voici un exemple de la façon dont 2.5 Pro peut utiliser ses capacités de raisonnement pour créer un jeu vidéo en produisant le code exécutable à partir d'une simple ligne d'invite.


    S'appuyer sur le meilleur de Gemini

    Gemini 2.5 s'appuie sur ce qui fait la force des modèles Gemini : la multimodalité native et une longue fenêtre contextuelle. La version 2.5 Pro est livrée dès aujourd'hui avec une fenêtre contextuelle de 1 million de jetons (bientôt 2 millions), avec des performances élevées qui s'améliorent par rapport aux générations précédentes. Il peut comprendre de vastes ensembles de données et traiter des problèmes complexes à partir de différentes sources d'information, y compris le texte, l'audio, les images, la vidéo et même des référentiels de code entiers.

    Les développeurs et les entreprises peuvent commencer à expérimenter Gemini 2.5 Pro dans Google AI Studio dès maintenant, et les utilisateurs de Gemini Advanced peuvent le sélectionner dans la liste déroulante des modèles sur les ordinateurs de bureau et les téléphones portables. Il sera disponible sur Vertex AI dans les semaines à venir.

    Comme toujours, nous apprécions les commentaires afin de pouvoir continuer à améliorer rapidement les nouvelles capacités impressionnantes de Gemini, dans le but de rendre notre IA plus utile.

    Et vous ?

    Pensez-vous que ce modèle est crédible ou pertinent ?
    Quel est votre avis sur l'annonce de Google

    Voir aussi :

    Google lance son nouveau modèle d'IA Gemini 2.0 pour pratiquement tout, qui promet d'être plus rapide et plus intelligent grâce aux progrès agentiques et offre des capacités avancées de sorties multimodales

    Anthropic annonce Claude 3.7 Sonnet, un modèle qui donne un contrôle sur le temps que l'IA passe à "réfléchir" avant de générer une réponse, et Claude Code, un agent IA de codage en ligne de commande

    OpenAI riposte à DeepSeek avec o3-mini, son nouveau modèle de raisonnement plus intelligent pour les utilisateurs payants et gratuits de ChatGPT. O3-mini est qualifié de « monstre de codage ultra-rapide »
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 649
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 649
    Par défaut Google a lancé une nouvelle fonctionnalité qui permet aux utilisateurs de générer des vidéos dans Gemini
    Google a lancé une nouvelle fonctionnalité qui permet aux utilisateurs de générer des vidéos dans Gemini et Whisk à l'aide de Veo 2, en convertissant du texte en vidéos haute résolution de huit secondes

    Google a introduit une nouvelle fonctionnalité qui permet aux utilisateurs de générer des vidéos dans Gemini et Whisk à l'aide de Veo 2. Cette fonctionnalité permet aux abonnés de Gemini Advanced de convertir des invites textuelles en vidéos haute résolution de huit secondes. En outre, les abonnés à Google One AI Premium peuvent utiliser Whisk Animate pour transformer des images en clips animés de huit secondes.

    Pour rappel, Google DeepMind a lancé Gemini 2.5 Pro, son dernier modèle d'intelligence artificielle (IA), en mars dernier. Selon l'entreprise, ce modèle établit des normes industrielles en matière de raisonnement et de codage et surpasse ses concurrents sur plusieurs benchmarks, dont le classement LMArena.

    À partir de ce 15 avril, les utilisateurs de Gemini Advanced peuvent produire et partager des vidéos à l'aide du modèle vidéo de pointe de Google, Veo 2. Cette fonctionnalité permet aux utilisateurs de convertir des invites textuelles en vidéos dynamiques dans Gemini.

    Google Labs a également mis Veo 2 à disposition des utilisateurs via Whisk, une expérience d'IA qui permet de créer de nouvelles images à l'aide d'invites textuelles et d'images, et de les animer pour en faire des vidéos.


    Comment créer des vidéos avec Gemini

    Le modèle Veo 2 de Google, conçu pour créer des vidéos détaillées en haute résolution avec un réalisme cinématographique, représente un bond en avant dans la génération de vidéos. Veo 2 réalise une compréhension de la physique du monde réel et des mouvements humains pour offrir des mouvements de personnages fluides, des scènes réalistes et des détails visuels plus fins sur des sujets et des styles variés.

    Pour générer des vidéos, les utilisateurs peuvent sélectionner Veo 2 dans le menu déroulant du modèle dans Gemini. Cette fonction permet de créer un clip vidéo de huit secondes à une résolution de 720p, livré sous la forme d'un fichier MP4 au format paysage 16:9. Le nombre de vidéos qu'un utilisateur peut créer est limité mensuellement, mais les utilisateurs seront avertis lorsqu'ils approcheront de cette limite.

    La création de vidéos avec Gemini est simple. Les utilisateurs décrivent simplement la scène qu'ils souhaitent créer - qu'il s'agisse d'une histoire courte, d'un concept visuel ou d'une scène spécifique - et Gemini donne vie à leurs idées. Plus la description est détaillée, plus l'utilisateur a le contrôle sur la vidéo finale. Cette fonctionnalité permet aux utilisateurs d'explorer plusieurs possibilités créatives amusantes, de laisser libre cours à leur imagination pour créer des combinaisons irréelles, d'explorer différents styles visuels, du réalisme à la fantaisie, ou de raconter rapidement de courtes idées visuelles.

    Nom : Google Veo fig 1.PNG
Affichages : 4223
Taille : 294,8 Ko

    Selon Google, l'une des meilleures parties de la création est le partage avec les autres. Le partage de vidéos sur mobile est facile, les utilisateurs n'ont qu'à appuyer sur le bouton de partage pour télécharger rapidement de courtes vidéos attrayantes sur des plateformes telles que TikTok et YouTube Shorts.

    La fonctionnalité de génération de vidéos est désormais déployée pour les abonnés de Gemini Advanced dans le monde entier sur le web et les mobiles, à partir du 15 avril et au cours des prochaines semaines. Cette fonction est disponible pour les abonnés Google One AI Premium dans toutes les langues prises en charge par Gemini.


    Comment Whisk Animate donne vie aux images

    Lancée en décembre 2024, Whisk est une expérience de Google Labs qui aide les utilisateurs à explorer et à visualiser rapidement de nouvelles idées à l'aide de textes et d'images. Les utilisateurs peuvent animer leurs créations grâce à Whisk Animate.

    Whisk Animate permet aux utilisateurs de transformer leurs images en vidéos de huit secondes à l'aide de Veo 2. L'outil est disponible dès maintenant pour les abonnés à Google One AI Premium dans le monde entier.

    Nom : Google Veo fig 2.PNG
Affichages : 761
Taille : 350,9 Ko

    Comment Google aborde la sécurité

    Google a pris des mesures importantes pour faire de la génération de vidéos une expérience sûre. Cela inclut des équipes d'experts et des évaluations approfondies visant à empêcher la génération de contenus qui enfreignent les règles de Google. En outre, toutes les vidéos générées avec Veo 2 sont marquées d'un SynthID, un filigrane numérique intégré à chaque image, qui indique que les vidéos sont générées par l'IA.

    Les résultats de Gemini sont principalement déterminés par les invites de l'utilisateur et, comme tout outil d'IA générative, il peut arriver qu'il génère un contenu que certaines personnes jugent inacceptable. Google a annoncé qu'elle continuera d'écouter les commentaires des utilisateurs par l'intermédiaire des boutons « pouce en l'air » et « pouce en bas » et apportera des améliorations constantes.

    Source : Google

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous cette initiative de Google crédible ou pertinente ?

    Voir aussi :

    Google Deepmind présente Veo 2, un nouvel outil de génération de vidéos par l'IA pour créer des "vidéos d'une qualité incroyable", dans le but de battre Sora d'OpenAI et d'être le meilleur modèle IA vidéo

    Google présente Veo, son modèle d'IA pour générer des vidéos haute définition, et Imagen 3, son modèle texte-image de haute qualité, ainsi que des enregistrements de démonstration créés avec Music AI Sandbox

    Google Gemini peut désormais scanner vos images privées et vos captures d'écran pour vous localiser et suivre vos déplacements afin d'alimenter son IA, ce qui vous aidera à planifier vos voyages, selon Google

    Les abonnés à l'IA Gemini Advanced de Google peuvent désormais faire appel aux conversations passées pour améliorer la précision des réponses, et permettre aux nouvelles discussions de ne plus repartir de zéro
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  3. #3
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 649
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 649
    Par défaut Google a lancé Gemini 2.5 Flash, offrant aux développeurs un contrôle sur le niveau de raisonnement de l'IA
    Google a lancé Gemini 2.5 Flash, une mise à jour majeure de sa famille d'IA, qui offre aux entreprises et aux développeurs un contrôle sans précédent sur le niveau de « raisonnement » de leur IA

    Google a lancé Gemini 2.5 Flash, une mise à jour majeure de sa famille d'intelligence artificielle (IA) qui donne aux entreprises et aux développeurs un contrôle sans précédent sur le degré de « raisonnement » de leur IA. Le nouveau modèle, disponible aujourd'hui en avant-première via Google AI Studio et Vertex AI, représente un effort stratégique pour offrir des capacités de raisonnement améliorées tout en maintenant des prix compétitifs sur le marché de l'IA, de plus en plus encombré.

    Ce développement fait suite au lancement par Google DeepMind de Gemini 2.5 Pro en mars 2025. Selon Google, ce modèle de raisonnement est conçu pour résoudre efficacement les problèmes complexes et se classe parmi les meilleurs sur plusieurs critères de référence en matière de raisonnement et de codage.

    Conçu pour résoudre plus efficacement les problèmes complexes, Gemini 2.5 Pro a surpassé expérimentalement les modèles concurrents sur plusieurs critères de référence, selon Google.

    Gemini 2.5 Flash introduit ce que Google appelle un « budget de raisonnement », un mécanisme qui permet aux développeurs de spécifier la puissance de calcul à allouer au raisonnement sur des problèmes complexes avant de générer une réponse. Cette approche vise à résoudre une tension fondamentale sur le marché actuel de l'IA : un raisonnement plus sophistiqué s'accompagne généralement d'une latence et d'une tarification plus élevées.

    « Nous savons que le coût et la latence sont importants pour un certain nombre de cas d'utilisation des développeurs, et nous voulons donc offrir aux développeurs la flexibilité d'adapter la quantité de raisonnement que le modèle effectue, en fonction de leurs besoins », a déclaré Tulsee Doshi, directeur de produit pour Gemini Models chez Google DeepMind.

    Cette flexibilité révèle l'approche pragmatique de Google en matière de déploiement de l'IA, alors que la technologie s'intègre de plus en plus dans des applications commerciales où la prévisibilité des coûts est essentielle.


    Le premier modèle de raisonnement entièrement hybride de Google

    En permettant d'activer ou de désactiver la capacité de raisonnement, Google a créé ce qu'il appelle son « premier modèle de raisonnement entièrement hybride ». Gemini 2.5 Flash s'appuye sur le modèle populaire 2.0 Flash de Google. Cette nouvelle version offre une amélioration majeure des capacités de raisonnement, tout en donnant la priorité à la vitesse et au coût. Le modèle permet également aux développeurs de définir des budgets de raisonnement afin de trouver le bon compromis entre la qualité, le coût et la latence. Selon Google, même si le raisonnement est désactivé, les développeurs peuvent conserver les vitesses rapides de Flash 2.0 et améliorer les performances.

    Les modèles Gemini 2.5 de Google sont des modèles de raisonnement, capables de réfléchir avant de répondre. Au lieu de générer immédiatement une sortie, le modèle 2.5 Flash peut effectuer un processus de « raisonnement » pour mieux comprendre l'invite, décomposer les tâches complexes et planifier une réponse. Pour les tâches complexes nécessitant plusieurs étapes de raisonnement (comme la résolution de problèmes mathématiques ou l'analyse de questions de recherche), le processus de raisonnement permet au modèle d'obtenir des réponses plus précises et plus complètes.

    Selon l'entreprise, Gemini 2.5 Flash obtient d'excellents résultats sur les questions difficiles dans LMArena, juste derrière 2.5 Pro.

    Nom : Google Gemini 2.5 Flash Fig 1.PNG
Affichages : 15390
Taille : 121,9 Ko
    2.5 Flash présente des caractéristiques comparables à celles d'autres modèles de premier plan pour une fraction du coût et de la taille.

    Ne payez que pour la matière grise dont vous avez besoin : Au cœur du nouveau modèle de tarification de l'IA de Google

    La nouvelle structure tarifaire met en évidence le coût du raisonnement dans les systèmes d'IA actuels. Lorsqu'ils utilisent Gemini 2.5 Flash, les développeurs paient 0,15 dollar par million de jetons pour les données d'entrée. Les coûts de sortie varient considérablement en fonction des paramètres de raisonnement : 0,60 $ par million de jetons avec le raisonnement désactivé, passant à 3,50 $ par million de jetons avec le raisonnement activé.

    Cette différence de prix de près de six fois pour les sorties raisonnées reflète l'intensité informatique du processus de « raisonnement », au cours duquel le modèle évalue plusieurs voies et considérations potentielles avant de générer une réponse.

    « Les clients paient pour tous les jetons de raisonnement et de sortie que le modèle génère », a déclaré Doshi. « Dans l'interface utilisateur d'AI Studio, vous pouvez voir ces réflexions avant la réponse. Dans l'API, nous ne donnons actuellement pas accès aux réflexions, mais un développeur peut voir combien de jetons ont été générés. »

    Le budget de raisonnement peut être ajusté de 0 à 24 576 jetons, fonctionnant comme une limite maximale plutôt que comme une allocation fixe. Selon Google, le modèle détermine intelligemment la part de ce budget à utiliser en fonction de la complexité de la tâche, en préservant les ressources lorsqu'un raisonnement élaboré n'est pas nécessaire.

    Nom : Google Gemini 2.5 Flash Fig 2.PNG
Affichages : 2991
Taille : 70,2 Ko
    Gemini 2.5 Flash ajoute un autre modèle à la frontière de pareto de Google entre le coût et la qualité.

    Des contrôles fins pour gérer le raisonnement

    Google a reconnu que les différents cas d'utilisation ont des compromis différents en termes de qualité, de coût et de latence. Pour donner de la flexibilité aux développeurs, l'entreprise a permis de définir un budget de raisonnement qui offre un contrôle fin sur le nombre maximum de jetons qu'un modèle peut générer pendant qu'il raisonne. Un budget plus élevé permet notamment au modèle de raisonner davantage pour améliorer la qualité. Google souligne que le budget fixe un plafond à la quantité de raisonnement de 2.5 Flash, mais le modèle n'utilise pas la totalité du budget si l'invite ne l'exige pas.

    Gemini 2.5 Flash est entraîné à savoir combien de temps il doit réfléchir pour une invite donnée et décide donc automatiquement de la quantité de raisonnement à effectuer en fonction de la complexité perçue de la tâche.

    Si un utilisateur souhaite conserver les coûts et la latence les plus bas tout en améliorant les performances par rapport à Flash 2.0, il peut fixer le budget de raisonnement à 0. Il peut également choisir de fixer un budget de jetons spécifique pour la phase de raisonnement à l'aide d'un paramètre dans l'API ou du curseur dans Google AI Studio et dans Vertex AI. Le budget peut aller de 0 à 24576 jetons pour 2,5 Flash.

    Nom : Google Gemini 2.5 Flash Fig 3.PNG
Affichages : 2983
Taille : 30,0 Ko
    Amélioration de la qualité du raisonnement à mesure que le budget de raisonnement augmente.

    Les invites suivantes illustrent la quantité de raisonnement qui peut être utilisée dans le mode par défaut de 2.5 Flash.

    Invites nécessitant un faible raisonnement :

    Exemple 1 : « Merci » en espagnol
    Exemple 2 : Combien de provinces compte le Canada ?

    Invites nécessitant un raisonnement moyen :

    Exemple 1 : Vous lancez deux dés. Quelle est la probabilité que le total soit de 7 ?
    Exemple 2 : Mon club de sport propose des heures de ramassage pour le basket-ball entre 9 et 15 heures le lundi matin et entre 14 et 20 heures le mardi et le samedi. Si je travaille de 9 à 18 heures, 5 jours par semaine, et que je veux jouer 5 heures au basket-ball en semaine, créez un emploi du temps qui me permette de faire tout cela.

    Questions nécessitant un raisonnement poussé :

    Exemple 1 : Une poutre en porte-à-faux de longueur L=3m a une section rectangulaire (largeur b=0,1m, hauteur h=0,2m) et est fabriquée en acier (E=200 GPa). Elle est soumise à une charge uniformément répartie w=5 kN/m sur toute sa longueur et à une charge ponctuelle P=10 kN à son extrémité libre. Calculer la contrainte de flexion maximale (σ_max).

    Exemple 2 : écrire une fonction evaluate_cells(cells : Dict[str, str]) -> Dict[str, float] qui calcule les valeurs des cellules d'une feuille de calcul.

    Chaque cellule contient :

    • Un nombre (par exemple, "3")
    • Ou une formule comme "=A1 + B1 * 2" utilisant +, -, *,/ et d'autres cellules.

    Exigences :

    • Résoudre les dépendances entre les cellules.
    • Gérer la précédence des opérateurs (*/ avant +-).
    • Détecter les cycles et lever ValueError(« Cycle détecté à <cellule> »).
    • Pas d'eval(). N'utiliser que les bibliothèques intégrées.

    Commencez à construire avec Gemini 2.5 Flash dès maintenant

    Gemini 2.5 Flash avec des capacités de raisonnement est désormais disponible en avant-première via l'API Gemini dans Google AI Studio et dans Vertex AI, et dans un menu déroulant dédié dans l'application Gemini. Google a encouragé les utilisateurs à expérimenter le paramètre thinking_budget et à découvrir comment le raisonnement contrôlable peut les aider à résoudre des problèmes plus complexes. L'entreprise a également indiqué qu'elle continuera à améliorer Gemini 2.5 Flash avant de la rendre disponible pour une utilisation en production complète.

    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    from google import genai
     
    client = genai.Client(api_key="GEMINI_API_KEY")
     
    response = client.models.generate_content(
      model="gemini-2.5-flash-preview-04-17",
      contents="You roll two dice. What’s the probability they add up to 7?",
      config=genai.types.GenerateContentConfig(
        thinking_config=genai.types.ThinkingConfig(
          thinking_budget=1024
        )
      )
    )
     
    print(response.text)

    Le lancement de Gemini 2.5 Flash fait suite à une période de turbulences pour Google, marquée par les critiques publiques de son PDG à l'encontre de l'outil d'IA Gemini. Dans une note adressée aux employés en février 2024, Sundar Pichai a qualifié les erreurs de diversité commises par Gemini de totalement inacceptables. A l'époque, les réponses biaisées générées par le modèle ont déclenché des réactions négatives de la part des utilisateurs et fait perdre 90 milliards de dollars à la valeur boursière de l'entreprise.

    Source : Google

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous cette initiative de Google crédible ou pertinente ?

    Voir aussi :

    L'outil d'IA de codage de Google Gemini est désormais gratuit pour les utilisateurs individuels, et fournit 90 fois plus de complétions de code par mois que la version gratuite de GitHub Copilot

    L'IA Gemini de Google peut désormais consulter votre historique de recherche pour personnaliser ses réponses, mais la fonction suscite des préoccupations en matière de protection de la vie privée

    Google annonce Sec-Gemini v1, un nouveau modèle expérimental d'IA conçu pour aider les professionnels de la sécurité à lutter contre les cybermenaces grâce à des données en temps réel et un raisonnement avancé
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  4. #4
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 649
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 649
    Par défaut Google DeepMind présente l'IA super-avancée AlphaEvolve, un agent de codage alimenté par Gemini
    Google DeepMind présente l'IA super-avancée AlphaEvolve, un agent de codage alimenté par Gemini pour la conception d'algorithmes avancés

    Google DeepMind a dévoilé AlphaEvolve, un puissant agent de codage intelligence artificielle (IA) alimenté par Gemini, pour la découverte et l'optimisation d'algorithmes avancés. AlphaEvolve associe les capacités créatives de résolution de problèmes des modèles Gemini de Google à des évaluateurs automatisés qui vérifient les réponses, et utilise un cadre évolutif pour améliorer les idées les plus prometteuses.

    Cette initiative voit le jour un mois à peine après que Google a lancé Gemini 2.5 Flash, une mise à jour majeure de sa famille d'IA Gemini, qui offre un contrôle avancé sur le niveau de raisonnement de l'IA. Conçu pour résoudre plus efficacement les problèmes complexes, Gemini 2.5 Pro a surpassé expérimentalement les modèles concurrents sur plusieurs critères de référence, selon l'entreprise.

    La division de recherche DeepMind de Google affirme que AlphaEvolve, son dernier agent d'intelligence artificielle, marque une étape importante dans l'utilisation de la technologie pour résoudre les grands problèmes en mathématiques et en sciences. Le système, baptisé AlphaEvolve, est basé sur les LLM Gemini de l'entreprise, avec l'ajout d'une approche « évolutive » qui évalue et améliore les algorithmes à travers une gamme de cas d'utilisation.

    AlphaEvolve est essentiellement un agent de codage IA, mais il va plus loin qu'un chatbot Gemini standard. Lorsqu'un utilisateur échange avec Gemini, le risque d'hallucination est toujours présent, l'IA inventant des détails en raison de la nature non déterministe de la technologie sous-jacente. AlphaEvolve utilise quant à lui une approche intéressante pour augmenter sa précision lorsqu'il traite des problèmes algorithmiques complexes.


    Selon DeepMind, cette IA utilise un système d'évaluation automatique. Lorsqu'un chercheur interagit avec AlphaEvolve, il saisit un problème avec des solutions possibles et des pistes à explorer. Le modèle génère plusieurs solutions possibles, en utilisant Gemini Flash et le modèle plus détaillé Gemini Pro, puis chaque solution est analysée par l'évaluateur. Un cadre évolutif permet à AlphaEvolve de se concentrer sur la meilleure solution et de l'améliorer.

    La plupart des anciens systèmes d'IA de Google DeepMind, par exemple le système de repliement des protéines AlphaFold, ont été formés de manière approfondie sur un seul domaine de connaissances. AlphaEvolve, en revanche, est plus dynamique. DeepMind affirme qu'AlphaEvolve est une IA polyvalente qui peut aider la recherche dans n'importe quel problème de la programmation ou de l'algorithmique.

    Google a déjà commencé à déployer AlphaEvolve dans son entreprise, avec des résultats positifs. L'IA AlphaEvolve de DeepMind a optimisé le planificateur du cluster Borg de Google, réduisant l'utilisation globale des ressources informatiques de 0,7 %, ce qui représente une économie importante à l'échelle de Google. Elle a également surpassé l'IA spécialisée AlphaTensor en découvrant un algorithme plus efficace pour multiplier les matrices à valeurs complexes. En outre, AlphaEvolve a proposé des optimisations au niveau du matériel pour la prochaine génération de puces Tensor de Google.

    L'IA reste à ce jour trop complexe pour être diffusée au grand public, mais cela pourrait changer à l'avenir, à mesure qu'elle sera intégrée dans des outils de recherche plus petits.

    Concevoir de meilleurs algorithmes avec de grands modèles de langage

    En 2023, Google a montré pour la première fois que les grands modèles de langage peuvent générer des fonctions écrites dans un code informatique pour aider à découvrir de nouvelles connaissances prouvées correctes sur un problème scientifique ouvert. AlphaEvolve est un agent qui peut aller au-delà de la découverte d'une seule fonction pour faire évoluer des bases de code entières et développer des algorithmes beaucoup plus complexes.

    AlphaEvolve s'appuie sur un ensemble de grands modèles de langage à la pointe de la technologie : le modèle le plus rapide et le plus efficace de Google, Gemini Flash, maximise l'étendue des idées explorées, tandis que son modèle le plus puissant, Gemini Pro, fournit une profondeur critique avec des suggestions perspicaces. Ensemble, ces modèles proposent des programmes informatiques qui mettent en œuvre des solutions algorithmiques sous forme de code.

    Nom : Google AlphaEvolve Fig 1.PNG
Affichages : 33030
Taille : 128,5 Ko

    Selon DeepMind, AlphaEvolve vérifie, exécute et note les programmes proposés en utilisant des mesures d'évaluation automatisées. Ces mesures fournissent une évaluation objective et quantifiable de la précision et de la qualité de chaque solution. Ceci rend AlphaEvolve particulièrement utile dans une large gamme de domaines où le progrès peut être clairement et systématiquement mesuré, comme en mathématiques et en informatique.

    Optimiser l'écosystème de calcul de Google

    Au cours de l'année écoulée, Google a déployé des algorithmes découverts par AlphaEvolve à travers son écosystème informatique, y compris ses centres de données, son matériel et ses logiciels. L'impact de chacune de ces améliorations est multiplié à travers l'infrastructure d'IA et de calcul de Google afin de construire un écosystème numérique plus puissant et plus durable pour tous ses utilisateurs.

    Nom : Google AlphaEvolve Fig 2.PNG
Affichages : 7337
Taille : 77,0 Ko

    Améliorer la planification des centres de données

    AlphaEvolve a découvert une heuristique simple mais remarquablement efficace pour aider Borg à orchestrer plus efficacement les vastes centres de données de Google. Cette solution, en production depuis plus d'un an, récupère continuellement, en moyenne, 0,7 % des ressources informatiques mondiales de Google, indique l'entreprise. Ce gain d'efficacité durable signifie qu'à tout moment, plus de tâches peuvent être accomplies sur la même empreinte informatique. La solution d'AlphaEvolve ne conduit pas seulement à une forte performance mais offre également des avantages opérationnels significatifs du code lisible par l'homme : interprétabilité, débogage, prévisibilité et facilité de déploiement.

    Aider à la conception matérielle

    AlphaEvolve a proposé une réécriture de Verilog qui supprime les bits inutiles dans un circuit arithmétique clé et hautement optimisé pour la multiplication de matrices. De manière cruciale, la proposition doit passer par des méthodes de vérification robustes pour confirmer que le circuit modifié conserve sa correction fonctionnelle. Cette proposition a été intégrée dans une prochaine Tensor Processing Unit (TPU), l'accélérateur d'IA personnalisé de Google. En suggérant des modifications dans le langage standard des concepteurs de puces, AlphaEvolve favorise une approche collaborative entre les ingénieurs en IA et les ingénieurs en matériel afin d'accélérer la conception de futures puces spécialisées.

    Améliorer l'entraînement et l'inférence de l'IA

    Selon DeepMind, AlphaEvolve accélère les performances de l'IA et la vitesse de la recherche. En trouvant des moyens plus intelligents de diviser une grande opération de multiplication de matrice en sous-problèmes plus faciles à gérer, AlphaEvolve a accéléré ce noyau vital de l'architecture de Gemini de 23 %, ce qui a permis de réduire de 1 % le temps d'apprentissage de Gemini. Étant donné que le développement de modèles d'IA générative nécessite des ressources informatiques considérables, chaque gain d'efficacité se traduit par des économies considérables.

    Au-delà des gains de performance, l'entreprise précise qu'AlphaEvolve a également réduit considérablement le temps d'ingénierie nécessaire à l'optimisation du noyau, passant de semaines d'efforts d'experts à des jours d'expériences automatisées, permettant ainsi aux chercheurs d'innover plus rapidement.

    AlphaEvolve a permis en outre d'optimiser les instructions de bas niveau du GPU. Ce domaine complexe est généralement déjà fortement optimisé par les compilateurs, de sorte que les ingénieurs humains ne le modifient généralement pas directement. Selon Google, AlphaEvolve a atteint une vitesse de 32,5 % pour l'implémentation du noyau FlashAttention dans les modèles d'IA basés sur Transformer. Ce type d'optimisation aide les experts à identifier les goulets d'étranglement en matière de performance et à intégrer facilement les améliorations dans leur base de code, ce qui stimule leur productivité et leur permet de réaliser des économies futures en termes de calcul et d'énergie, précise l'entreprise.

    Faire avancer les frontières des mathématiques et de la découverte d'algorithmes

    Google DeepMind indique que AlphaEvolve peut également proposer de nouvelles approches pour résoudre des problèmes mathématiques complexes. A partir d'un squelette de code minimal pour un programme informatique, AlphaEvolve a conçu de nombreux composants d'une nouvelle procédure d'optimisation basée sur le gradient qui a permis de découvrir de nombreux nouveaux algorithmes pour la multiplication de matrices, un problème fondamental en informatique.

    Nom : Google AlphaEvolve Fig 3.PNG
Affichages : 7323
Taille : 156,7 Ko
    A list of changes proposed by AlphaEvolve to discover faster matrix multiplication algorithms. In this example, AlphaEvolve proposes extensive changes across several components, including the optimizer and weight initialization, the loss function, and hyperparameter sweep. These changes are highly non-trivial, requiring 15 mutations during the evolutionary process.

    La procédure d'AlphaEvolve a trouvé un algorithme pour multiplier 4x4 matrices à valeurs complexes en utilisant 48 multiplications scalaires, améliorant l'algorithme de Strassen de 1969 qui était auparavant connu comme le meilleur dans ce domaine. Cette découverte constitue une avancée significative par rapport au travail précédent de Google, AlphaTensor, qui se spécialisait dans les algorithmes de multiplication de matrices et qui, pour les matrices 4x4, n'avait trouvé d'améliorations que pour l'arithmétique binaire.

    Pour étudier l'étendue d'AlphaEvolve, Google a appliqué le système à plus de 50 problèmes ouverts en analyse mathématique, géométrie, combinatoire et théorie des nombres. La flexibilité du système a permis de mettre en place la plupart des expériences en l'espace de quelques heures.

    L'entreprise rapporte que dans environ 75 % des cas, AlphaEvolve a redécouvert des solutions de pointe. Et dans 20 % des cas, l'IA a amélioré les meilleures solutions connues précédemment, en progressant sur les problèmes ouverts correspondants. Par exemple, AlphaEvolve a fait progresser le problème du nombre de baisers. Ce défi géométrique, qui fascine les mathématiciens depuis plus de 300 ans, concerne le nombre maximal de sphères non superposées qui touchent une sphère unitaire commune. Selon Google, AlphaEvolve a découvert une configuration de 593 sphères extérieures et a établi une nouvelle limite inférieure en 11 dimensions.

    Trajectoire future

    Google affirme qu'AlphaEvolve illustre la progression de la découverte d'algorithmes pour des domaines spécifiques vers le développement d'algorithmes plus complexes pour un large éventail de défis du monde réel. L'entreprise s'attend à ce qu'AlphaEvolve continue de s'améliorer en même temps que les capacités des grands modèles de langage, en particulier lorsqu'ils deviendront encore plus performants en matière de codage.

    En collaboration avec l'équipe de recherche People + AI, Google a construit une interface utilisateur conviviale pour interagir avec AlphaEvolve. Elle prévoit un programme d'accès anticipé pour les utilisateurs universitaires sélectionnés et explore également les possibilités de rendre AlphaEvolve plus largement disponible.

    Bien qu'AlphaEvolve soit actuellement appliqué aux mathématiques et à l'informatique, Google indique que sa nature généraliste signifie qu'il peut être appliqué à n'importe quel problème dont la solution peut être décrite comme un algorithme, et vérifiée automatiquement. Google pense qu'AlphaEvolve pourrait être transformateur dans de nombreux autres domaines tels que la science des matériaux, la découverte de médicaments, la durabilité et des applications technologiques et commerciales plus larges.

    Source : Google DeepMind

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous cette initiative de Google DeepMind crédible ou pertinente ?

    Voir aussi :

    L'outil d'IA de codage de Google Gemini est désormais gratuit pour les utilisateurs individuels, et fournit 90 fois plus de complétions de code par mois que la version gratuite de GitHub Copilot

    L'IA AlphaFold résout un problème scientifique vieux de 50 ans grâce à une "avancée stupéfiante" qui pourrait changer radicalement la manière dont l'organisme humain lutte contre les maladies

    Google lance le premier "système d'agents d'IA" au monde, le projet Oscar, une plateforme open-source qui permet aux équipes de développement d'utiliser des agents d'IA pour gérer des projets logiciels
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  5. #5
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 297
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 297
    Par défaut Gemini 2.5 Flash et Pro s'étend sur Vertex AI avec les résumés des réflexions et le Mode Deep Think
    Gemini 2.5 Flash et Pro s'étend sur Vertex AI pour favoriser une innovation plus sophistiquée et plus sûre en matière d'IA grâce aux résumés des réflexions, au mode Deep Think et à la sécurité avancée.

    Lors de la conférence annuelle des développeurs Google I/O, Google a annoncé Deep Think, un mode de raisonnement "amélioré" pour Gemini 2.5 Pro qui montre des compétences "incroyables" en matière de mathématiques complexes et de codage. L'entreprise a également annoncé des améliorations pour Pro ainsi que pour Gemini 2.5 Flash, le deuxième de ses modèles "les plus intelligents". Google a indiqué qu'il avait "considérablement augmenté les protections" contre les menaces pour ces modèles.

    Cette année, Google a lancé successivement Gemini 2.5 Pro et Gemini 2.5 Flash. Gemini 2.5 Pro est un modèle de raisonnement conçu pour résoudre efficacement les problèmes complexes, tandis que Gemini 2.5 Flash un modèle qui donnerait aux entreprises et aux développeurs un contrôle sans précédent sur le degré de "raisonnement" de leur IA. Les nouveaux modèles représentent un effort stratégique pour offrir des capacités de raisonnement améliorées tout en maintenant des prix compétitifs sur le marché de l'IA, de plus en plus encombré.

    Récemment, Google a présenté le nouveau mode Deep Think de Gemini. L'entreprise a dévoilé la dernière option de Google Gemini 2.5 Pro lors de la conférence Google I/O 2025, montrant ce que son IA peut faire avec plus de profondeur. Le mode Deep Think permet d'ajouter "plus d'intelligences" à l'IA Gemini. En mode Deep Think, Gemini ne se contente pas de sortir une réponse à une requête aussi rapidement que possible. Au lieu de cela, il lance plusieurs lignes de raisonnement possibles en parallèle avant de décider de la réponse à donner. C'est un peu l'équivalent pour l'IA de regarder dans les deux sens ou de relire les instructions avant de construire un meuble.

    Et si l'on en croit les tests de Google, la puissance cérébrale de Deep Think fonctionne. Il obtient des résultats de premier ordre à l'olympiade américaine de mathématiques 2025, se classe en tête du test de programmation compétitif LiveCodeBench et obtient un score étonnamment élevé de 84 % au populaire MMMU, une sorte de décathlon de tâches de raisonnement multimodal.

    Nom : 1.jpg
Affichages : 3262
Taille : 39,1 Ko

    À l'occasion de la conférence Google I/O, Google a notamment annoncé :

    • Résumés des réflexions : Pour l'IA d'entreprise, Google apporte de la clarté et de la vérifiabilité grâce aux résumés des pensées. Cette fonctionnalité organise les pensées brutes d'un modèle, y compris les détails clés et l'utilisation des outils, dans un format clair. Les clients peuvent désormais valider des tâches d'IA complexes, s'assurer de l'alignement avec la logique de l'entreprise et simplifier considérablement le débogage, ce qui permet d'obtenir des systèmes d'IA plus fiables et plus sûrs.

    • Mode Deep Think : L'utilisation de nouvelles techniques de recherche qui permettent au modèle d'envisager plusieurs hypothèses avant de répondre, aidera Gemini 2.5 Pro à s'améliorer encore. Ce mode de raisonnement amélioré est conçu pour des cas d'utilisation très complexes tels que les mathématiques et le codage.

    • Sécurité avancée : Google a augmenté le taux de protection de Gemini contre les attaques par injection indirecte pendant l'utilisation de l'outil, un facteur critique pour l'adoption par les entreprises.



    Gemini 2.5 Flash sera disponible pour tous les utilisateurs de Vertex AI au début du mois de juin, et la version 2.5 Pro sera disponible peu de temps après. Voici quelques retours de ceux qui ont pu testé ces nouvelles fonctionnalités :

    Citation Envoyé par Mike Branch, vice-président des données et de l'analyse, Geotab
    Avec respect à Geotab Ace (notre agent d'analyse de données pour les flottes commerciales), Gemini 2.5 Flash sur Vertex AI atteint un excellent équilibre. Il maintient une bonne cohérence dans la capacité de l'agent à fournir un aperçu pertinent de la question du client, tout en offrant des temps de réponse 25 % plus rapides sur les sujets qu'il connaît moins bien. De plus, notre première analyse suggère qu'elle pourrait fonctionner à un coût par question potentiellement inférieur de 85 % par rapport à la base de référence Gemini 1.5 Pro. Cette efficacité est vitale pour mettre à disposition de nos clients, via Ace, des informations sur l'IA à un prix abordable
    Citation Envoyé par Yashodha Bhavnani, vice-président de la gestion des produits d'IA, Box
    Box révolutionne la façon dont les entreprises interagissent avec leurs vastes quantités de contenu, rarement organisées. Avec les agents d'extraction Box AI, alimentés par Gemini 2.5 sur Vertex AI, les utilisateurs peuvent instantanément extraire des informations précises à partir de contenus complexes et non structurés, qu'il s'agisse de PDF scannés, de formulaires manuscrits ou de documents contenant beaucoup d'images. Le raisonnement avancé de Gemini 2.5 Pro en fait le meilleur choix pour s'attaquer aux tâches complexes des entreprises, avec une précision de plus de 90 % sur les cas d'utilisation d'extraction complexes et une performance supérieure aux modèles précédents à la fois dans l'interprétation des clauses et le raisonnement temporel, ce qui entraîne une réduction significative des efforts de révision manuelle. Cette évolution repousse les limites de l'automatisation, permettant aux entreprises de débloquer et d'agir sur leurs informations les plus précieuses avec encore plus d'impact et d'efficacité.
    Citation Envoyé par Roopak Gupta, vice-président de l'ingénierie, LiveRamp
    Avec ses capacités de raisonnement améliorées et ses réponses perspicaces, Gemini 2.5 offre un potentiel énorme à LiveRamp. Ses fonctionnalités avancées peuvent améliorer nos agents d'analyse de données et ajouter un support à notre gamme de produits, y compris la segmentation, l'activation et la mesure en salle blanche pour les annonceurs, les éditeurs et les réseaux de médias de détail. Nous nous engageons à évaluer l'impact du modèle sur un large éventail de caractéristiques et de fonctionnalités afin de garantir que nos clients et nos partenaires puissent débloquer de nouveaux cas d'utilisation et améliorer les cas existants.

    Et vous ?

    Pensez-vous que ces fonctionnalités sont crédibles ou pertinentes ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Google Deepmind écrase OpenAI Sora avec son générateur vidéo Veo 3 qui intègre l'audio, et annonce Imagen 4 et Lyria 2, ses nouveaux modèles multimédias génératifs Vertex AI

    Google développe un agent d'IA en prévision de sa conférence annuelle, destiné à aider les ingénieurs logiciels à naviguer dans toutes les étapes du processus logiciel

    Google DeepMind a lancé Gemini 2.5 Pro, un modèle d'IA qui raisonne avant de répondre, affirmant qu'il est le meilleur sur plusieurs critères de référence en matière de raisonnement et de codage
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  6. #6
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 297
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 297
    Par défaut Google présente Google AI Ultra pour profiter du meilleur de Google AI avec un seul abonnement
    Google présente l'abonnement unique Google AI Ultra pour profiter du meilleur de Google AI, proposant les limites d'utilisation les plus élevées et l'accès aux meilleurs modèles d'IA de Google

    Google présente Google AI Ultra, une nouvelle formule d'abonnement pour profiter du meilleur de Google AI. Google AI Ultra permettrait de bénéficier d'un accès maximal aux modèles d'IA les plus performants et aux fonctionnalités premium grâce à cette nouvelle formule de Google. Google renomme également le plan AI Premium existant en Google AI Pro.

    Actuellement, les derniers modèles d'IA de Google sont Gemini 2.5 Pro et Gemini 2.5 Flash. Gemini 2.5 Pro est un modèle de raisonnement conçu pour résoudre efficacement les problèmes complexes, tandis que Gemini 2.5 Flash est un modèle qui donnerait aux entreprises et aux développeurs un contrôle sans précédent sur le degré de "raisonnement" de leur IA. Les nouveaux modèles représentent un effort stratégique pour offrir des capacités de raisonnement améliorées tout en maintenant des prix compétitifs sur le marché de l'IA, de plus en plus encombré.

    Avec l'arrivée des nouvelles fonctionnalités émergentes et des nouveaux modèles, Google souhaite proposer davantage de moyens d'accéder au meilleur de ce que Google AI a à offrir pour aider les utilisateurs à être mieux informés, plus créatifs et plus productifs. C'est pourquoi Google présente Google AI Ultra, une nouvelle formule d'abonnement à l'IA avec les limites d'utilisation les plus élevées et l'accès à ses modèles les plus performants et à ses fonctionnalités premium. L'abonnement Google AI Ultra est décrit par Google comme le laissez-passer VIP pour Google AI.


    Google AI Ultra est disponible dès aujourd'hui aux États-Unis au prix de 249,99 $/mois (avec une offre spéciale pour les nouveaux utilisateurs de 50 % de réduction pour les trois premiers mois), et sera bientôt disponible dans d'autres pays.

    Google renomme également le plan AI Premium existant en Google AI Pro et améliore également l'offre. Sans frais supplémentaires, les abonnés à Google AI Pro auront désormais accès aux fonctionnalités de réalisation de films à l'aide de l'IA dans Flow, où vous pourrez essayer l'outil avec le modèle Veo 2, ainsi qu'à un accès anticipé à Gemini dans Chrome. Les abonnés à Google AI Pro bénéficieront de ces nouveaux avantages aux États-Unis dans un premier temps, puis dans d'autres pays par la suite. Google étend également l'accès gratuit à Google AI Pro pendant une année scolaire aux étudiants universitaires au Japon, au Brésil, en Indonésie et au Royaume-Uni, en plus des États-Unis.

    Nom : 1.jpg
Affichages : 4529
Taille : 93,9 Ko

    Voici ce que vous obtenez avec Google AI Ultra :

    • Gemini : Découvrez la meilleure version de l'application Gemini. Cette formule offre les limites d'utilisation les plus élevées pour Deep Research, la génération de vidéos avec Veo 2 et un accès anticipé au modèle Veo 3. Il est conçu pour le codage, la recherche universitaire et les projets créatifs complexes. Dans les semaines à venir, les abonnés Ultra auront également accès à Deep Think dans 2.5 Pro, le nouveau mode de raisonnement amélioré.

    • Flow : ce nouvel outil de réalisation de films d'IA est conçu pour les modèles de Google DeepMind (Veo, Imagen et Gemini). Il permet de créer des clips cinématographiques, des scènes et des récits à l'aide d'invites intuitives. Google AI Ultra permet d'atteindre les limites les plus élevées de Flow grâce à la génération de vidéos en 1080p, aux commandes avancées de la caméra et à l'accès anticipé à Veo 3.

    • Whisk : Whisk vous permet d'explorer et de visualiser de nouvelles idées à l'aide d'invites textuelles et visuelles. Avec Google AI Ultra, bénéficiez des limites les plus élevées pour Whisk Animate, qui transforme vos images en vidéos de huit secondes avec Veo 2.

    • NotebookLM : accédez aux limites d'utilisation les plus élevées et aux fonctionnalités améliorées des modèles dans le courant de l'année, que vous utilisiez NotebookLM pour étudier, enseigner ou travailler sur vos projets.

    • Gemini dans Gmail, Docs, Vids et plus encore : Facilitez vos tâches quotidiennes en accédant à Gemini directement dans vos applications Google préférées telles que Gmail, Docs, Vids et bien plus encore.

    • Gemini dans Chrome : Bénéficiez d'un accès anticipé à Gemini directement dans le navigateur Chrome. Cette fonctionnalité vous permet de comprendre des informations complexes et de réaliser des tâches sur le web en utilisant le contexte de la page en cours.

    • Projet Mariner : Ce prototype de recherche agentique peut vous aider à gérer jusqu'à 10 tâches simultanément - de la recherche aux réservations et aux achats - le tout à partir d'un seul tableau de bord.

    • YouTube Premium : Un abonnement individuel à YouTube Premium vous permet de regarder YouTube et d'écouter YouTube Music sans publicité, hors ligne et en arrière-plan.

    • 30 To de stockage : Offre une capacité de stockage massive dans Google Photos, Drive et Gmail pour sécuriser vos créations et vos fichiers.




    Et vous ?

    Pensez-vous que cet abonnement est crédible ou pertinent ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Google I/O : Google déploie le mode IA pour tous les utilisateurs de Search d'abord aux États-Unis et ajoute des fonctionnalités comme le contexte ou les graphiques et diagrammes personnalisés

    Anthropic a lancé un nouvel abonnement Max de 100 à 200 dollars par mois à Claude, qui offre des limites d'utilisation élargies pour son assistant d'IA, à la suite des demandes d'utilisateurs

    OpenAI lance un ChatGPT "plus intelligent et plus rapide" accessible via un abonnement de 200 dollars par mois qui ouvre aussi à un "mode encore plus intelligent", que les développeurs pourront passer au test
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  7. #7
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 297
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 297
    Par défaut Google a publié une "préversion améliorée" 06-05 de Gemini 2.5 Pro qui sera bientôt disponible
    Google a publié une "préversion améliorée" 06-05 de Gemini 2.5 Pro qui sera bientôt disponible, et serait performant en mathématiques, en sciences, en connaissances et en raisonnement

    Google a publié une "préversion améliorée" 06-05 de Gemini 2.5 Pro qui sera bientôt disponible dans les semaines à venir. Google note que la version 06-05 affiche "une augmentation de 24 points du score Elo sur LMArena", avec un score de 1470, tandis qu'elle affiche "une augmentation de 35 points du score Elo, ce qui la place en tête sur WebDevArena avec un score de 1443"

    En mars 2025, Google DeepMind a lancé Gemini 2.5 Pro, citant des avancées majeures dans les capacités de raisonnement et de codage. Gemini 2.5 est un modèle de raisonnement conçu pour résoudre des problèmes de plus en plus complexes. Google affirmait que son premier modèle 2.5, Gemini 2.5 Pro Experimental, est le meilleur dans les critères de référence courants par des marges significatives.

    Récemment, Google a annoncé une préversion améliorée de Gemini 2.5 Pro. Cette mise à jour du modèle s'appuie sur la version I/O Edition de 2.5 Pro du mois de mai, qui apportait des améliorations en matière de codage. Cette avance en matière de codage se poursuit avec la version 06-05 dans des benchmarks tels que AIDER Polyglot, tandis que l'on observe "des performances de premier ordre sur GPQA et Humanity's Last Exam (HLE), des benchmarks très exigeants qui évaluent les capacités d'un modèle en mathématiques, en sciences, en connaissances et en raisonnement".

    Nom : 1.jpg
Affichages : 5832
Taille : 52,2 Ko

    Par ailleurs, Google note que la version 06-05 affiche "une augmentation de 24 points du score Elo sur LMArena", avec un score de 1470, tandis qu'elle affiche "une augmentation de 35 points du score Elo, ce qui la place en tête sur WebDevArena avec un score de 1443"

    Avec les dernières mises à jour du modèle, certaines personnes ont remarqué une baisse des performances en dehors du codage, en particulier par rapport à la version 03-25. Google répond désormais à ces commentaires en améliorant "le style et la structure", afin que Gemini 2.5 Pro "puisse être plus créatif avec des réponses mieux formatées".

    Cette mise à jour du modèle Gemini 2.5 Pro est encore en phase de prévisualisation, mais vous pouvez vous attendre à une disponibilité générale et à une version stable "dans quelques semaines". Elle est actuellement déployée sur l'API Gemini via Google AI Studio et Vertex AI, les développeurs pouvant contrôler les coûts et la latence grâce à des budgets de réflexion (comme introduit avec la version 2.5 Flash). L'application Gemini bénéficie également de cette mise à jour 2.5 Pro en prévisualisation.

    Nom : 2.jpg
Affichages : 336
Taille : 104,0 Ko

    Voici l'annonce de Google :

    Essayez la dernière version de Gemini 2.5 Pro avant sa mise à disposition générale.

    Nous vous présentons une version préliminaire améliorée de Gemini 2.5 Pro, notre modèle le plus intelligent à ce jour. Basé sur la version que nous avons lancée en mai et présentée lors de la conférence I/O, ce modèle sera disponible dans quelques semaines dans une version stable et prête à être utilisée dans des applications à l'échelle de l'entreprise.

    La dernière version 2.5 Pro affiche une progression de 24 points au classement Elo sur LMArena, conservant ainsi sa place de leader avec 1470 points, et une progression de 35 points au classement Elo sur WebDevArena, où elle occupe la première place avec 1443 points. Il continue d'exceller dans le domaine du codage, se classant en tête dans des benchmarks de codage difficiles tels que Aider Polyglot. Il affiche également des performances de haut niveau sur GPQA et Humanity's Last Exam (HLE), des benchmarks très difficiles qui évaluent les capacités mathématiques, scientifiques, cognitives et de raisonnement d'un modèle.

    Nous avons également tenu compte des commentaires reçus lors de la sortie de la version 2.5 Pro précédente, en améliorant son style et sa structure. Il peut désormais faire preuve de plus de créativité et fournir des réponses mieux formatées.

    Les développeurs peuvent commencer à créer avec la préversion améliorée de la version 2.5 Pro dans l'API Gemini via Google AI Studio et Vertex AI, où nous avons également ajouté des budgets de réflexion pour donner aux développeurs plus de contrôle sur les coûts et la latence. Elle est également déployée aujourd'hui dans l'application Gemini.

    Source : Google

    Et vous ?

    Pensez-vous que cette amélioration est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Gemini 2.5 Flash et Pro s'étend sur Vertex AI pour favoriser une innovation plus sophistiquée et plus sûre en matière d'IA grâce aux résumés des réflexions, au mode Deep Think et à la sécurité avancée

    Google I/O 2025 : toutes les annonces majeures qu'il faut retenir de la conférence centrée sur l'IA. Google présente une architecture numérique tournée vers l'IA générative avec Gemini comme OS invisible

    Une nouvelle étude montre pourquoi les modèles d'IA à raisonnement simulé ne sont pas encore à la hauteur de leur réputation, performants sur les problèmes standards, mais limités en raisonnement olympique
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  8. #8
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 297
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 297
    Par défaut Google commence à déployer la fonctionnalité "Actions programmées" dans l'IA Gemini
    Google commence à déployer la fonctionnalité "Actions programmées" dans l'IA Gemini afin de permettre aux utilisateurs abonnés de demander à l'assistant IA d'effectuer des tâches à des moments précis.

    Google a annoncé que la fonctionnalité "Actions programmées" de l'application Gemini serait déployée pour les abonnés Gemini AI Pro et Ultra. Ces actions programmées sont similaires à des tâches automatisées que les utilisateurs peuvent demander à Gemini d'effectuer à une heure/un jour précis, comme le résumé des e-mails le matin, etc. Gemini réserve encore bien d'autres surprises, car lors de l'I/O 2025, Google a dévoilé les mises à niveau Deep Think et les améliorations 2.5 Flash pour le modèle.

    Récemment, Google a publié une "préversion améliorée" 06-05 de Gemini 2.5 Pro qui sera bientôt disponible dans les semaines à venir. Google note que la version 06-05 affiche "une augmentation de 24 points du score Elo sur LMArena", avec un score de 1470, tandis qu'elle affiche "une augmentation de 35 points du score Elo, ce qui la place en tête sur WebDevArena avec un score de 1443".

    En plus de cette annonce, Google a annoncé le lancement de la fonctionnalité "Actions programmées" dans l'application Gemini pour les abonnés Gemini AI Pro et Ultra. D'après l'annonce, cette fonctionnalité est conçue pour "rationaliser les tâches routinières" et fournir des mises à jour "personnalisées" directement de Gemini à l'utilisateur. Google indique que les utilisateurs pourront demander à Gemini d'effectuer "une tâche à un moment précis ou de transformer une invite que vous utilisez déjà en une action récurrente"

    Il semble que Gemini sera en mesure de couvrir un large éventail d'actions potentielles des utilisateurs. Par exemple, les utilisateurs peuvent obtenir un résumé basé sur leurs e-mails du matin de la part de Gemini. De plus, Gemini peut collecter et afficher les résultats sportifs, détailler les événements importants de votre calendrier, et bien plus encore. En outre, Google affirme que Gemini fonctionnera également très bien avec les actions "ponctuelles".

    Vos actions programmées dans Gemini seront hébergées sur une nouvelle page dans les paramètres de l'application. À partir de là, les utilisateurs pourront modifier les heures programmées ou peut-être l'action elle-même, ainsi que la supprimer entièrement si nécessaire. Comme indiqué précédemment, les actions programmées dans Gemini sont déployées pour les utilisateurs mobiles. Google ajoute que cette fonctionnalité s'étend également aux plans Workspace « éligibles » pour les entreprises et l'éducation dans le cadre de ce déploiement.


    Cette annonce montre que Google ne ralentit pas après l'I/O 2025, car les mises à niveau de Gemini vont bien au-delà de sa dernière mise à jour des actions programmées. La société prévoit de renforcer considérablement les capacités de Gemini pour les utilisateurs, ce qui devrait améliorer les performances du modèle dans tous les domaines. Google a annoncé que les modèles 2.5 de Gemini iront encore plus loin, grâce à Deep Think et Flash.

    Le modèle 2.5 Flash rendrait Gemini encore plus rapide et plus efficace lorsqu'on lui confie des tâches à accomplir. D'autre part, Deep Think, le tout dernier modèle de raisonnement de Google, sera intégré à Gemini 2.5 Pro. La société a déclaré qu'elle prévoyait de demander à l'IA « d'envisager plusieurs hypothèses » avant de donner sa réponse.

    En mars, Google avait déjà annoncé une nouvelle fonctionnalité de Gemini qui transforme les captures d'écran de textes et de messages publiés sur les réseaux sociaux concernant des endroits que vous souhaitez visiter ou des restaurants dans lesquels vous voulez manger en épingles sur Google Maps. Il vous suffirait de télécharger la capture d'écran et la nouvelle fonctionnalité d'IA de Google Maps analysera et identifiera automatiquement les lieux qui y sont répertoriés, puis les épinglera pour qu'ils soient plus facilement accessibles ultérieurement.

    Voici l'annonce de Google :

    Planifiez à l'avance grâce aux actions programmées dans l'application Gemini.

    Comme nous l'avons annoncé lors de la conférence I/O, l'application Gemini devient plus personnelle, proactive et puissante. À partir d'aujourd'hui, nous déployons les actions programmées dans l'application Gemini, une nouvelle fonctionnalité conçue pour gérer vos tâches de manière proactive.

    Grâce aux actions programmées, vous pouvez rationaliser vos tâches routinières ou recevoir des mises à jour personnalisées directement de Gemini. Dans votre conversation, demandez simplement à Gemini d'effectuer une tâche à un moment précis ou transformez une invite que vous utilisez déjà en une action récurrente. Vous pouvez les gérer à tout moment dans la page des actions programmées dans les paramètres.

    Vous pouvez désormais vous réveiller avec un résumé de votre calendrier et de vos e-mails non lus, ou stimuler votre créativité en demandant à Gemini de rédiger cinq idées pour votre blog chaque lundi. Restez informé en recevant des mises à jour sur votre équipe sportive préférée, ou programmez une tâche ponctuelle comme demander à Gemini de vous donner un résumé d'une cérémonie de remise de prix le lendemain de celle-ci. Il vous suffit de dire à Gemini ce dont vous avez besoin et quand, et il s'occupera du reste.

    Les actions programmées sont désormais disponibles pour les utilisateurs de l'application Gemini disposant d'un abonnement Google AI Pro ou Ultra et d'un forfait Google Workspace professionnel ou éducatif éligible.
    Source : Google

    Et vous ?

    Pensez-vous que cette fonctionnalité est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Google I/O 2025 : toutes les annonces majeures qu'il faut retenir de la conférence centrée sur l'IA. Google présente une architecture numérique tournée vers l'IA générative avec Gemini comme OS invisible

    Les nouveaux résumés IA de Gmail s'affichent désormais automatiquement sur mobile. L'application Gmail créera désormais des résumés IA, que vous le souhaitiez ou non

    Gemini 2.5 Flash et Pro s'étend sur Vertex AI pour favoriser une innovation plus sophistiquée et plus sûre en matière d'IA grâce aux résumés des réflexions, au mode Deep Think et à la sécurité avancée
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 136
    Dernier message: 05/05/2025, 15h04
  2. Réponses: 0
    Dernier message: 13/03/2025, 10h57
  3. Réponses: 4
    Dernier message: 14/06/2018, 09h05
  4. Réponses: 39
    Dernier message: 12/08/2017, 17h50
  5. Réponses: 44
    Dernier message: 17/09/2015, 09h02

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo