IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Google lance son nouveau modèle d'IA Gemini 2.0, qui promet d'être plus rapide et plus intelligent


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 358
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 358
    Points : 22 325
    Points
    22 325
    Par défaut Google lance son nouveau modèle d'IA Gemini 2.0, qui promet d'être plus rapide et plus intelligent
    Google lance son nouveau modèle d'IA Gemini 2.0 pour pratiquement tout, qui promet d'être plus rapide et plus intelligent grâce aux progrès agentiques et offre des capacités avancées de sorties multimodales

    Un peu plus d'un an après la sortie de la version 1.0, Google vient d'annoncer la sortie de Gemini 2.0 comme son « nouveau modèle d'IA pour l'ère agentique ». Le premier modèle disponible est Gemini 2.0 Flash, qui « surpasse 1.5 Pro sur des benchmarks clés » - concernant le code, la factualité, les mathématiques, le raisonnement, et plus encore - à une vitesse deux fois supérieure.

    Cette annonce intervient à peine quelques jours après la publication par Google du modèle expérimental Gemini-Exp-1206, qui s'est emparé de la première place du classement Chatbot Arena en devancant GPT-4o d'OpenAI. Gemini-Exp-1206 est doté d'une fenêtre contextuelle de 2 millions de jetons et permet de traiter plus d'une heure de contenu vidéo. Il est également offert gratuitement par Google, et défie ainsi les offres payantes avancées d'OpenAI.

    Au cours de l'année écoulée, Google a continué à faire des progrès incroyables dans le domaine de l'intelligence artificielle. Ce 11 décembre 2024, le premier modèle de la famille Gemini 2.0 est lancé : une version expérimentale de Gemini 2.0 Flash. Il s'agit du modèle de référence de Google, avec une faible latence et des performances améliorées, à la pointe de sa technologie, à grande échelle.


    L'entreprise a également partagé les frontières de sa recherche agentique en présentant des prototypes utilisant les capacités multimodales natives de Gemini 2.0.

    Sundar Pichai, PDG de Google et d'Alphabet, s'est exprimé sur le sujet :

    L'information est au cœur du progrès humain. C'est la raison pour laquelle nous nous concentrons depuis plus de 26 ans sur notre mission, qui est d'organiser l'information mondiale et de la rendre accessible et utile. Et c'est pourquoi nous continuons à repousser les frontières de l'IA pour organiser cette information à travers chaque entrée et la rendre accessible via n'importe quelle sortie, afin qu'elle puisse vous être vraiment utile.

    Telle était notre vision lorsque nous avons présenté Gemini 1.0 en décembre dernier. Premier modèle conçu pour être nativement multimodal, Gemini 1.0 et 1.5 ont permis de grandes avancées en matière de multimodalité et de contexte long pour comprendre l'information à travers le texte, la vidéo, les images, l'audio et le code, et en traiter beaucoup plus.

    Aujourd'hui, des millions de développeurs construisent avec Gemini. Cela nous aide à réimaginer tous nos produits - y compris les sept d'entre eux qui comptent 2 milliards d'utilisateurs - et à en créer de nouveaux. NotebookLM est un excellent exemple de ce que la multimodalité et le contexte long peuvent permettre aux gens, et c'est pourquoi il est aimé par tant de personnes.

    L'année dernière, nous avons investi dans le développement de modèles plus agentiques, c'est-à-dire capables de mieux comprendre le monde qui vous entoure, d'anticiper plusieurs étapes et d'agir en votre nom, sous votre supervision.

    Aujourd'hui, nous sommes ravis de lancer notre nouvelle ère de modèles conçus pour cette nouvelle ère agentique : nous présentons Gemini 2.0, notre modèle le plus performant à ce jour. Grâce à de nouvelles avancées en matière de multimodalité - comme la sortie native d'images et de sons - et d'utilisation d'outils natifs, il nous permettra de construire de nouveaux agents d'IA qui nous rapprocheront de notre vision d'un assistant universel.

    Nous mettons la version 2.0 entre les mains des développeurs et des testeurs de confiance dès aujourd'hui. Et nous travaillons rapidement pour l'intégrer dans nos produits, en commençant par Gemini et Search. À partir d'aujourd'hui, le modèle expérimental Gemini 2.0 Flash sera disponible pour tous les utilisateurs de Gemini. Nous lançons également une nouvelle fonctionnalité appelée Deep Research, qui utilise des capacités avancées de raisonnement et de contexte long pour agir comme un assistant de recherche, en explorant des sujets complexes et en compilant des rapports en votre nom. Elle est disponible dès aujourd'hui dans Gemini Advanced.

    Aucun produit n'a été autant transformé par l'IA que Search. Nos aperçus d'IA touchent désormais 1 milliard de personnes, leur permettant de poser des questions d'un type entièrement nouveau - devenant rapidement l'une de nos fonctions de recherche les plus populaires. Dans une prochaine étape, nous apportons les capacités de raisonnement avancées de Gemini 2.0 aux aperçus d'IA afin de traiter des sujets plus complexes et des questions à plusieurs étapes, y compris des équations mathématiques avancées, des requêtes multimodales et du codage. Nous avons commencé des tests limités cette semaine et nous les déploierons plus largement au début de l'année prochaine. Nous continuerons à proposer les aperçus IA dans d'autres pays et d'autres langues au cours de l'année prochaine.

    Les avancées de Gemini 2.0 s'appuient sur des investissements réalisés au cours des dix dernières années dans notre approche complète et différenciée de l'innovation en matière d'IA. Elle s'appuie sur du matériel personnalisé tel que Trillium, notre TPU de sixième génération. Les TPU ont alimenté 100 % de l'entraînement et de l'inférence de Gemini 2.0, et aujourd'hui Trillium est généralement disponible pour les clients afin qu'ils puissent également construire avec.

    Si Gemini 1.0 visait à organiser et à comprendre les informations, Gemini 2.0 vise à les rendre beaucoup plus utiles. J'ai hâte de voir ce que cette nouvelle ère nous apportera.

    - Sundar
    Gemini 2.0 Flash

    Gemini 2.0 Flash s'appuie sur le succès de 1.5 Flash, le modèle le plus populaire de Google pour les développeurs, avec des performances accrues et des temps de réponse tout aussi rapides. Notamment, Gemini 2.0 Flash surpasse même 1.5 Pro sur des benchmarks clés, avec une vitesse deux fois plus élevée.

    Gemini 2.0 Flash est également doté de nouvelles fonctionnalités. Outre la prise en charge des entrées multimodales telles que les images, la vidéo et l'audio, 2.0 Flash prend désormais en charge les sorties multimodales telles que les images générées en mode natif mélangées à du texte et à de l'audio multilingue orientable de type texte-parole (TTS). Il peut également appeler en mode natif des outils tels que Google Search, l'exécution de code ainsi que des fonctions tierces définies par l'utilisateur.

    Nom : gemini 2.0.PNG
Affichages : 10450
Taille : 110,0 Ko

    L'objectif de Google est de mettre ses modèles entre les mains des utilisateurs rapidement et en toute sécurité. Au cours du mois dernier, les premières versions expérimentales de Gemini 2.0 ont été partagées, et les développeurs ont fait part de leurs commentaires positifs.

    Gemini 2.0 Flash est disponible dès maintenant en tant que modèle expérimental pour les développeurs via l'API Gemini dans Google AI Studio et Vertex AI, avec une entrée multimodale et une sortie texte disponibles pour tous les développeurs, et une synthèse vocale et une génération d'images natives disponibles pour les partenaires ayant bénéficié d'un accès anticipé. La disponibilité générale suivra en janvier, ainsi que d'autres tailles de modèles.

    Pour aider les développeurs à créer des applications dynamiques et interactives, une nouvelle interface de programmation multimodale en live est également disponible. Elle permet une saisie audio et vidéo en temps réel et la possibilité d'utiliser des outils multiples et combinés.

    À partir d'aujourd'hui, les utilisateurs de Gemini peuvent accéder à une version optimisée pour le chat de Gemini 2.0 Flash expérimental en la sélectionnant dans la liste déroulante des modèles sur les ordinateurs de bureau et les sites Web mobiles, et elle sera bientôt disponible dans l'application mobile de Gemini. Avec ce nouveau modèle, les utilisateurs peuvent profiter d'un assistant Gemini encore plus utile.

    Au début de l'année prochaine, Gemini 2.0 sera étendu à d'autres produits Google.

    Débloquer les expériences agentiques avec Gemini 2.0

    Les capacités d'action de l'interface utilisateur native de Gemini 2.0 Flash, ainsi que d'autres améliorations telles que le raisonnement multimodal, la compréhension du contexte long, le suivi et la planification d'instructions complexes, l'appel de fonctions compositionnelles, l'utilisation d'outils natifs et l'amélioration de la latence, fonctionnent de concert pour permettre une nouvelle classe d'expériences agentiques.

    L'application pratique des agents d'IA est un domaine de recherche plein de possibilités passionnantes. Google explore cette nouvelle frontière avec une série de prototypes qui peuvent aider les gens à accomplir des tâches et à faire avancer les choses. Il s'agit notamment d'une mise à jour du projet Astra, le prototype de recherche de Google qui explore les capacités futures d'un assistant IA universel, du nouveau projet Mariner, qui explore l'avenir de l'interaction homme-agent, en commençant par le navigateur, et de Jules, un agent de code alimenté par l'IA qui peut aider les développeurs.

    Google en est encore aux premiers stades de développement, mais l'entreprise se dit impatiente de voir comment les testeurs de confiance utilisent ces nouvelles capacités et quels enseignements il est possible d'en tirer, afin de les rendre plus largement disponibles dans les produits à l'avenir.

    Projet Astra : des agents utilisant la compréhension multimodale dans le monde réel

    Depuis la présentation du Projet Astra lors de la conférence I/O, Google a tiré des enseignements de l'expérience de testeurs de confiance qui l'ont utilisé sur des téléphones Android. Ces précieux commentaires ont aidé l'entreprise à mieux comprendre comment un assistant IA universel pourrait fonctionner dans la pratique, y compris les implications en matière de sécurité et d'éthique.


    Les améliorations apportées à la dernière version construite avec Gemini 2.0 sont les suivantes :

    • Amélioration des dialogues : Le Projet Astra est désormais capable de dialoguer dans plusieurs langues et dans des langues mixtes, avec une meilleure compréhension des accents et des mots peu courants.
    • Utilisation de nouveaux outils : Avec Gemini 2.0, le Projet Astra peut utiliser Google Search, Lens et Maps, ce qui le rend plus utile en tant qu'assistant dans la vie de tous les jours.
    • Meilleure mémoire : La capacité de mémorisation du Projet Astra a été améliorée, tout en permettant aux utilisateurs de garder le contrôle. Il dispose désormais de 10 minutes de mémoire en session et peut se souvenir de davantage de conversations que l'on a eues avec lui par le passé, ce qui permet de mieux le personnaliser.
    • Amélioration de la latence : Grâce aux nouvelles capacités de diffusion en continu et à la compréhension audio native, l'agent peut comprendre le langage avec une latence à peu près équivalente à celle d'une conversation humaine.

    Google s'efforce d'intégrer ce type de fonctionnalités à ses produits, tels que l'application Gemini, son assistant d'intelligence artificielle, ainsi qu'à d'autres facteurs de forme, comme les lunettes. Elle commence à étendre son programme de testeurs de confiance à un plus grand nombre de personnes, dont un petit groupe qui commencera bientôt à tester le projet Astra sur des prototypes de lunettes.

    Projet Mariner : des agents qui peuvent aider à accomplir des tâches complexes

    Le projet Mariner est un prototype de recherche précoce construit avec Gemini 2.0 qui explore l'avenir de l'interaction homme-agent, en commençant par le navigateur. En tant que prototype de recherche, il est capable de comprendre et de raisonner à travers les informations de l'écran du navigateur de l'utilisateur, y compris les pixels et les éléments web tels que le texte, le code, les images et les formulaires, puis d'utiliser ces informations via une extension Chrome expérimentale pour effectuer des tâches à votre place.

    Lors de l'évaluation par rapport au benchmark WebVoyager, qui teste les performances des agents sur des tâches web réelles de bout en bout, le projet Mariner a obtenu un résultat de pointe de 83,5 % en travaillant avec un seul agent.


    Il est encore tôt, mais le projet Mariner montre qu'il devient techniquement possible de naviguer dans un navigateur, même si ce n'est pas toujours précis et lent pour accomplir les tâches aujourd'hui, ce qui s'améliorera rapidement avec le temps.

    Pour construire ce système de manière sûre et responsable, Google mène des recherches actives sur de nouveaux types de risques et de mesures d'atténuation, tout en gardant les humains dans la boucle. Par exemple, le projet Mariner ne peut taper, faire défiler ou cliquer que dans l'onglet actif du navigateur, et il demande aux utilisateurs une confirmation finale avant d'entreprendre certaines actions sensibles, comme un achat.

    Des testeurs de confiance commencent à tester le projet Mariner à l'aide d'une extension Chrome expérimentale, et des discussions avec l'écosystème web sont en cours en parallèle.

    Jules : des agents pour les développeurs

    Google étudie la manière dont les agents d'IA peuvent aider les développeurs avec Jules - un agent de code expérimental alimenté par l'intelligence artificielle qui s'intègre directement dans un flux de travail GitHub. Il peut s'attaquer à un problème, développer un plan et l'exécuter, le tout sous la direction et la supervision d'un développeur. Cet effort s'inscrit dans l'objectif à long terme de Google de créer des agents d'IA utiles dans tous les domaines, y compris le codage.

    Agents dans les jeux et autres domaines

    Google DeepMind utilise depuis longtemps les jeux pour aider les modèles d'IA à mieux suivre les règles, la planification et la logique. La semaine dernière, par exemple, Google a présenté Genie 2, son modèle d'IA capable de créer une variété infinie de mondes 3D jouables, le tout à partir d'une seule image. S'appuyant sur cette tradition, l'entreprise a construit des agents utilisant Gemini 2.0 qui peuvent aider les utilisateurs à naviguer dans le monde virtuel des jeux vidéo. Il peut raisonner sur le jeu en se basant uniquement sur l'action à l'écran et proposer des suggestions sur ce qu'il faut faire ensuite dans le cadre d'une conversation en temps réel.

    « Nous collaborons avec des développeurs de jeux de premier plan comme Supercell pour étudier le fonctionnement de ces agents, en testant leur capacité à interpréter les règles et les défis dans une gamme variée de jeux, des titres de stratégie comme "Clash of Clans" aux simulateurs d'agriculture comme "Hay Day" », a indiqué Google.


    En plus d'agir comme des compagnons de jeu virtuels, ces agents peuvent même exploiter Google Search pour mettre les utilisateurs en contact avec la richesse des connaissances en matière de jeux sur le web.

    En plus d'explorer les capacités des agents dans le monde virtuel, Google expérimente des agents qui peuvent aider dans le monde physique en appliquant les capacités de raisonnement spatial de Gemini 2.0 à la robotique.

    Construire de manière responsable à l'ère agentique

    Gemini 2.0 Flash et les prototypes de recherche de Google lui permettent de tester et d'expérimenter de nouvelles capacités à la pointe de la recherche sur l'IA, qui rendront à terme les produits Google plus utiles.

    En développant ces nouvelles technologies, Google est conscient de la responsabilité qu'elles impliquent et des nombreuses questions que les agents d'intelligence artificielle soulèvent en matière de sûreté et de sécurité. C'est pourquoi elle adopte une approche exploratoire et progressive du développement, en menant des recherches sur plusieurs prototypes, en mettant en œuvre de manière itérative une formation à la sécurité, en travaillant avec des testeurs de confiance et des experts externes, et en procédant à des évaluations approfondies des risques, de la sécurité et de l'assurance.

    Par exemple :

    • Dans le cadre du processus de sécurité de Google, l'entreprise a travaillé avec son comité de responsabilité et de sécurité (RSC), son groupe d'examen interne de longue date, afin d'identifier et de comprendre les risques potentiels.
    • Les capacités de raisonnement de Gemini 2.0 ont permis des avancées majeures dans l'approche de l'équipe rouge assistée par l'IA, y compris la capacité d'aller au-delà de la simple détection des risques pour générer automatiquement des évaluations et des données de formation afin de les atténuer. Cela signifie que Google peut optimiser plus efficacement le modèle pour la sécurité à l'échelle.
    • La multimodalité de Gemini 2.0 augmentant la complexité des résultats potentiels, Google continuera d'évaluer et d'entraîner le modèle pour les entrées et sorties d'images et de sons afin d'améliorer la sécurité.
    • Dans le cadre du projet Astra, les moyens d'éviter que les utilisateurs ne partagent involontairement des informations sensibles avec l'agent sont à l'étude, et des contrôles de confidentialité ont déjà été mis en place pour permettre aux utilisateurs d'effacer facilement des sessions. Google poursuit également ses recherches pour s'assurer que les agents d'intelligence artificielle constituent des sources d'information fiables et ne prennent pas de mesures involontaires au nom des utilisateurs.
    • Avec le projet Mariner, Google s'efforce de faire en sorte que le modèle apprenne à donner la priorité aux instructions de l'utilisateur plutôt qu'aux tentatives d'injection d'invites par des tiers, afin d'identifier les instructions potentiellement malveillantes provenant de sources externes et d'empêcher toute utilisation abusive. Cela permet d'éviter que les utilisateurs ne soient exposés à des tentatives de fraude et d'hameçonnage par le biais d'instructions malveillantes dissimulées dans des courriels, des documents ou des sites web.

    « Nous sommes convaincus que la seule façon de développer l'IA est d'être responsable dès le départ et nous continuerons à faire de la sécurité et de la responsabilité un élément clé de notre processus de développement de modèles au fur et à mesure que nous ferons évoluer nos modèles et nos agents », a indiqué Google.

    Gemini 2.0, les agents IA et au-delà

    Les publications d'aujourd'hui marquent un nouveau chapitre pour le modèle Gemini de Google. Avec la sortie de Gemini 2.0 Flash et la série de prototypes de recherche explorant les possibilités agentiques, l'entreprise a franchi une étape passionnante dans l'ère Gemini. Google a déclaré être impatient de continuer à explorer en toute sécurité toutes les nouvelles possibilités qui s'offrent à elle au fur et à mesure qu'elle avançons vers l'IAG.

    Et vous ?

    Que pensez-vous de Gemini 2.0 et de ses fonctionnalités ?
    Trouvez-vous cette initiative de Google crédible ou pertinente ?

    Voir aussi :

    Google annonce deux nouveaux modèles IA Gemini, la réduction du prix de la version 1.5 Pro, l'augmentation des limites de taux, ainsi que la mise à jour des paramètres de filtre par défaut

    L'IA Gemini de Google dispose désormais de sa propre application iPhone qui s'accompagne de la prise en charge Gemini Live, qui permet aux utilisateurs d'avoir des conversations naturelles avec le chatbot

    Google lance Gemini Live, un chatbot d'IA à commande vocale gratuit pour les utilisateurs d'Android, Gemini Live permettrait d'avoir des conversations naturelles avec un assistant d'IA
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 358
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 358
    Points : 22 325
    Points
    22 325
    Par défaut Google dévoile le projet Mariner, son premier agent d'IA autonome capable de naviguer sur les navigateurs web
    Google dévoile le projet Mariner, son premier agent d'IA autonome capable de naviguer sur les navigateurs web, de contrôler le curseur et de remplir des formulaires pour reproduire les interactions en ligne

    Google a dévoilé ce 11 décembre 2024 le Project Mariner, son premier agent d'intelligence artificielle (IA) capable de naviguer de manière autonome sur les navigateurs web, par le biais d'une extension Chrome qui contrôle les mouvements du curseur et le remplissage des formulaires afin de reproduire les interactions humaines en ligne.

    Le projet Mariner a été annoncé lors du lancement par Google de sa nouvelle famille de modèles d'IA Gemini 2.0, que l'entreprise décrit comme son « nouveau modèle d'IA pour l'ère agentique ». Le premier modèle disponible, Gemini 2.0 Flash, est une version expérimentale de référence disposant d'une faible latence et de performances améliorées. Selon Google, Gemini 2.0 Flash surpasse Gemini 1.5 Pro sur des benchmarks clés concernant le code, la factualité, les mathématiques, le raisonnement, et plus encore - avec une vitesse deux fois supérieure.

    Le projet Mariner, alimenté par Gemini 2.0, a été développé par la division DeepMind de Google et est initialement disponible pour un groupe restreint de testeurs. Lors des démonstrations, l'agent a effectué des tâches telles que la création de paniers d'achat sur des sites web de vente, mais avec des délais perceptibles de cinq secondes entre les actions. Le système effectue des captures d'écran du navigateur et les traite via Gemini dans le cloud pour générer des commandes de navigation.


    L'agent fonctionne uniquement dans l'onglet actif de Chrome, ce qui oblige les utilisateurs à observer ses actions plutôt que de les exécuter en arrière-plan.

    Lors de l'évaluation par rapport au benchmark WebVoyager, qui teste les performances pour les tâches basées sur le web, le projet Mariner a obtenu un taux de réussite de 83,5 % en travaillant avec un seul agent. L'agent a des limites intégrées, notamment l'impossibilité d'effectuer des achats, d'accepter des cookies ou d'accepter des conditions de service.

    Jaclyn Konzelmann, directrice de Google Labs, a décrit le projet comme un « changement de paradigme UX fondamentalement nouveau » qui pourrait transformer la manière dont les utilisateurs interagissent avec les sites web. L'entreprise a déclaré qu'elle s'engageait avec les parties prenantes de l'écosystème du web au fur et à mesure que le développement se poursuit.

    Le projet Mariner est un prototype de recherche précoce construit avec Gemini 2.0 qui explore l'avenir de l'interaction homme-agent, en commençant par le navigateur. En tant que prototype de recherche, il est capable de comprendre et de raisonner à travers les informations de l'écran du navigateur de l'utilisateur, y compris les pixels et les éléments web tels que le texte, le code, les images et les formulaires, puis d'utiliser ces informations via une extension Chrome expérimentale pour effectuer des tâches à la place de l'utilisateur.


    Selon l'entreprise, bien qu'il soit encore tôt, le projet Mariner montre qu'il devient techniquement possible de naviguer dans un navigateur, même si ce n'est pas toujours précis et que cela prend actuellement du temps pour effectuer les tâches, mais cela s'améliorera rapidement au fil du temps.

    Pour construire ce système de manière sûre et responsable, Google a mené des recherches actives sur de nouveaux types de risques et de mesures d'atténuation, tout en gardant les humains dans le circuit. Par exemple, le projet Mariner ne peut taper, faire défiler ou cliquer que dans l'onglet actif du navigateur, et il demande aux utilisateurs une confirmation finale avant d'entreprendre certaines actions sensibles, comme un achat en ligne.

    Et vous ?

    Que pensez-vous du projet Mariner et de ses fonctionnalités ?
    Trouvez-vous qu'il s'agit d'un outil utile et intéressant ?
    Avez-vous déjà utilisé un outil similaire pour votre usage ou le développement d'applications, et si oui, qu'en pensez-vous ?

    Voir aussi :

    Google est en train de développer l'IA Jarvis, qui prend le contrôle du navigateur web d'une personne pour effectuer des tâches en ligne telles que la recherche, l'achat d'articles ou la réservation de vols

    Google a accidentellement divulgué un aperçu de son IA Jarvis, capable de prendre le contrôle d'un ordinateur, le logiciel a été disponible pendant une courte période sur le Chrome Web Store

    Anthropic propose en bêta un outil d'IA capable de prendre le contrôle du curseur de la souris de l'utilisateur et d'effectuer des tâches de base sur son ordinateur, une technologie qui suscite des inquiétudes
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  3. #3
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 358
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 358
    Points : 22 325
    Points
    22 325
    Par défaut Google dévoile l'assistant d'IA de codage "Jules", promettant des cycles de développement plus rapides
    Google dévoile l'assistant d'IA de codage "Jules", promettant des corrections de bogues autonomes et des cycles de développement plus rapides, et offrant une aide aux développeurs en se basant sur Gemini 2.0

    Google a dévoilé le mercredi 11 novembre « Jules », un assistant de codage doté d'une intelligence artificielle (IA) capable de corriger de manière autonome les bogues des logiciels et de préparer les modifications de code pendant que les développeurs se concentrent sur ce qu'ils veulent réellement construire, ce qui constitue une avancée significative dans le cadre des efforts déployés par l'entreprise pour automatiser les tâches de programmation essentielles.

    L'agent de codage expérimental alimenté par l'IA est construit sur la plateforme de modèles d'IA Gemini 2.0 récemment annoncée par Google. Il s'intègre directement au système de flux de travail de GitHub et peut analyser des bases de code complexes, mettre en œuvre des correctifs sur plusieurs fichiers et préparer des demandes d'extraction détaillées sans supervision humaine constante.


    Avec la nouvelle version de Gemini, Google donne aux développeurs les moyens de construire l'avenir de l'IA grâce à des modèles de pointe, des outils intelligents permettant d'écrire du code plus rapidement et une intégration transparente sur toutes les plateformes et tous les appareils. Depuis le lancement de Gemini 1.0 en décembre dernier, des millions de développeurs ont utilisé Google AI Studio et Vertex AI pour créer avec Gemini dans 109 langues.

    La disponibilité récente du modèle d'IA expérimental Gemini 2.0 Flash permet des applications encore plus immersives et interactives, ainsi que de nouveaux agents de codage qui amélioreront les flux de travail en prenant des mesures au nom du développeur.

    Construire avec Gemini 2.0 Flash

    S'appuyant sur le succès de Gemini 1.5 Flash, la version 2.0 Flash est deux fois plus rapide que la version 1.5 Pro tout en étant plus performante. Elle inclut de nouvelles sorties multimodales et permet l'utilisation d'outils en mode natif. Une API multimodale en temps réel Live est également introduite pour créer des applications dynamiques avec des flux audio et vidéo en temps réel.

    Dès ce 11 décembre, les développeurs peuvent tester et explorer Gemini 2.0 Flash via l'API Gemini dans Google AI Studio et Vertex AI pendant sa phase expérimentale, la disponibilité générale étant prévue pour le début de l'année prochaine.

    Avec Gemini 2.0 Flash, les développeurs ont accès à :

    1. De meilleures performances

    Gemini 2.0 Flash est plus puissant que la version 1.5 Pro, tout en conservant la vitesse et l'efficacité que les développeurs attendent de Flash. Il offre également des performances améliorées en matière de multimodalité, de texte, de code, de vidéo, de compréhension spatiale et de raisonnement sur des benchmarks clés.

    L'amélioration de la compréhension spatiale permet de générer des boîtes de délimitation plus précises pour les petits objets dans les images encombrées, et d'améliorer l'identification et le sous-titrage des objets.


    2. Nouvelles modalités de sortie

    Les développeurs pourront utiliser Gemini 2.0 Flash pour générer des réponses intégrées pouvant inclure du texte, du son et des images, le tout par le biais d'un seul appel API. Ces nouvelles modalités de sortie sont disponibles pour les premiers testeurs, un déploiement plus large étant prévu l'année prochaine.

    Les filigranes invisibles SynthID seront activés dans toutes les sorties images et audio, ce qui contribuera à réduire les problèmes de désinformation et d'attribution erronée.

    • Sortie audio multilingue native : Gemini 2.0 Flash dispose d'une sortie audio texte-parole native qui permet aux développeurs de contrôler finement non seulement ce que le modèle dit, mais aussi comment il le dit, avec un choix de 8 voix de haute qualité et une gamme de langues et d'accents.
    • Sortie d'images native : Gemini 2.0 Flash génère désormais des images en mode natif et prend en charge l'édition conversationnelle multi-tours, ce qui vous permet de vous appuyer sur les résultats précédents et de les affiner. Il peut produire du texte et des images entrelacés, ce qui le rend utile pour les contenus multimodaux tels que les recettes.


    3. Utilisation native d'outils

    Gemini 2.0 a été formé à l'utilisation d'outils - une capacité fondamentale pour la construction d'expériences agentiques. Il peut appeler nativement des outils tels que Google Search et l'exécution de code, ainsi que des fonctions tierces personnalisées via l'appel de fonctions. L'utilisation native de Google Search en tant qu'outil permet d'obtenir des réponses plus factuelles et plus complètes et d'augmenter le trafic vers les éditeurs. Plusieurs recherches peuvent être effectuées en parallèle, ce qui permet d'améliorer la recherche d'informations en trouvant des faits plus pertinents à partir de plusieurs sources simultanément et en les combinant pour plus de précision.


    4. API multimodale en temps réel

    Les développeurs peuvent désormais créer des applications multimodales en temps réel avec des entrées audio et vidéo provenant de caméras ou d'écrans. Les modèles de conversation naturels tels que les interruptions et la détection de l'activité vocale sont pris en charge. L'API prend en charge l'intégration de plusieurs outils pour réaliser des cas d'utilisation complexes avec un seul appel d'API.


    Les startups ont fait des progrès impressionnants avec Gemini 2.0 Flash, prototypant de nouvelles expériences comme le terrain de jeu visuel de tldraw, la création de personnages virtuels et la narration audio de Viggle, la traduction multilingue contextuelle de Toonsutra, et l'ajout de l'audio en temps réel de Rooms.

    Google a publié trois expériences d'application de démarrage dans Google AI Studio, ainsi que du code source ouvert pour la compréhension spatiale, l'analyse vidéo et l'exploration de Google Maps, afin que les développeurs puissent commencer à construire avec Gemini 2.0 Flash.

    Permettre l'évolution de l'assistance d'IA au codage

    Alors que l'assistance au codage par l'IA évolue rapidement, passant de la simple recherche de code à des assistants dotés d'IA intégrés dans les flux de travail des développeurs, Google souhaite partager la dernière avancée qui utilisera Gemini 2.0 : des agents de codage capables d'exécuter des tâches pour le compte des utilisateurs.

    Dans ses dernières recherches, Google a pu utiliser Gemini 2.0 Flash équipé d'outils d'exécution de code pour atteindre 51,8 % sur le SWE-bench Verified, qui teste les performances des agents sur des tâches d'ingénierie logicielle réelles. La vitesse d'inférence de pointe de 2.0 Flash a permis à l'agent d'échantillonner des centaines de solutions potentielles, en sélectionnant les meilleures sur la base des tests unitaires existants et du propre jugement de Gemini. Cette recherche est en train d'être transformée en nouveaux produits pour les développeurs.

    Rencontrez Jules, votre agent de code doté d'une IA

    Imaginez que votre équipe vient de terminer un bug bash, et que vous vous retrouvez face à une longue liste de bugs. À partir d'aujourd'hui, vous pouvez décharger les tâches de codage Python et Javascript à Jules, un agent de code expérimental alimenté par l'IA qui utilisera Gemini 2.0.

    Fonctionnant de manière asynchrone et intégré à votre flux de travail GitHub, Jules s'occupe des corrections de bogues et d'autres tâches fastidieuses pendant que vous vous concentrez sur ce que vous voulez réellement construire. Jules crée des plans complets en plusieurs étapes pour résoudre les problèmes, modifie efficacement plusieurs fichiers, et prépare même des demandes d'extraction pour renvoyer les corrections directement dans GitHub.

    Nom : Google AI Jules.PNG
Affichages : 37398
Taille : 117,9 Ko

    C'est encore un peu tôt, mais d'après l'expérience interne de Google, Jules donne aux développeurs :

    • Plus de productivité. Assignez des problèmes et des tâches de codage à Jules pour une efficacité de codage asynchrone.
    • Suivi des progrès. Restez informé et priorisez les tâches qui requièrent votre attention grâce à des mises à jour en temps réel.
    • Contrôle total par le développeur. Examinez les plans créés par Jules en cours de route, et fournissez des commentaires ou demandez des ajustements si vous le jugez nécessaire. Révisez facilement et, si nécessaire, fusionnez le code écrit par Jules dans votre projet.

    Jules est mis à la disposition d'un groupe restreint de testeurs dès aujourd'hui, et sera disponible pour les autres développeurs intéressés au début de l'année 2025.

    L'agent Data Science de Colab crée des carnets de notes pour vous

    Lors de la conférence I/O de cette année, Google a lancé un agent expérimental de science des données sur labs.google/code qui permet à quiconque de télécharger un ensemble de données et d'obtenir des informations en quelques minutes, le tout ancré dans un carnet de notes Colab fonctionnel.

    Des commentaires positifs de la part de la communauté des développeurs ont montré l'impact de cette initiative. Par exemple, avec l'aide de Data Science Agent, un scientifique du Lawrence Berkeley National Laboratory travaillant sur un projet d'émissions de méthane dans les zones humides tropicales a estimé que son temps d'analyse et de traitement était passé d'une semaine à cinq minutes.

    Nom : Colab data science agent.PNG
Affichages : 9008
Taille : 53,8 Ko

    Colab a commencé à intégrer ces mêmes capacités agentiques, en utilisant Gemini 2.0. Il vous suffit de décrire vos objectifs d'analyse en langage clair pour que votre carnet de notes prenne forme automatiquement et vous aide à accélérer votre capacité à mener des recherches et des analyses de données. Les développeurs peuvent bénéficier d'un accès anticipé à cette nouvelle fonctionnalité en rejoignant le programme de testeurs de confiance, avant qu'elle ne soit déployée plus largement auprès des utilisateurs de Colab au cours du premier semestre 2025.

    Google conclut :

    Les développeurs construisent l'avenir. Nos modèles Gemini 2.0 peuvent vous permettre de créer des applications d'IA plus performantes, plus rapidement et plus facilement, afin que vous puissiez vous concentrer sur des expériences exceptionnelles pour vos utilisateurs. Nous apporterons Gemini 2.0 à nos plateformes comme Android Studio, Chrome DevTools et Firebase dans les mois à venir. Les développeurs peuvent s'inscrire pour utiliser Gemini 2.0 Flash dans Gemini Code Assist, pour des capacités améliorées d'aide au codage dans des IDE populaires tels que Visual Studio Code, IntelliJ, PyCharm et bien d'autres.
    Source : Google

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous que l'assistant de codage Jules de Google un outil utile et intéressant ?
    Avez-vous déjà utilisé un outil similaire pour votre usage ou le développement d'applications, et si oui, qu'en pensez-vous ?

    Voir aussi :

    Les assistants d'IA de codage font-ils vraiment gagner du temps aux développeurs ? Une étude suggère que ces outils n'augmentent pas la vitesse de codage, mais augmentent significativement le taux de bogues

    Google génère « plus d'un quart de son nouveau code par l'IA », a déclaré son PDG Sundar Pichai. L'entreprise mise à fond sur l'IA, tant en interne qu'en externe

    Le Codage assisté par l'IA gratuit avec Colab : Google introduira bientôt des fonctions de codage de l'IA utilisant la famille de modèles de code la plus avancée de Google, Codey
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  4. #4
    Membre émérite
    Homme Profil pro
    Expertise comptable
    Inscrit en
    Décembre 2019
    Messages
    834
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 34
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Expertise comptable
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Décembre 2019
    Messages : 834
    Points : 2 861
    Points
    2 861
    Par défaut
    ça n'augure rien de bon et ça va participer à faire d'internet un lieu ou plus personne ne parle ni n'échange...

    Jaclyn Konzelmann, directrice de Google Labs, a décrit le projet comme un « changement de paradigme UX fondamentalement nouveau » qui pourrait transformer la manière dont les utilisateurs interagissent avec les sites web.
    Je vois plutôt ça comme une nouvelle possibilité offerte aux bots de se faire passer pour des humains.

    Théorie de l'internet mort.

    Cette artificialisation des productions numériques s'explique en partie par le changement de modèle économique des plateformes. X et Tiktok rémunèrent désormais les créateurs au nombre de vues, sous certaines conditions (souscription à un compte Premium sur X etc.), ce qui encourage la production à la pelle de contenus engageants, leur partage automatisé et donc le recours à de l'IA. Selon une prépublication de chercheurs de l'université de Stanford et de Georgetown datant de mars 2024 (en attente de relecture par les pairs), l'algorithme de recommandation de Facebook amplifierait même la portée de contenus artificiels, en les faisant figurer dans le fil d'usagers qui ne sont pas abonnés aux faux comptes qui les partagent.

  5. #5
    Membre extrêmement actif
    Homme Profil pro
    Inscrit en
    Janvier 2014
    Messages
    1 572
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations forums :
    Inscription : Janvier 2014
    Messages : 1 572
    Points : 6 027
    Points
    6 027
    Par défaut
    Citation Envoyé par Jules34 Voir le message
    ça n'augure rien de bon et ça va participer à faire d'internet un lieu ou plus personne ne parle ni n'échange...
    Je vois plutôt ça comme une nouvelle possibilité offerte aux bots de se faire passer pour des humains.

    Théorie de l'internet mort.
    Je ne sais pas si le nouvel outil de codage IA "Jules" sera utile, par contre je trouve que celui qui a mis en production sur ce forum le bot de troll complotiste "Jule34" a bien réussi son coup, ce bot très efficace arrive à énerver tous le monde contre lui en postant un ramassis de foutaises complotistes
    Expérience scientifique pour un papier de recherches ? Bot Chinois ? Russe ?

    « L’humour est une forme d'esprit railleuse qui s'attache à souligner le caractère comique, ridicule, absurde ou insolite de certains aspects de la réalité »

  6. #6
    Membre habitué
    Homme Profil pro
    CTO
    Inscrit en
    Mars 2012
    Messages
    63
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Tunisie

    Informations professionnelles :
    Activité : CTO

    Informations forums :
    Inscription : Mars 2012
    Messages : 63
    Points : 166
    Points
    166
    Par défaut
    J'ai testé Google Colab avec Gemini, c'est très puissant pour coder et déboguer. Mais génère aussi de mauvaises solutions parfois.

  7. #7
    Membre éclairé
    Homme Profil pro
    autre
    Inscrit en
    Juin 2014
    Messages
    207
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Aveyron (Midi Pyrénées)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Juin 2014
    Messages : 207
    Points : 700
    Points
    700
    Par défaut
    Encore une nouvelle annonce d'un nouveau produit révolutionnaire.

    La com' qui cache le manque d'innovation d'une techno qui est vendue comme révolutionnaire, ça va finir par se voir. Non ?

  8. #8
    Membre émérite
    Homme Profil pro
    Expertise comptable
    Inscrit en
    Décembre 2019
    Messages
    834
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 34
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Expertise comptable
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Décembre 2019
    Messages : 834
    Points : 2 861
    Points
    2 861
    Par défaut
    Citation Envoyé par Mingolito Voir le message
    Je ne sais pas si le nouvel outil de codage IA "Jules" sera utile, par contre je trouve que celui qui a mis en production sur ce forum le bot de troll complotiste "Jule34" a bien réussi son coup, ce bot très efficace arrive à énerver tous le monde contre lui en postant un ramassis de foutaises complotistes
    Expérience scientifique pour un papier de recherches ? Bot Chinois ? Russe ?
    Nous aussi on t'aime camarade.

  9. #9
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 358
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 358
    Points : 22 325
    Points
    22 325
    Par défaut Sundar Pichai, PDG de Google, a prévenu les employés que Google serait confrontée à des défis majeurs en 2025
    Sundar Pichai, PDG de Google, a prévenu les employés que l'entreprise serait confrontée à des défis majeurs en 2025, alors qu'elle s'efforce de combler son retard en matière d'IA face à une concurrence accrue

    Sundar Pichai, le PDG de Google, a fait remarquer que 2025 serait une année décisive pour l'entreprise, tout en soulignant la nécessité de relever les défis de l'intelligence artificielle (IA). S'exprimant lors de la réunion stratégique qui s'est tenue le 18 décembre 2024, Sundar Pichai, accompagné d'un groupe de cadres dont l'identité n'a pas été révélée, a détaillé les projets pour l'année prochaine, mais en portant des pulls dans l'esprit des fêtes de fin d'année.

    « Les enjeux sont importants », a déclaré Sundar Pichai, exhortant les employés à reconnaître l'importance de ce moment. Ses déclarations interviennent alors que la course à la domination dans le domaine de l'IA se poursuit au coude à coude, le géant de l'industrie Google étant déterminé à renforcer son leadership en augmentant la taille de Gemini dans l'espace grand public.

    Au début du mois de décembre 2024, Google a en effet lancé son nouveau modèle d'IA Gemini 2.0 que l'entreprise annonce comme son « modèle d'IA pour l'ère agentique ». La nouvelle famille de modèles promet d'être plus rapide et plus intelligente grâce aux progrès agentiques et offre des capacités avancées de sorties multimodales.


    Sundar Pichai n'a pas caché que Google a encore du chemin à parcourir dans le jeu concurrentiel qu'est l'IA. Il a souligné que, bien que le modèle Gemini ait connu un certain succès au début, il sera difficile en 2025 d'atteindre un statut qui lui permette de faire face à la concurrence tout en réussissant, suggérant ainsi de se lier à un projet 2025.

    Il a fait remarquer que l'application Gemini a connu un « élan incroyable », mais il a ajouté que des obstacles se dressaient devant lui et a appelé à la rapidité si Google espérait rester en tête dans la course à la technologie, où les changements rapides se produisent presque instantanément.

    Gemini, le modèle d'IA phare de Google, devrait jouer un rôle central dans la stratégie de l'entreprise l'année prochaine. Sundar Pichai a décrit la mise à l'échelle de Gemini pour les consommateurs comme la « plus grande priorité » de Google pour 2025, indiquant une approche de la main à la pâte pour étendre les capacités et les applications du modèle. Il s'agit notamment d'intégrer Gemini dans un plus grand nombre de produits et de services afin d'améliorer l'expérience des utilisateurs.

    Alors que l'IA continue de remodeler l'industrie technologique, Google mise beaucoup sur Gemini pour s'assurer une place à la pointe de l'innovation. L'appel au ralliement de Sundar Pichai souligne l'importance des enjeux dans la course à l'IA, où la vitesse et l'exécution pourraient déterminer le succès à long terme. Avec 2025 à l'horizon, Google se prépare à ce qui pourrait être l'une de ses années les plus déterminantes.

    Dans cette même perspective, Sundar Pichai a également annoncé que le moteur de recherche de Google « changera profondément » en 2025. Google Search a déjà entamé une grande refonte en intégrant de nouvelles capacités d'IA en 2024. Les changements en cours interviennent donc en réponse à l'essor des moteurs de recherche propulsés par l'IA générative, tels que Perplexity.ai ou ChatGPT Search.

    « Google Search sera en mesure de répondre à des questions plus complexes que jamais auparavant et ses nouvelles capacités vont tout simplement surprendre les utilisateurs », a déclaré Sundar Pichai au début du mois de décembre.

    Notons au passage que Sundar Pichai, également PDG d'Alphabet, est de loin le PDG de la Tech le mieux payé en 2024, avec une rémunération de 225,9 millions de dollars, soit plus d'argent que vous n'en verrez jamais dans 4 000 vies.

    Pour donner un ordre d'idée, ce montant représente plus de 800 fois le salaire moyen d'un travailleur d'Alphabet. Et il faudrait environ 4 200 ans à un travailleur américain moyen touchant 53 500 $ par an pour gagner la même somme que Sundar Pichai a perçue en une seule année. Ces rémunérations mirifiques des PDG, constamment revus à la hausse, suscitent des interrogations sur la répartition des richesses entre les dirigeants et les employés.

    Source : CNBC

    Et vous ?

    Quel est votre avis sur le sujet ?
    Pensez-vous que Google réussira à rattraper son retard en matière d'IA, alors qu'elle évolue dans un contexte de concurrence accrue et d'examen réglementaire ?

    Voir aussi :

    Google est-il encore le meilleur moteur de recherche ? L'explosion des moteurs de recherche basés sur l'IA menace la domination de Google, dont la qualité de la recherche est de plus en plus critiquée

    ChatGPT Search, le moteur de recherche d'OpenAI propulsé par l'IA, est désormais disponible pour tous les utilisateurs, bien qu'une récente étude ait montré qu'il n'est pas très fiable et manque de précision

    Le modèle Gemini-Exp-1206 de Google devance GPT-4o d'OpenAI et se place en tête du classement de l'IA, Google offre Gemini-Exp-1206 gratuitement, défiant ainsi les services avancés payants d'OpenAI
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Google lance son nouveau routeur Wi-Fi à usage domestique
    Par Stéphane le calme dans le forum Hardware
    Réponses: 14
    Dernier message: 21/08/2015, 21h04
  2. NETGEAR lance son nouveau ReadyNAS destiné aux particuliers
    Par Mejdi20 dans le forum Communiqués
    Réponses: 0
    Dernier message: 26/08/2010, 22h02
  3. Google lance son API Google Analytics
    Par Kerod dans le forum Général Conception Web
    Réponses: 2
    Dernier message: 24/04/2009, 00h52
  4. Google lance son générateur de sitemap
    Par Kerod dans le forum Webmarketing
    Réponses: 4
    Dernier message: 15/02/2009, 14h48

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo