IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Gemini 2.0 Flash : L’IA générative de Google bouscule les limites éthiques


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 538
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 538
    Par défaut Gemini 2.0 Flash : L’IA générative de Google bouscule les limites éthiques
    Google lance son nouveau modèle d'IA Gemini 2.0 pour pratiquement tout, qui promet d'être plus rapide et plus intelligent grâce aux progrès agentiques et offre des capacités avancées de sorties multimodales

    Un peu plus d'un an après la sortie de la version 1.0, Google vient d'annoncer la sortie de Gemini 2.0 comme son « nouveau modèle d'IA pour l'ère agentique ». Le premier modèle disponible est Gemini 2.0 Flash, qui « surpasse 1.5 Pro sur des benchmarks clés » - concernant le code, la factualité, les mathématiques, le raisonnement, et plus encore - à une vitesse deux fois supérieure.

    Cette annonce intervient à peine quelques jours après la publication par Google du modèle expérimental Gemini-Exp-1206, qui s'est emparé de la première place du classement Chatbot Arena en devancant GPT-4o d'OpenAI. Gemini-Exp-1206 est doté d'une fenêtre contextuelle de 2 millions de jetons et permet de traiter plus d'une heure de contenu vidéo. Il est également offert gratuitement par Google, et défie ainsi les offres payantes avancées d'OpenAI.

    Au cours de l'année écoulée, Google a continué à faire des progrès incroyables dans le domaine de l'intelligence artificielle. Ce 11 décembre 2024, le premier modèle de la famille Gemini 2.0 est lancé : une version expérimentale de Gemini 2.0 Flash. Il s'agit du modèle de référence de Google, avec une faible latence et des performances améliorées, à la pointe de sa technologie, à grande échelle.


    L'entreprise a également partagé les frontières de sa recherche agentique en présentant des prototypes utilisant les capacités multimodales natives de Gemini 2.0.

    Sundar Pichai, PDG de Google et d'Alphabet, s'est exprimé sur le sujet :

    L'information est au cœur du progrès humain. C'est la raison pour laquelle nous nous concentrons depuis plus de 26 ans sur notre mission, qui est d'organiser l'information mondiale et de la rendre accessible et utile. Et c'est pourquoi nous continuons à repousser les frontières de l'IA pour organiser cette information à travers chaque entrée et la rendre accessible via n'importe quelle sortie, afin qu'elle puisse vous être vraiment utile.

    Telle était notre vision lorsque nous avons présenté Gemini 1.0 en décembre dernier. Premier modèle conçu pour être nativement multimodal, Gemini 1.0 et 1.5 ont permis de grandes avancées en matière de multimodalité et de contexte long pour comprendre l'information à travers le texte, la vidéo, les images, l'audio et le code, et en traiter beaucoup plus.

    Aujourd'hui, des millions de développeurs construisent avec Gemini. Cela nous aide à réimaginer tous nos produits - y compris les sept d'entre eux qui comptent 2 milliards d'utilisateurs - et à en créer de nouveaux. NotebookLM est un excellent exemple de ce que la multimodalité et le contexte long peuvent permettre aux gens, et c'est pourquoi il est aimé par tant de personnes.

    L'année dernière, nous avons investi dans le développement de modèles plus agentiques, c'est-à-dire capables de mieux comprendre le monde qui vous entoure, d'anticiper plusieurs étapes et d'agir en votre nom, sous votre supervision.

    Aujourd'hui, nous sommes ravis de lancer notre nouvelle ère de modèles conçus pour cette nouvelle ère agentique : nous présentons Gemini 2.0, notre modèle le plus performant à ce jour. Grâce à de nouvelles avancées en matière de multimodalité - comme la sortie native d'images et de sons - et d'utilisation d'outils natifs, il nous permettra de construire de nouveaux agents d'IA qui nous rapprocheront de notre vision d'un assistant universel.

    Nous mettons la version 2.0 entre les mains des développeurs et des testeurs de confiance dès aujourd'hui. Et nous travaillons rapidement pour l'intégrer dans nos produits, en commençant par Gemini et Search. À partir d'aujourd'hui, le modèle expérimental Gemini 2.0 Flash sera disponible pour tous les utilisateurs de Gemini. Nous lançons également une nouvelle fonctionnalité appelée Deep Research, qui utilise des capacités avancées de raisonnement et de contexte long pour agir comme un assistant de recherche, en explorant des sujets complexes et en compilant des rapports en votre nom. Elle est disponible dès aujourd'hui dans Gemini Advanced.

    Aucun produit n'a été autant transformé par l'IA que Search. Nos aperçus d'IA touchent désormais 1 milliard de personnes, leur permettant de poser des questions d'un type entièrement nouveau - devenant rapidement l'une de nos fonctions de recherche les plus populaires. Dans une prochaine étape, nous apportons les capacités de raisonnement avancées de Gemini 2.0 aux aperçus d'IA afin de traiter des sujets plus complexes et des questions à plusieurs étapes, y compris des équations mathématiques avancées, des requêtes multimodales et du codage. Nous avons commencé des tests limités cette semaine et nous les déploierons plus largement au début de l'année prochaine. Nous continuerons à proposer les aperçus IA dans d'autres pays et d'autres langues au cours de l'année prochaine.

    Les avancées de Gemini 2.0 s'appuient sur des investissements réalisés au cours des dix dernières années dans notre approche complète et différenciée de l'innovation en matière d'IA. Elle s'appuie sur du matériel personnalisé tel que Trillium, notre TPU de sixième génération. Les TPU ont alimenté 100 % de l'entraînement et de l'inférence de Gemini 2.0, et aujourd'hui Trillium est généralement disponible pour les clients afin qu'ils puissent également construire avec.

    Si Gemini 1.0 visait à organiser et à comprendre les informations, Gemini 2.0 vise à les rendre beaucoup plus utiles. J'ai hâte de voir ce que cette nouvelle ère nous apportera.

    - Sundar
    Gemini 2.0 Flash

    Gemini 2.0 Flash s'appuie sur le succès de 1.5 Flash, le modèle le plus populaire de Google pour les développeurs, avec des performances accrues et des temps de réponse tout aussi rapides. Notamment, Gemini 2.0 Flash surpasse même 1.5 Pro sur des benchmarks clés, avec une vitesse deux fois plus élevée.

    Gemini 2.0 Flash est également doté de nouvelles fonctionnalités. Outre la prise en charge des entrées multimodales telles que les images, la vidéo et l'audio, 2.0 Flash prend désormais en charge les sorties multimodales telles que les images générées en mode natif mélangées à du texte et à de l'audio multilingue orientable de type texte-parole (TTS). Il peut également appeler en mode natif des outils tels que Google Search, l'exécution de code ainsi que des fonctions tierces définies par l'utilisateur.

    Nom : gemini 2.0.PNG
Affichages : 17022
Taille : 110,0 Ko

    L'objectif de Google est de mettre ses modèles entre les mains des utilisateurs rapidement et en toute sécurité. Au cours du mois dernier, les premières versions expérimentales de Gemini 2.0 ont été partagées, et les développeurs ont fait part de leurs commentaires positifs.

    Gemini 2.0 Flash est disponible dès maintenant en tant que modèle expérimental pour les développeurs via l'API Gemini dans Google AI Studio et Vertex AI, avec une entrée multimodale et une sortie texte disponibles pour tous les développeurs, et une synthèse vocale et une génération d'images natives disponibles pour les partenaires ayant bénéficié d'un accès anticipé. La disponibilité générale suivra en janvier, ainsi que d'autres tailles de modèles.

    Pour aider les développeurs à créer des applications dynamiques et interactives, une nouvelle interface de programmation multimodale en live est également disponible. Elle permet une saisie audio et vidéo en temps réel et la possibilité d'utiliser des outils multiples et combinés.

    À partir d'aujourd'hui, les utilisateurs de Gemini peuvent accéder à une version optimisée pour le chat de Gemini 2.0 Flash expérimental en la sélectionnant dans la liste déroulante des modèles sur les ordinateurs de bureau et les sites Web mobiles, et elle sera bientôt disponible dans l'application mobile de Gemini. Avec ce nouveau modèle, les utilisateurs peuvent profiter d'un assistant Gemini encore plus utile.

    Au début de l'année prochaine, Gemini 2.0 sera étendu à d'autres produits Google.

    Débloquer les expériences agentiques avec Gemini 2.0

    Les capacités d'action de l'interface utilisateur native de Gemini 2.0 Flash, ainsi que d'autres améliorations telles que le raisonnement multimodal, la compréhension du contexte long, le suivi et la planification d'instructions complexes, l'appel de fonctions compositionnelles, l'utilisation d'outils natifs et l'amélioration de la latence, fonctionnent de concert pour permettre une nouvelle classe d'expériences agentiques.

    L'application pratique des agents d'IA est un domaine de recherche plein de possibilités passionnantes. Google explore cette nouvelle frontière avec une série de prototypes qui peuvent aider les gens à accomplir des tâches et à faire avancer les choses. Il s'agit notamment d'une mise à jour du projet Astra, le prototype de recherche de Google qui explore les capacités futures d'un assistant IA universel, du nouveau projet Mariner, qui explore l'avenir de l'interaction homme-agent, en commençant par le navigateur, et de Jules, un agent de code alimenté par l'IA qui peut aider les développeurs.

    Google en est encore aux premiers stades de développement, mais l'entreprise se dit impatiente de voir comment les testeurs de confiance utilisent ces nouvelles capacités et quels enseignements il est possible d'en tirer, afin de les rendre plus largement disponibles dans les produits à l'avenir.

    Projet Astra : des agents utilisant la compréhension multimodale dans le monde réel

    Depuis la présentation du Projet Astra lors de la conférence I/O, Google a tiré des enseignements de l'expérience de testeurs de confiance qui l'ont utilisé sur des téléphones Android. Ces précieux commentaires ont aidé l'entreprise à mieux comprendre comment un assistant IA universel pourrait fonctionner dans la pratique, y compris les implications en matière de sécurité et d'éthique.


    Les améliorations apportées à la dernière version construite avec Gemini 2.0 sont les suivantes :

    • Amélioration des dialogues : Le Projet Astra est désormais capable de dialoguer dans plusieurs langues et dans des langues mixtes, avec une meilleure compréhension des accents et des mots peu courants.
    • Utilisation de nouveaux outils : Avec Gemini 2.0, le Projet Astra peut utiliser Google Search, Lens et Maps, ce qui le rend plus utile en tant qu'assistant dans la vie de tous les jours.
    • Meilleure mémoire : La capacité de mémorisation du Projet Astra a été améliorée, tout en permettant aux utilisateurs de garder le contrôle. Il dispose désormais de 10 minutes de mémoire en session et peut se souvenir de davantage de conversations que l'on a eues avec lui par le passé, ce qui permet de mieux le personnaliser.
    • Amélioration de la latence : Grâce aux nouvelles capacités de diffusion en continu et à la compréhension audio native, l'agent peut comprendre le langage avec une latence à peu près équivalente à celle d'une conversation humaine.

    Google s'efforce d'intégrer ce type de fonctionnalités à ses produits, tels que l'application Gemini, son assistant d'intelligence artificielle, ainsi qu'à d'autres facteurs de forme, comme les lunettes. Elle commence à étendre son programme de testeurs de confiance à un plus grand nombre de personnes, dont un petit groupe qui commencera bientôt à tester le projet Astra sur des prototypes de lunettes.

    Projet Mariner : des agents qui peuvent aider à accomplir des tâches complexes

    Le projet Mariner est un prototype de recherche précoce construit avec Gemini 2.0 qui explore l'avenir de l'interaction homme-agent, en commençant par le navigateur. En tant que prototype de recherche, il est capable de comprendre et de raisonner à travers les informations de l'écran du navigateur de l'utilisateur, y compris les pixels et les éléments web tels que le texte, le code, les images et les formulaires, puis d'utiliser ces informations via une extension Chrome expérimentale pour effectuer des tâches à votre place.

    Lors de l'évaluation par rapport au benchmark WebVoyager, qui teste les performances des agents sur des tâches web réelles de bout en bout, le projet Mariner a obtenu un résultat de pointe de 83,5 % en travaillant avec un seul agent.


    Il est encore tôt, mais le projet Mariner montre qu'il devient techniquement possible de naviguer dans un navigateur, même si ce n'est pas toujours précis et lent pour accomplir les tâches aujourd'hui, ce qui s'améliorera rapidement avec le temps.

    Pour construire ce système de manière sûre et responsable, Google mène des recherches actives sur de nouveaux types de risques et de mesures d'atténuation, tout en gardant les humains dans la boucle. Par exemple, le projet Mariner ne peut taper, faire défiler ou cliquer que dans l'onglet actif du navigateur, et il demande aux utilisateurs une confirmation finale avant d'entreprendre certaines actions sensibles, comme un achat.

    Des testeurs de confiance commencent à tester le projet Mariner à l'aide d'une extension Chrome expérimentale, et des discussions avec l'écosystème web sont en cours en parallèle.

    Jules : des agents pour les développeurs

    Google étudie la manière dont les agents d'IA peuvent aider les développeurs avec Jules - un agent de code expérimental alimenté par l'intelligence artificielle qui s'intègre directement dans un flux de travail GitHub. Il peut s'attaquer à un problème, développer un plan et l'exécuter, le tout sous la direction et la supervision d'un développeur. Cet effort s'inscrit dans l'objectif à long terme de Google de créer des agents d'IA utiles dans tous les domaines, y compris le codage.

    Agents dans les jeux et autres domaines

    Google DeepMind utilise depuis longtemps les jeux pour aider les modèles d'IA à mieux suivre les règles, la planification et la logique. La semaine dernière, par exemple, Google a présenté Genie 2, son modèle d'IA capable de créer une variété infinie de mondes 3D jouables, le tout à partir d'une seule image. S'appuyant sur cette tradition, l'entreprise a construit des agents utilisant Gemini 2.0 qui peuvent aider les utilisateurs à naviguer dans le monde virtuel des jeux vidéo. Il peut raisonner sur le jeu en se basant uniquement sur l'action à l'écran et proposer des suggestions sur ce qu'il faut faire ensuite dans le cadre d'une conversation en temps réel.

    « Nous collaborons avec des développeurs de jeux de premier plan comme Supercell pour étudier le fonctionnement de ces agents, en testant leur capacité à interpréter les règles et les défis dans une gamme variée de jeux, des titres de stratégie comme "Clash of Clans" aux simulateurs d'agriculture comme "Hay Day" », a indiqué Google.


    En plus d'agir comme des compagnons de jeu virtuels, ces agents peuvent même exploiter Google Search pour mettre les utilisateurs en contact avec la richesse des connaissances en matière de jeux sur le web.

    En plus d'explorer les capacités des agents dans le monde virtuel, Google expérimente des agents qui peuvent aider dans le monde physique en appliquant les capacités de raisonnement spatial de Gemini 2.0 à la robotique.

    Construire de manière responsable à l'ère agentique

    Gemini 2.0 Flash et les prototypes de recherche de Google lui permettent de tester et d'expérimenter de nouvelles capacités à la pointe de la recherche sur l'IA, qui rendront à terme les produits Google plus utiles.

    En développant ces nouvelles technologies, Google est conscient de la responsabilité qu'elles impliquent et des nombreuses questions que les agents d'intelligence artificielle soulèvent en matière de sûreté et de sécurité. C'est pourquoi elle adopte une approche exploratoire et progressive du développement, en menant des recherches sur plusieurs prototypes, en mettant en œuvre de manière itérative une formation à la sécurité, en travaillant avec des testeurs de confiance et des experts externes, et en procédant à des évaluations approfondies des risques, de la sécurité et de l'assurance.

    Par exemple :

    • Dans le cadre du processus de sécurité de Google, l'entreprise a travaillé avec son comité de responsabilité et de sécurité (RSC), son groupe d'examen interne de longue date, afin d'identifier et de comprendre les risques potentiels.
    • Les capacités de raisonnement de Gemini 2.0 ont permis des avancées majeures dans l'approche de l'équipe rouge assistée par l'IA, y compris la capacité d'aller au-delà de la simple détection des risques pour générer automatiquement des évaluations et des données de formation afin de les atténuer. Cela signifie que Google peut optimiser plus efficacement le modèle pour la sécurité à l'échelle.
    • La multimodalité de Gemini 2.0 augmentant la complexité des résultats potentiels, Google continuera d'évaluer et d'entraîner le modèle pour les entrées et sorties d'images et de sons afin d'améliorer la sécurité.
    • Dans le cadre du projet Astra, les moyens d'éviter que les utilisateurs ne partagent involontairement des informations sensibles avec l'agent sont à l'étude, et des contrôles de confidentialité ont déjà été mis en place pour permettre aux utilisateurs d'effacer facilement des sessions. Google poursuit également ses recherches pour s'assurer que les agents d'intelligence artificielle constituent des sources d'information fiables et ne prennent pas de mesures involontaires au nom des utilisateurs.
    • Avec le projet Mariner, Google s'efforce de faire en sorte que le modèle apprenne à donner la priorité aux instructions de l'utilisateur plutôt qu'aux tentatives d'injection d'invites par des tiers, afin d'identifier les instructions potentiellement malveillantes provenant de sources externes et d'empêcher toute utilisation abusive. Cela permet d'éviter que les utilisateurs ne soient exposés à des tentatives de fraude et d'hameçonnage par le biais d'instructions malveillantes dissimulées dans des courriels, des documents ou des sites web.

    « Nous sommes convaincus que la seule façon de développer l'IA est d'être responsable dès le départ et nous continuerons à faire de la sécurité et de la responsabilité un élément clé de notre processus de développement de modèles au fur et à mesure que nous ferons évoluer nos modèles et nos agents », a indiqué Google.

    Gemini 2.0, les agents IA et au-delà

    Les publications d'aujourd'hui marquent un nouveau chapitre pour le modèle Gemini de Google. Avec la sortie de Gemini 2.0 Flash et la série de prototypes de recherche explorant les possibilités agentiques, l'entreprise a franchi une étape passionnante dans l'ère Gemini. Google a déclaré être impatient de continuer à explorer en toute sécurité toutes les nouvelles possibilités qui s'offrent à elle au fur et à mesure qu'elle avançons vers l'IAG.

    Et vous ?

    Que pensez-vous de Gemini 2.0 et de ses fonctionnalités ?
    Trouvez-vous cette initiative de Google crédible ou pertinente ?

    Voir aussi :

    Google annonce deux nouveaux modèles IA Gemini, la réduction du prix de la version 1.5 Pro, l'augmentation des limites de taux, ainsi que la mise à jour des paramètres de filtre par défaut

    L'IA Gemini de Google dispose désormais de sa propre application iPhone qui s'accompagne de la prise en charge Gemini Live, qui permet aux utilisateurs d'avoir des conversations naturelles avec le chatbot

    Google lance Gemini Live, un chatbot d'IA à commande vocale gratuit pour les utilisateurs d'Android, Gemini Live permettrait d'avoir des conversations naturelles avec un assistant d'IA
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 538
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 538
    Par défaut Google dévoile le projet Mariner, son premier agent d'IA autonome capable de naviguer sur les navigateurs web
    Google dévoile le projet Mariner, son premier agent d'IA autonome capable de naviguer sur les navigateurs web, de contrôler le curseur et de remplir des formulaires pour reproduire les interactions en ligne

    Google a dévoilé ce 11 décembre 2024 le Project Mariner, son premier agent d'intelligence artificielle (IA) capable de naviguer de manière autonome sur les navigateurs web, par le biais d'une extension Chrome qui contrôle les mouvements du curseur et le remplissage des formulaires afin de reproduire les interactions humaines en ligne.

    Le projet Mariner a été annoncé lors du lancement par Google de sa nouvelle famille de modèles d'IA Gemini 2.0, que l'entreprise décrit comme son « nouveau modèle d'IA pour l'ère agentique ». Le premier modèle disponible, Gemini 2.0 Flash, est une version expérimentale de référence disposant d'une faible latence et de performances améliorées. Selon Google, Gemini 2.0 Flash surpasse Gemini 1.5 Pro sur des benchmarks clés concernant le code, la factualité, les mathématiques, le raisonnement, et plus encore - avec une vitesse deux fois supérieure.

    Le projet Mariner, alimenté par Gemini 2.0, a été développé par la division DeepMind de Google et est initialement disponible pour un groupe restreint de testeurs. Lors des démonstrations, l'agent a effectué des tâches telles que la création de paniers d'achat sur des sites web de vente, mais avec des délais perceptibles de cinq secondes entre les actions. Le système effectue des captures d'écran du navigateur et les traite via Gemini dans le cloud pour générer des commandes de navigation.


    L'agent fonctionne uniquement dans l'onglet actif de Chrome, ce qui oblige les utilisateurs à observer ses actions plutôt que de les exécuter en arrière-plan.

    Lors de l'évaluation par rapport au benchmark WebVoyager, qui teste les performances pour les tâches basées sur le web, le projet Mariner a obtenu un taux de réussite de 83,5 % en travaillant avec un seul agent. L'agent a des limites intégrées, notamment l'impossibilité d'effectuer des achats, d'accepter des cookies ou d'accepter des conditions de service.

    Jaclyn Konzelmann, directrice de Google Labs, a décrit le projet comme un « changement de paradigme UX fondamentalement nouveau » qui pourrait transformer la manière dont les utilisateurs interagissent avec les sites web. L'entreprise a déclaré qu'elle s'engageait avec les parties prenantes de l'écosystème du web au fur et à mesure que le développement se poursuit.

    Le projet Mariner est un prototype de recherche précoce construit avec Gemini 2.0 qui explore l'avenir de l'interaction homme-agent, en commençant par le navigateur. En tant que prototype de recherche, il est capable de comprendre et de raisonner à travers les informations de l'écran du navigateur de l'utilisateur, y compris les pixels et les éléments web tels que le texte, le code, les images et les formulaires, puis d'utiliser ces informations via une extension Chrome expérimentale pour effectuer des tâches à la place de l'utilisateur.


    Selon l'entreprise, bien qu'il soit encore tôt, le projet Mariner montre qu'il devient techniquement possible de naviguer dans un navigateur, même si ce n'est pas toujours précis et que cela prend actuellement du temps pour effectuer les tâches, mais cela s'améliorera rapidement au fil du temps.

    Pour construire ce système de manière sûre et responsable, Google a mené des recherches actives sur de nouveaux types de risques et de mesures d'atténuation, tout en gardant les humains dans le circuit. Par exemple, le projet Mariner ne peut taper, faire défiler ou cliquer que dans l'onglet actif du navigateur, et il demande aux utilisateurs une confirmation finale avant d'entreprendre certaines actions sensibles, comme un achat en ligne.

    Et vous ?

    Que pensez-vous du projet Mariner et de ses fonctionnalités ?
    Trouvez-vous qu'il s'agit d'un outil utile et intéressant ?
    Avez-vous déjà utilisé un outil similaire pour votre usage ou le développement d'applications, et si oui, qu'en pensez-vous ?

    Voir aussi :

    Google est en train de développer l'IA Jarvis, qui prend le contrôle du navigateur web d'une personne pour effectuer des tâches en ligne telles que la recherche, l'achat d'articles ou la réservation de vols

    Google a accidentellement divulgué un aperçu de son IA Jarvis, capable de prendre le contrôle d'un ordinateur, le logiciel a été disponible pendant une courte période sur le Chrome Web Store

    Anthropic propose en bêta un outil d'IA capable de prendre le contrôle du curseur de la souris de l'utilisateur et d'effectuer des tâches de base sur son ordinateur, une technologie qui suscite des inquiétudes
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  3. #3
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 538
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 538
    Par défaut Google dévoile l'assistant d'IA de codage "Jules", promettant des cycles de développement plus rapides
    Google dévoile l'assistant d'IA de codage "Jules", promettant des corrections de bogues autonomes et des cycles de développement plus rapides, et offrant une aide aux développeurs en se basant sur Gemini 2.0

    Google a dévoilé le mercredi 11 novembre « Jules », un assistant de codage doté d'une intelligence artificielle (IA) capable de corriger de manière autonome les bogues des logiciels et de préparer les modifications de code pendant que les développeurs se concentrent sur ce qu'ils veulent réellement construire, ce qui constitue une avancée significative dans le cadre des efforts déployés par l'entreprise pour automatiser les tâches de programmation essentielles.

    L'agent de codage expérimental alimenté par l'IA est construit sur la plateforme de modèles d'IA Gemini 2.0 récemment annoncée par Google. Il s'intègre directement au système de flux de travail de GitHub et peut analyser des bases de code complexes, mettre en œuvre des correctifs sur plusieurs fichiers et préparer des demandes d'extraction détaillées sans supervision humaine constante.


    Avec la nouvelle version de Gemini, Google donne aux développeurs les moyens de construire l'avenir de l'IA grâce à des modèles de pointe, des outils intelligents permettant d'écrire du code plus rapidement et une intégration transparente sur toutes les plateformes et tous les appareils. Depuis le lancement de Gemini 1.0 en décembre dernier, des millions de développeurs ont utilisé Google AI Studio et Vertex AI pour créer avec Gemini dans 109 langues.

    La disponibilité récente du modèle d'IA expérimental Gemini 2.0 Flash permet des applications encore plus immersives et interactives, ainsi que de nouveaux agents de codage qui amélioreront les flux de travail en prenant des mesures au nom du développeur.

    Construire avec Gemini 2.0 Flash

    S'appuyant sur le succès de Gemini 1.5 Flash, la version 2.0 Flash est deux fois plus rapide que la version 1.5 Pro tout en étant plus performante. Elle inclut de nouvelles sorties multimodales et permet l'utilisation d'outils en mode natif. Une API multimodale en temps réel Live est également introduite pour créer des applications dynamiques avec des flux audio et vidéo en temps réel.

    Dès ce 11 décembre, les développeurs peuvent tester et explorer Gemini 2.0 Flash via l'API Gemini dans Google AI Studio et Vertex AI pendant sa phase expérimentale, la disponibilité générale étant prévue pour le début de l'année prochaine.

    Avec Gemini 2.0 Flash, les développeurs ont accès à :

    1. De meilleures performances

    Gemini 2.0 Flash est plus puissant que la version 1.5 Pro, tout en conservant la vitesse et l'efficacité que les développeurs attendent de Flash. Il offre également des performances améliorées en matière de multimodalité, de texte, de code, de vidéo, de compréhension spatiale et de raisonnement sur des benchmarks clés.

    L'amélioration de la compréhension spatiale permet de générer des boîtes de délimitation plus précises pour les petits objets dans les images encombrées, et d'améliorer l'identification et le sous-titrage des objets.


    2. Nouvelles modalités de sortie

    Les développeurs pourront utiliser Gemini 2.0 Flash pour générer des réponses intégrées pouvant inclure du texte, du son et des images, le tout par le biais d'un seul appel API. Ces nouvelles modalités de sortie sont disponibles pour les premiers testeurs, un déploiement plus large étant prévu l'année prochaine.

    Les filigranes invisibles SynthID seront activés dans toutes les sorties images et audio, ce qui contribuera à réduire les problèmes de désinformation et d'attribution erronée.

    • Sortie audio multilingue native : Gemini 2.0 Flash dispose d'une sortie audio texte-parole native qui permet aux développeurs de contrôler finement non seulement ce que le modèle dit, mais aussi comment il le dit, avec un choix de 8 voix de haute qualité et une gamme de langues et d'accents.
    • Sortie d'images native : Gemini 2.0 Flash génère désormais des images en mode natif et prend en charge l'édition conversationnelle multi-tours, ce qui vous permet de vous appuyer sur les résultats précédents et de les affiner. Il peut produire du texte et des images entrelacés, ce qui le rend utile pour les contenus multimodaux tels que les recettes.


    3. Utilisation native d'outils

    Gemini 2.0 a été formé à l'utilisation d'outils - une capacité fondamentale pour la construction d'expériences agentiques. Il peut appeler nativement des outils tels que Google Search et l'exécution de code, ainsi que des fonctions tierces personnalisées via l'appel de fonctions. L'utilisation native de Google Search en tant qu'outil permet d'obtenir des réponses plus factuelles et plus complètes et d'augmenter le trafic vers les éditeurs. Plusieurs recherches peuvent être effectuées en parallèle, ce qui permet d'améliorer la recherche d'informations en trouvant des faits plus pertinents à partir de plusieurs sources simultanément et en les combinant pour plus de précision.


    4. API multimodale en temps réel

    Les développeurs peuvent désormais créer des applications multimodales en temps réel avec des entrées audio et vidéo provenant de caméras ou d'écrans. Les modèles de conversation naturels tels que les interruptions et la détection de l'activité vocale sont pris en charge. L'API prend en charge l'intégration de plusieurs outils pour réaliser des cas d'utilisation complexes avec un seul appel d'API.


    Les startups ont fait des progrès impressionnants avec Gemini 2.0 Flash, prototypant de nouvelles expériences comme le terrain de jeu visuel de tldraw, la création de personnages virtuels et la narration audio de Viggle, la traduction multilingue contextuelle de Toonsutra, et l'ajout de l'audio en temps réel de Rooms.

    Google a publié trois expériences d'application de démarrage dans Google AI Studio, ainsi que du code source ouvert pour la compréhension spatiale, l'analyse vidéo et l'exploration de Google Maps, afin que les développeurs puissent commencer à construire avec Gemini 2.0 Flash.

    Permettre l'évolution de l'assistance d'IA au codage

    Alors que l'assistance au codage par l'IA évolue rapidement, passant de la simple recherche de code à des assistants dotés d'IA intégrés dans les flux de travail des développeurs, Google souhaite partager la dernière avancée qui utilisera Gemini 2.0 : des agents de codage capables d'exécuter des tâches pour le compte des utilisateurs.

    Dans ses dernières recherches, Google a pu utiliser Gemini 2.0 Flash équipé d'outils d'exécution de code pour atteindre 51,8 % sur le SWE-bench Verified, qui teste les performances des agents sur des tâches d'ingénierie logicielle réelles. La vitesse d'inférence de pointe de 2.0 Flash a permis à l'agent d'échantillonner des centaines de solutions potentielles, en sélectionnant les meilleures sur la base des tests unitaires existants et du propre jugement de Gemini. Cette recherche est en train d'être transformée en nouveaux produits pour les développeurs.

    Rencontrez Jules, votre agent de code doté d'une IA

    Imaginez que votre équipe vient de terminer un bug bash, et que vous vous retrouvez face à une longue liste de bugs. À partir d'aujourd'hui, vous pouvez décharger les tâches de codage Python et Javascript à Jules, un agent de code expérimental alimenté par l'IA qui utilisera Gemini 2.0.

    Fonctionnant de manière asynchrone et intégré à votre flux de travail GitHub, Jules s'occupe des corrections de bogues et d'autres tâches fastidieuses pendant que vous vous concentrez sur ce que vous voulez réellement construire. Jules crée des plans complets en plusieurs étapes pour résoudre les problèmes, modifie efficacement plusieurs fichiers, et prépare même des demandes d'extraction pour renvoyer les corrections directement dans GitHub.

    Nom : Google AI Jules.PNG
Affichages : 44437
Taille : 117,9 Ko

    C'est encore un peu tôt, mais d'après l'expérience interne de Google, Jules donne aux développeurs :

    • Plus de productivité. Assignez des problèmes et des tâches de codage à Jules pour une efficacité de codage asynchrone.
    • Suivi des progrès. Restez informé et priorisez les tâches qui requièrent votre attention grâce à des mises à jour en temps réel.
    • Contrôle total par le développeur. Examinez les plans créés par Jules en cours de route, et fournissez des commentaires ou demandez des ajustements si vous le jugez nécessaire. Révisez facilement et, si nécessaire, fusionnez le code écrit par Jules dans votre projet.

    Jules est mis à la disposition d'un groupe restreint de testeurs dès aujourd'hui, et sera disponible pour les autres développeurs intéressés au début de l'année 2025.

    L'agent Data Science de Colab crée des carnets de notes pour vous

    Lors de la conférence I/O de cette année, Google a lancé un agent expérimental de science des données sur labs.google/code qui permet à quiconque de télécharger un ensemble de données et d'obtenir des informations en quelques minutes, le tout ancré dans un carnet de notes Colab fonctionnel.

    Des commentaires positifs de la part de la communauté des développeurs ont montré l'impact de cette initiative. Par exemple, avec l'aide de Data Science Agent, un scientifique du Lawrence Berkeley National Laboratory travaillant sur un projet d'émissions de méthane dans les zones humides tropicales a estimé que son temps d'analyse et de traitement était passé d'une semaine à cinq minutes.

    Nom : Colab data science agent.PNG
Affichages : 10694
Taille : 53,8 Ko

    Colab a commencé à intégrer ces mêmes capacités agentiques, en utilisant Gemini 2.0. Il vous suffit de décrire vos objectifs d'analyse en langage clair pour que votre carnet de notes prenne forme automatiquement et vous aide à accélérer votre capacité à mener des recherches et des analyses de données. Les développeurs peuvent bénéficier d'un accès anticipé à cette nouvelle fonctionnalité en rejoignant le programme de testeurs de confiance, avant qu'elle ne soit déployée plus largement auprès des utilisateurs de Colab au cours du premier semestre 2025.

    Google conclut :

    Les développeurs construisent l'avenir. Nos modèles Gemini 2.0 peuvent vous permettre de créer des applications d'IA plus performantes, plus rapidement et plus facilement, afin que vous puissiez vous concentrer sur des expériences exceptionnelles pour vos utilisateurs. Nous apporterons Gemini 2.0 à nos plateformes comme Android Studio, Chrome DevTools et Firebase dans les mois à venir. Les développeurs peuvent s'inscrire pour utiliser Gemini 2.0 Flash dans Gemini Code Assist, pour des capacités améliorées d'aide au codage dans des IDE populaires tels que Visual Studio Code, IntelliJ, PyCharm et bien d'autres.
    Source : Google

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous que l'assistant de codage Jules de Google un outil utile et intéressant ?
    Avez-vous déjà utilisé un outil similaire pour votre usage ou le développement d'applications, et si oui, qu'en pensez-vous ?

    Voir aussi :

    Les assistants d'IA de codage font-ils vraiment gagner du temps aux développeurs ? Une étude suggère que ces outils n'augmentent pas la vitesse de codage, mais augmentent significativement le taux de bogues

    Google génère « plus d'un quart de son nouveau code par l'IA », a déclaré son PDG Sundar Pichai. L'entreprise mise à fond sur l'IA, tant en interne qu'en externe

    Le Codage assisté par l'IA gratuit avec Colab : Google introduira bientôt des fonctions de codage de l'IA utilisant la famille de modèles de code la plus avancée de Google, Codey
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  4. #4
    Membre très actif
    Homme Profil pro
    Expertise comptable
    Inscrit en
    Décembre 2019
    Messages
    862
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 34
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Expertise comptable
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Décembre 2019
    Messages : 862
    Par défaut
    ça n'augure rien de bon et ça va participer à faire d'internet un lieu ou plus personne ne parle ni n'échange...

    Jaclyn Konzelmann, directrice de Google Labs, a décrit le projet comme un « changement de paradigme UX fondamentalement nouveau » qui pourrait transformer la manière dont les utilisateurs interagissent avec les sites web.
    Je vois plutôt ça comme une nouvelle possibilité offerte aux bots de se faire passer pour des humains.

    Théorie de l'internet mort.

    Cette artificialisation des productions numériques s'explique en partie par le changement de modèle économique des plateformes. X et Tiktok rémunèrent désormais les créateurs au nombre de vues, sous certaines conditions (souscription à un compte Premium sur X etc.), ce qui encourage la production à la pelle de contenus engageants, leur partage automatisé et donc le recours à de l'IA. Selon une prépublication de chercheurs de l'université de Stanford et de Georgetown datant de mars 2024 (en attente de relecture par les pairs), l'algorithme de recommandation de Facebook amplifierait même la portée de contenus artificiels, en les faisant figurer dans le fil d'usagers qui ne sont pas abonnés aux faux comptes qui les partagent.

  5. #5
    Membre extrêmement actif
    Homme Profil pro
    Inscrit en
    Janvier 2014
    Messages
    1 607
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations forums :
    Inscription : Janvier 2014
    Messages : 1 607
    Par défaut
    Citation Envoyé par Jules34 Voir le message
    ça n'augure rien de bon et ça va participer à faire d'internet un lieu ou plus personne ne parle ni n'échange...
    Je vois plutôt ça comme une nouvelle possibilité offerte aux bots de se faire passer pour des humains.

    Théorie de l'internet mort.
    Je ne sais pas si le nouvel outil de codage IA "Jules" sera utile, par contre je trouve que celui qui a mis en production sur ce forum le bot de troll complotiste "Jule34" a bien réussi son coup, ce bot très efficace arrive à énerver tous le monde contre lui en postant un ramassis de foutaises complotistes
    Expérience scientifique pour un papier de recherches ? Bot Chinois ? Russe ?


  6. #6
    Membre averti
    Homme Profil pro
    CTO
    Inscrit en
    Mars 2012
    Messages
    63
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Tunisie

    Informations professionnelles :
    Activité : CTO

    Informations forums :
    Inscription : Mars 2012
    Messages : 63
    Par défaut
    J'ai testé Google Colab avec Gemini, c'est très puissant pour coder et déboguer. Mais génère aussi de mauvaises solutions parfois.

  7. #7
    Membre confirmé
    Homme Profil pro
    autre
    Inscrit en
    Juin 2014
    Messages
    276
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Aveyron (Midi Pyrénées)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Juin 2014
    Messages : 276
    Par défaut
    Encore une nouvelle annonce d'un nouveau produit révolutionnaire.

    La com' qui cache le manque d'innovation d'une techno qui est vendue comme révolutionnaire, ça va finir par se voir. Non ?

  8. #8
    Membre très actif
    Homme Profil pro
    Expertise comptable
    Inscrit en
    Décembre 2019
    Messages
    862
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 34
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Expertise comptable
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Décembre 2019
    Messages : 862
    Par défaut
    Citation Envoyé par Mingolito Voir le message
    Je ne sais pas si le nouvel outil de codage IA "Jules" sera utile, par contre je trouve que celui qui a mis en production sur ce forum le bot de troll complotiste "Jule34" a bien réussi son coup, ce bot très efficace arrive à énerver tous le monde contre lui en postant un ramassis de foutaises complotistes
    Expérience scientifique pour un papier de recherches ? Bot Chinois ? Russe ?
    Nous aussi on t'aime camarade.

  9. #9
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 538
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 538
    Par défaut Sundar Pichai, PDG de Google, a prévenu les employés que Google serait confrontée à des défis majeurs en 2025
    Sundar Pichai, PDG de Google, a prévenu les employés que l'entreprise serait confrontée à des défis majeurs en 2025, alors qu'elle s'efforce de combler son retard en matière d'IA face à une concurrence accrue

    Sundar Pichai, le PDG de Google, a fait remarquer que 2025 serait une année décisive pour l'entreprise, tout en soulignant la nécessité de relever les défis de l'intelligence artificielle (IA). S'exprimant lors de la réunion stratégique qui s'est tenue le 18 décembre 2024, Sundar Pichai, accompagné d'un groupe de cadres dont l'identité n'a pas été révélée, a détaillé les projets pour l'année prochaine, mais en portant des pulls dans l'esprit des fêtes de fin d'année.

    « Les enjeux sont importants », a déclaré Sundar Pichai, exhortant les employés à reconnaître l'importance de ce moment. Ses déclarations interviennent alors que la course à la domination dans le domaine de l'IA se poursuit au coude à coude, le géant de l'industrie Google étant déterminé à renforcer son leadership en augmentant la taille de Gemini dans l'espace grand public.

    Au début du mois de décembre 2024, Google a en effet lancé son nouveau modèle d'IA Gemini 2.0 que l'entreprise annonce comme son « modèle d'IA pour l'ère agentique ». La nouvelle famille de modèles promet d'être plus rapide et plus intelligente grâce aux progrès agentiques et offre des capacités avancées de sorties multimodales.


    Sundar Pichai n'a pas caché que Google a encore du chemin à parcourir dans le jeu concurrentiel qu'est l'IA. Il a souligné que, bien que le modèle Gemini ait connu un certain succès au début, il sera difficile en 2025 d'atteindre un statut qui lui permette de faire face à la concurrence tout en réussissant, suggérant ainsi de se lier à un projet 2025.

    Il a fait remarquer que l'application Gemini a connu un « élan incroyable », mais il a ajouté que des obstacles se dressaient devant lui et a appelé à la rapidité si Google espérait rester en tête dans la course à la technologie, où les changements rapides se produisent presque instantanément.

    Gemini, le modèle d'IA phare de Google, devrait jouer un rôle central dans la stratégie de l'entreprise l'année prochaine. Sundar Pichai a décrit la mise à l'échelle de Gemini pour les consommateurs comme la « plus grande priorité » de Google pour 2025, indiquant une approche de la main à la pâte pour étendre les capacités et les applications du modèle. Il s'agit notamment d'intégrer Gemini dans un plus grand nombre de produits et de services afin d'améliorer l'expérience des utilisateurs.

    Alors que l'IA continue de remodeler l'industrie technologique, Google mise beaucoup sur Gemini pour s'assurer une place à la pointe de l'innovation. L'appel au ralliement de Sundar Pichai souligne l'importance des enjeux dans la course à l'IA, où la vitesse et l'exécution pourraient déterminer le succès à long terme. Avec 2025 à l'horizon, Google se prépare à ce qui pourrait être l'une de ses années les plus déterminantes.

    Dans cette même perspective, Sundar Pichai a également annoncé que le moteur de recherche de Google « changera profondément » en 2025. Google Search a déjà entamé une grande refonte en intégrant de nouvelles capacités d'IA en 2024. Les changements en cours interviennent donc en réponse à l'essor des moteurs de recherche propulsés par l'IA générative, tels que Perplexity.ai ou ChatGPT Search.

    « Google Search sera en mesure de répondre à des questions plus complexes que jamais auparavant et ses nouvelles capacités vont tout simplement surprendre les utilisateurs », a déclaré Sundar Pichai au début du mois de décembre.

    Notons au passage que Sundar Pichai, également PDG d'Alphabet, est de loin le PDG de la Tech le mieux payé en 2024, avec une rémunération de 225,9 millions de dollars, soit plus d'argent que vous n'en verrez jamais dans 4 000 vies.

    Pour donner un ordre d'idée, ce montant représente plus de 800 fois le salaire moyen d'un travailleur d'Alphabet. Et il faudrait environ 4 200 ans à un travailleur américain moyen touchant 53 500 $ par an pour gagner la même somme que Sundar Pichai a perçue en une seule année. Ces rémunérations mirifiques des PDG, constamment revus à la hausse, suscitent des interrogations sur la répartition des richesses entre les dirigeants et les employés.

    Source : CNBC

    Et vous ?

    Quel est votre avis sur le sujet ?
    Pensez-vous que Google réussira à rattraper son retard en matière d'IA, alors qu'elle évolue dans un contexte de concurrence accrue et d'examen réglementaire ?

    Voir aussi :

    Google est-il encore le meilleur moteur de recherche ? L'explosion des moteurs de recherche basés sur l'IA menace la domination de Google, dont la qualité de la recherche est de plus en plus critiquée

    ChatGPT Search, le moteur de recherche d'OpenAI propulsé par l'IA, est désormais disponible pour tous les utilisateurs, bien qu'une récente étude ait montré qu'il n'est pas très fiable et manque de précision

    Le modèle Gemini-Exp-1206 de Google devance GPT-4o d'OpenAI et se place en tête du classement de l'IA, Google offre Gemini-Exp-1206 gratuitement, défiant ainsi les services avancés payants d'OpenAI
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  10. #10
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 149
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 149
    Par défaut Gemini 2.0 est maitenant accessible à un plus grand nombre de développeurs et d'utilisateurs, selon Google
    Le grand modèle de langage Gemini 2.0 de Google DeepMind est maintenant disponible pour tout le monde, et la famille d'IA Gemini 2.0 s'étend pour les développeurs.

    Google annonce des mises à jour pour rendre Gemini 2.0 accessible à un plus grand nombre de développeurs et d'utilisateurs via l'API Gemini via Google AI Studio et dans Vertex AI. Gemini 2.0 Flash est désormais disponible en général, avec des limites de taux plus élevées, des performances accrues et une tarification simplifiée. Gemini 2.0 Flash-Lite, une nouvelle variante qui serait le modèle le plus économique de Google à ce jour, est maintenant disponible en avant-première publique. Gemini 2.0 Pro, une mise à jour expérimentale du meilleur modèle de Google pour le codage et les invites complexes, est maintenant disponible.

    En décembre 2024, Google a annoncé la sortie de Gemini 2.0, son "nouveau modèle d'IA pour l'ère agentique". Le premier modèle disponible est Gemini 2.0 Flash, "un modèle de référence très efficace pour les développeurs, avec une faible latence et des performances accrues", selon Google. Puis en janvier 2025, Google a mis à jour 2.0 Flash Thinking Experimental dans Google AI Studio, pour améliorer ses performances en combinant la vitesse de Flash et la capacité de raisonner sur des problèmes complexes. Google a également mis une version actualisée de Flash 2.0 à la disposition de tous les utilisateurs de l'application Gemini sur ordinateur et mobile.

    Pour rappel, Gemini (anciennement connu sous le nom de Bard) est une famille de grands modèles de langage multimodaux développés par Google DeepMind, servant de successeur à LaMDA et PaLM 2. Comprenant Gemini Ultra, Gemini Pro, Gemini Flash, et Gemini Nano, il a été annoncé le 6 décembre 2023, positionné comme un concurrent du GPT-4 d'OpenAI. Il alimente le chatbot du même nom.

    Le 5 février 2025, Google a annoncé mettre la version actualisée de Gemini 2.0 Flash à la disposition de tous via l'API Gemini dans Google AI Studio et Vertex AI. Les développeurs peuvent désormais créer des applications de production avec 2.0 Flash. Avec cette annonce, Google publie également une version expérimentale de Gemini 2.0 Pro, "son meilleur modèle à ce jour pour les performances de codage et les invites complexes." Elle est disponible dans Google AI Studio et Vertex AI, ainsi que dans l'application Gemini pour les utilisateurs de Gemini Advanced.

    En outre, Google annonce un nouveau modèle, Gemini 2.0 Flash-Lite, notre modèle le plus économique à ce jour, en avant-première publique dans Google AI Studio et Vertex AI. Enfin, le modèle 2.0 Flash Thinking Experimental sera disponible pour les utilisateurs de l'application Gemini dans la liste déroulante des modèles sur les ordinateurs de bureau et les téléphones portables. Google annonce que tous ces modèles seront dotés d'une entrée multimodale et d'une sortie texte dès leur sortie, et d'autres modalités seront prêtes pour une disponibilité générale dans les mois à venir.


    2.0 Flash : une nouvelle mise à jour pour une disponibilité générale

    Présentée pour la première fois lors de la conférence I/O 2024, la série de modèles Flash est appréciée en tant que puissant modèle de travail, optimal pour les tâches à volume et à fréquence élevés à l'échelle et capable de raisonnement multimodal sur des quantités d'informations avec une fenêtre de contexte d'un million de jetons. La version 2.0 de Flash est désormais accessible à un plus grand nombre de personnes dans les produits d'IA de Google, avec des performances améliorées dans les principaux critères d'évaluation, la génération d'images et la synthèse vocale étant à venir.

    2.0 Pro Experimental : le meilleur modèle de Google à ce jour pour les performances de codage et les invites complexes

    Les premières versions expérimentales de Gemini 2.0, comme Gemini-Exp-1206, ont suscité de bons commentaires de la part des développeurs sur ses points forts et ses cas d'utilisation, comme le codage. Google annonce donc une version expérimentale de Gemini 2.0 Pro qui répond à ces commentaires. Elle offrirait de meilleures performances en matière de codage et une meilleure capacité à gérer des invites complexes, avec une meilleure compréhension et un meilleur raisonnement de la connaissance du monde. Il est doté de la plus grande fenêtre contextuelle (2 millions de jetons), ce qui lui permet d'analyser et de comprendre des quantités d'informations, ainsi que de faire appel à des outils tels que Google Search et l'exécution de code.

    Nom : 1.jpg
Affichages : 16683
Taille : 104,1 Ko

    2.0 Flash-Lite : le modèle de Google le plus économique à ce jour

    Google affirme que le prix et la vitesse du Flash 1.5 ont suscité des commentaires positifs. Pour continuer à améliorer la qualité, tout en maintenant le prix et la vitesse, Google présente 2.0 Flash-Lite, un nouveau modèle qui offre une meilleure qualité que 1.5 Flash, à la même vitesse et au même prix. Il surpasse le Flash 1.5 dans la majorité des tests de référence. Comme Flash 2.0, il dispose d'une fenêtre contextuelle d'un million de jetons et d'une entrée multimodale. Gemini 2.0 Flash-Lite est disponible dans Google AI Studio et Vertex AI en version publique.

    Caractéristiques des modèles

    Gemini 2.0 Flash offre un ensemble de fonctionnalités, notamment l'utilisation d'outils en natif, une fenêtre contextuelle d'un million de jetons et une saisie multimodale. Il prend actuellement en charge la sortie texte, avec des capacités de sortie image et audio et l'API Multimodal Live prévue pour une disponibilité générale dans les mois à venir. Gemini 2.0 Flash-Lite est optimisé en termes de coûts pour les cas d'utilisation à grande échelle de la sortie texte.

    Nom : 2.jpg
Affichages : 5030
Taille : 80,5 Ko

    Performances des modèles

    Les modèles Gemini 2.0 offrent des améliorations significatives des performances par rapport à Gemini 1.5 sur une série de points de référence. Comme pour les modèles précédents, Gemini 2.0 Flash utilise par défaut un style concis qui facilite son utilisation et réduit les coûts. Il peut également être invité à utiliser un style plus verbeux qui produit de meilleurs résultats dans les cas d'utilisation orientés vers le chat.

    Nom : 3.jpg
Affichages : 5040
Taille : 135,5 Ko

    Tarifs des modèles

    Google affirme réduire les coûts avec Gemini 2.0 Flash et 2.0 Flash-Lite. Les deux ont un prix unique par type d'entrée, supprimant la distinction de Gemini 1.5 Flash entre les requêtes contextuelles courtes et longues. Cela signifie que le coût de Flash 2.0 et de Flash-Lite peut être inférieur à celui de Gemini 1.5 Flash pour les charges de travail à contexte mixte, malgré les améliorations de performance qu'ils apportent tous les deux.

    Nom : 4.jpg
Affichages : 5017
Taille : 77,1 Ko

    Pour conclure son annonce, Google a partagé sa politique de responsabilité et son travail de sécurité :

    Au fur et à mesure que les capacités de la famille de modèles Gemini augmentent, nous continuerons à investir dans des mesures robustes qui permettent une utilisation sûre et sécurisée. Par exemple, notre gamme Gemini 2.0 a été construite avec de nouvelles techniques d'apprentissage par renforcement qui utilisent Gemini lui-même pour critiquer ses réponses. Cela a permis d'obtenir un retour d'information plus précis et plus ciblé, et d'améliorer la capacité du modèle à gérer des questions délicates.

    Nous tirons également parti du red teaming automatisé pour évaluer les risques de sûreté et de sécurité, y compris ceux posés par les risques d'injection indirecte d'invites, un type d'attaque de cybersécurité qui consiste pour les attaquants à dissimuler des instructions malveillantes dans des données susceptibles d'être récupérées par un système d'intelligence artificielle.

    Source : Google

    Et vous ?

    Pensez-vous que cette annonce de Google est crédible ou pertinente ?
    Quel est votre avis sur ces modèles ?

    Voir aussi :

    Gemini 2.0 Flash Thinking Experimental : Pour ne pas être distancé par OpenAI et son modèle o1. Google lance son propre modèle d'IA qui utilise des techniques de « raisonnement »

    Google annonce deux nouveaux modèles IA Gemini, la réduction du prix de la version 1.5 Pro, l'augmentation des limites de taux, ainsi que la mise à jour des paramètres de filtre par défaut

    Google prévoit de réaliser un investissement colossal de 75 milliards de dollars dans l'IA en 2025 pour renforcer sa présence dans le domaine de l'IA et écraser la concurrence
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  11. #11
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 538
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 538
    Par défaut L'IA Gemini de Google utilise désormais les conversations passées pour améliorer la précision des réponses
    Les abonnés à l'IA Gemini Advanced de Google peuvent désormais faire appel aux conversations passées pour améliorer la précision des réponses, et permettre aux nouvelles discussions de ne plus repartir de zéro

    Google a annoncé une nouvelle fonctionnalité pour son service d'IA, Gemini, qui lui permet de se souvenir des discussions passées pour améliorer la précision des réponses.

    La nouvelle fonctionnalité voit le jour quelques semaines après que Google a annoncé la sortie de Gemini 2.0, son nouveau « modèle d'IA pour l'ère agentique », doté de capacités multimodales avancées et qui se veut plus rapide et plus intelligent.

    La récente mise à jour de Gemini, disponible à partir de ce 13 février 2025, permet aux utilisateurs de faire référence à des discussions antérieures ou de demander des résumés de chats sans avoir à rechercher d'anciens fils de conversation. Les utilisateurs peuvent ainsi continuer à travailler sur des projets ou des conversations antérieurs en toute transparence.


    Le contrôle de l'historique des conversations est maintenu, puisque les utilisateurs peuvent revoir, supprimer ou définir des préférences de conservation pour leurs données de conversation. De plus, l'activité de Gemini Apps peut être désactivé dans les réglages de Mon Activité. Lorsque les conversations passées influencent les réponses, Gemini peut l'indiquer dans ses sources et dans le contenu associé.

    Initialement disponible en anglais pour les abonnés Gemini Advanced dans le cadre du plan Google One AI Premium, la fonctionnalité est accessible via le web et l'application mobile. Google prévoit d'étendre le déploiement à d'autres langues et aux clients de Google Workspace Business et Enterprise dans les semaines à venir.

    Le contenu du communiqué annonçant la nouvelle fonctionnalité est disponible ci-dessous :

    Citation Envoyé par Google
    À partir d'aujourd'hui, Gemini peut désormais se souvenir de vos discussions passées pour vous fournir des réponses plus utiles. Que vous posiez une question sur un sujet dont vous avez déjà discuté ou que vous demandiez à Gemini de résumer une conversation précédente, Gemini utilise désormais les informations des chats pertinents pour élaborer une réponse.

    Cela signifie qu'il n'est plus nécessaire de repartir de zéro ou de rechercher le fil d'une conversation précédente. De plus, vous pouvez vous appuyer sur les conversations précédentes ou sur les projets que vous avez déjà lancés.

    Vous contrôlez les informations stockées. Vous pouvez facilement consulter, supprimer ou décider de la durée de conservation de votre historique de chat. Vous pouvez également désactiver complètement l'activité de Gemini Apps en allant dans Mon Activité. Gemini peut indiquer quand il utilise vos chats passés dans les sources et le contenu connexe.

    Cette fonctionnalité est en cours de déploiement en anglais pour les abonnés à Gemini Advanced via Google One AI Premium Plan sur le site Web et l'application mobile de Gemini. Elle sera déployée dans d'autres langues et pour nos clients Google Workspace Business et Enterprise au cours des prochaines semaines.
    Source : Communiqué de Google

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous qu'il s'agit d'une fonctionnalité utile et intéressante ?
    Selon vous, quelles sont les implications potentielles sur la vie privée du stockage et de l'utilisation par Gemini des données des discussions passées pour améliorer la qualité des interactions avec les utilisateurs ?

    Voir aussi :

    Le grand modèle de langage Gemini 2.0 de Google DeepMind est maintenant disponible pour tout le monde, et la famille d'IA Gemini 2.0 s'étend pour les développeurs

    Gemini 2.0 Flash Thinking Experimental : Pour ne pas être distancé par OpenAI et son modèle o1, Google lance son propre modèle d'IA qui utilise des techniques de « raisonnement »

    L'IA Gemini de Google dispose désormais de sa propre application iPhone qui s'accompagne de la prise en charge Gemini Live, qui permet aux utilisateurs d'avoir des conversations naturelles avec le chatbot
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  12. #12
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 538
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 538
    Par défaut L'outil d'IA de codage de Google Gemini est désormais gratuit pour les utilisateurs individuels
    L'outil d'IA de codage de Google Gemini est désormais gratuit pour les utilisateurs individuels, et fournit 90 fois plus de complétions de code par mois que la version gratuite de GitHub Copilot

    Google met gratuitement à la disposition des développeurs de logiciels du monde entier des outils de codage et de révision de code alimenté par son intelligence artificielle (IA) Gemini. Le géant de la technologie a annoncé l'aperçu public de Gemini Code Assist pour les particuliers et de Gemini Code Assist pour GitHub. Selon l'entreprise, ce lancement vise à permettre à tous - des étudiants travaillant sur des projets académiques aux développeurs de startups testant de nouvelles idées - d'améliorer la productivité et la qualité du code sans se soucier du coût ou des limites d'utilisation restrictives.

    Cette annonce survient peu après que Google a dévoilé l'assistant d'IA de codage Jules, capable de corriger des bogues de manière autonome et promettant des cycles de développement plus rapides en se basant sur Gemini 2.0.

    Selon la dernière étude DORA de Google, plus de 75 % des développeurs s'appuient sur l'IA dans leurs tâches quotidiennes. Chez Google, plus de 25 % du nouveau code est généré par l'IA, puis revu et accepté par les ingénieurs.

    Alors que les entreprises disposant de ressources importantes dotent leurs équipes d'ingénieurs des dernières capacités en matière d'IA, ce niveau de moyens n'a pas toujours été accessible aux étudiants, aux amateurs, aux indépendants et aux startups. Avec une population mondiale de développeurs qui devrait atteindre 57,8 millions d'ici 2028, Google pense que l'IA devrait être disponible pour eux, qu'ils puissent payer ou non, afin qu'ils puissent commencer à construire avec ce qui est rapidement en train de devenir les outils numériques standard du futur.

    Ainsi, pour combler ce fossé, l'entreprise vient d'annoncer l'avant-première publique de Gemini Code Assist pour les particuliers, une version gratuite de son assistant de codage IA.


    Assistance au développement logiciel alimentée par Gemini 2.0

    Gemini Code Assist pour les particuliers est disponible dans le monde entier et fonctionne avec Gemini 2.0. Il prend en charge tous les langages de programmation du domaine public et, surtout, il est optimisé pour le codage. Google a indiqué avoir affiné le modèle Gemini 2.0 pour les développeurs en analysant et en validant un grand nombre de cas d'utilisation de codage dans le monde réel. En conséquence, l'entreprise a annoncé que la qualité des recommandations générées par l'IA dans Gemini Code Assist est meilleure que jamais et prête à répondre à la myriade de défis quotidiens auxquels les développeurs sont confrontés, qu'il s'agisse de passionnés ou de développeurs de start-ups.

    Alors que d'autres assistants de codage gratuits ont des limites d'utilisation restrictives, avec généralement seulement 2 000 complétions de code par mois, Google a voulu offrir quelque chose de plus généreux. Gemini Code Assist offre ainsi une capacité pratiquement illimitée avec jusqu'à 180 000 complétions de code par mois - un plafond suffisamment élevé que même les développeurs professionnels les plus dévoués auraient du mal à le dépasser.

    Nom : Gemini-Code-Assist.png
Affichages : 71809
Taille : 216,1 Ko

    Mais l'IA n'est pas seulement un accélérateur d'écriture de code, elle peut aussi aider à écrire un meilleur code. Un processus de révision de code efficace et de qualité est essentiel, mais les révisions de code prennent souvent beaucoup de temps et empêchent de faire avancer les choses. C'est pourquoi Google a également contribué à réduire le temps nécessaire aux développeurs pour effectuer des révisions de code grâce à l'aperçu public de Gemini Code Assist pour GitHub, qui fournit gratuitement des révisions de code assistées par l'IA pour les dépôts publics et privés.

    Une assistance au codage par l'IA, là où les développeurs le souhaitent, sans frais

    Les développeurs passent la plupart de leur temps à coder dans des environnements de développement intégrés (EDI). Avec la nouvelle version gratuite de Gemini Code Assist dans Visual Studio Code et JetBrains IDE, les développeurs individuels disposent désormais des mêmes fonctionnalités de complétion de code, de génération et de chat que celles offertes par Google aux entreprises depuis plus d'un an, et qui sont déjà disponibles gratuitement dans Firebase et Android Studio. Désormais, chacun peut apprendre plus facilement, créer des extraits de code, déboguer et modifier ses applications existantes, sans avoir à basculer d'une fenêtre à l'autre pour obtenir de l'aide ou à copier et coller des informations provenant de sources déconnectées.

    Et avec la limite d'utilisation plus généreuse, qui permet de réaliser 90 fois plus de complétions de code par mois que les autres assistants de codage gratuits les plus populaires, les codeurs de tous types peuvent récolter les fruits de leur travail. Si vous êtes étudiant et que vous travaillez sur un projet urgent, vous ne verrez pas votre projet s'arrêter soudainement parce que vous avez atteint un plafond, et vous n'aurez pas à vous inquiéter des limites de chat qui interrompent vos sessions de programmation en binôme.

    Par ailleurs, Gemini Code Assist pour les particuliers est livré avec une généreuse fenêtre contextuelle de jetons, avec jusqu'à 128 000 jetons d'entrée pris en charge dans le chat. Cette grande fenêtre contextuelle permet aux développeurs d'utiliser des fichiers volumineux et d'utiliser Gemini Code Assist avec une compréhension plus large de leurs bases de code locales.

    Nom : Gemini Code Assist and Gemini Code Review.png
Affichages : 23189
Taille : 196,1 Ko

    La fonction de chat permet également aux développeurs de se concentrer sur la partie créative du développement, tout en laissant à Gemini les étapes nécessaires mais répétitives, comme la rédaction de commentaires ou de tests automatisés à partir des exigences.

    Les développeurs peuvent en outre utiliser le langage naturel dans une variété de langues dans Gemini Code Assist pour générer, expliquer et améliorer le code. Par exemple, un développeur Web indépendant pourrait rapidement obtenir du code avec une invite telle que « Construis-moi un simple formulaire HTML avec des champs pour le nom, l'adresse électronique et le message, puis ajoute un bouton “soumettre” ». Ou encore, une personne cherchant à automatiser des tâches plus routinières peut demander à Gemini : « Écris un script qui envoie un courriel quotidien avec les dernières prévisions météorologiques “ ou ” Explique ce que fait cet extrait de code Python et trouve les erreurs éventuelles ».

    Retour d'information personnalisable et exploitable sur vos pull requests avec Gemini Code Assist pour GitHub

    La revue de code est l'une des parties les plus critiques, bien que chronophage, du développement logiciel. Avec Gemini Code Assist pour GitHub, les développeurs bénéficient désormais d'une aide puissante capable de détecter les problèmes de style et les bogues et de suggérer automatiquement des modifications et des corrections de code. Le fait de confier les révisions de base à un agent IA peut contribuer à rendre les référentiels de code plus faciles à maintenir et à améliorer la qualité, ce qui permet aux développeurs de se concentrer sur des tâches plus complexes. La solution est disponible directement sur GitHub, où la plupart des développeurs de logiciels libres publient et révisent du code, via une application GitHub.

    Les équipes de développeurs peuvent également avoir accès à des bonnes pratiques, des conventions de codage et des frameworks et bibliothèques différents. Pour répondre à ce besoin, Gemini Code Assist pour GitHub prend en charge les guides de style personnalisés pour les revues de code. Chaque équipe peut décrire les instructions que Gemini doit suivre lors de la révision du code dans un fichier .gemini/styleguide.md dans leur dépôt. De cette façon, Gemini adapte ses revues de code aux besoins du dépôt.

    Nom : Gemini Code Assist and Gemini Code Review in GitHub.png
Affichages : 22913
Taille : 75,3 Ko

    Commencez rapidement et facilement, dès aujourd'hui

    Que vous soyez un étudiant qui construit une visualisation de données interactive en JavaScript ou un développeur indépendant qui teste des idées pour une application ou un jeu, vous pouvez utiliser Gemini Code Assist pour vous aider à réaliser votre projet plus rapidement, avec plus d'expertise, et ce gratuitement.

    L'inscription est rapide et facile, et ne nécessite qu'un compte Gmail personnel, sans carte de crédit. Gemini Code Assist peut être installé dans Visual Studio Code, GitHub ou JetBrains IDE.

    Les personnes intéressées par des fonctionnalités avancées telles que les mesures de productivité, les réponses personnalisées de l'IA basées sur les dépôts de code source privés, ou les intégrations avec les services Google Cloud tels que BigQuery peuvent, quant à elles, envisager Gemini Code Assist Standard ou Enterprise.

    Source : Google

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous cette initiative de Google crédible ou pertinente ?
    Avez-vous déjà utilisé cet outil ou un outil similaire pour votre usage ou le développement d'applications, et si oui, qu'en pensez-vous ?

    Voir aussi :

    Le grand modèle de langage Gemini 2.0 de Google DeepMind est maintenant disponible pour tout le monde, et la famille d'IA Gemini 2.0 s'étend pour les développeurs

    Google génère « plus d'un quart de son nouveau code par l'IA », a déclaré son PDG Sundar Pichai. L'entreprise mise à fond sur l'IA, tant en interne qu'en externe

    Les assistants d'IA de codage font-ils vraiment gagner du temps aux développeurs ? Une étude suggère que ces outils n'augmentent pas la vitesse de codage, mais augmentent significativement le taux de bogues
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  13. #13
    Membre actif
    Profil pro
    Inscrit en
    Novembre 2003
    Messages
    117
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Novembre 2003
    Messages : 117
    Par défaut
    C'est dommage qu'il ne soit pas disponible pour Visual Studio, je ne vois pas l'interet d'utiliser VS Code ?

  14. #14
    r0d
    r0d est déconnecté
    Membre expérimenté

    Homme Profil pro
    Développeur informatique
    Inscrit en
    Août 2004
    Messages
    4 287
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Ain (Rhône Alpes)

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Août 2004
    Messages : 4 287
    Billets dans le blog
    2
    Par défaut
    Citation Envoyé par jnspunk Voir le message
    C'est dommage qu'il ne soit pas disponible pour Visual Studio, je ne vois pas l'interet d'utiliser VS Code ?
    VS Code est l'IDE le plus utilisé (source).
    Jetbrains est en train de rebattre les cartes mais ça va prendre un peu de temps.
    « L'effort par lequel toute chose tend à persévérer dans son être n'est rien de plus que l'essence actuelle de cette chose. »
    Spinoza — Éthique III, Proposition VII

  15. #15
    Membre éprouvé Avatar de marsupial
    Homme Profil pro
    Retraité
    Inscrit en
    Mars 2014
    Messages
    1 827
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : Retraité

    Informations forums :
    Inscription : Mars 2014
    Messages : 1 827
    Par défaut
    En général, Visual Studio est utilisé par les pros ou étudiant; et donc un tel public a déjà accès à la version pro de Gemini Code Assist.
    Je ne dis pas que VS Code n'est pas aussi utilisé par les pros mais cela se destine à un public plus linux ou amateur. Je ne dis pas que le public linux est une bande d'amateurs mais un champ de clientèle allergique au payant même s'il y a des applis payantes ou des linux payant comme RHEL mais destinés à un public pro.

    edit : donc Google ne va pas phagocyter son marché de Gemini Code Assist Enterprise en rendant disponible Gemini Code Assist pour Visual Studio, ça me paraît logique et je ne comprends pas le pouce vers le bas. S'il pouvait m'expliquer pourquoi, je suis tout ouïe.

  16. #16
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 538
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 538
    Par défaut Sergey Brin exhorte les ingénieurs de Google à travailler 60 h par semaine pour réaliser une percée dans l'AGI
    Sergey Brin exhorte les ingénieurs de Google à travailler 60 heures par semaine pour réaliser une percée dans l'AGI, et leur recommande d'être présents au bureau chaque jour de la semaine pour développer l'IA

    Sergey Brin, cofondateur de Google, a appelé les ingénieurs de l'entreprise à augmenter considérablement leur temps de travail, poussant à une semaine de 60 heures pour accélérer le développement de l'intelligence artificielle générale (AGI).

    Cette décision de Sergey Brin, qui est récemment revenu au siège de Google pour aider à développer l'IA Gemini, intervient alors que Google DeepMind vient de rendre Gemini 2.0 disponible pour tout le monde, notamment pour les développeurs via l'API Gemini dans Google AI Studio et Vertex AI.

    Sergey Brin insiste sur le fait que ce niveau d'engagement consistant à augmenter le nombre d'heures de travail est essentiel pour que Google retrouve son avantage concurrentiel dans le secteur de l'IA après la montée en puissance de ChatGPT d'OpenAI. Il a recommandé aux ingénieurs d'être présents au bureau tous les jours de la semaine.

    « Je recommande d'être au bureau au moins tous les jours de la semaine », a-t-il écrit dans un mémo publié en interne à l'intention des employés qui travaillent sur Gemini, la gamme de modèles et d'apps d'IA de Google.


    Sergey Brin a déclaré que travailler 60 heures par semaine représente le « point idéal de la productivité », tout en avertissant que le dépassement de ce seuil pourrait conduire à l'épuisement professionnel. Bien que la politique actuelle de Google en matière de bureaux exige que les employés travaillent au moins trois jours par semaine au bureau, les recommandations de Sergey Brin reflètent une approche plus intense de la productivité, visant à dépasser des concurrents comme OpenAI et Microsoft dans la course à l'AGI.

    Le message de Sergey Brin semble s'aligner sur une tendance plus large dans les entreprises américaines, où de nombreuses sociétés incitent leurs employés à retourner au bureau plus fréquemment. Bien qu'il ne modifie pas officiellement la politique hybride de Google, le mémo de Sergey Brin fait écho à l'importance accrue accordée à la présence au bureau. Cette approche est évidente dans d'autres entreprises telles qu'Amazon et JPMorgan Chase.

    Au-delà de l'allongement des heures de travail, Sergey Brin a également encouragé les ingénieurs à utiliser les outils d'IA de Google pour stimuler l'efficacité du codage. Cette stratégie reflète l'intégration continue de l'IA dans les activités de Google, dans le but d'améliorer la productivité de ses ingénieurs et de maintenir son leadership dans le secteur de l'IA. Sergey Brin estime que Google possède tous les éléments nécessaires pour gagner la course à l'AGI, mais qu'il a besoin d'intensifier ses efforts pour atteindre cet objectif.

    Sergey Brin a souligné dans son mémo que « la concurrence s'est considérablement accélérée et que la course finale à l'AGI est lancée ». Il a exprimé sa confiance dans la capacité de Google à réussir, en déclarant : « Je pense que nous avons tous les ingrédients pour gagner cette course, mais nous allons devoir mettre le turbo dans nos efforts ». Ce message souligne l'importance des enjeux et l'urgence des initiatives de Google en matière d'IA.

    Alors que Google intensifie ses efforts pour atteindre l'AGI, ses investissements dans l'infrastructure de l'IA continuent également de croître. Demis Hassabis, PDG de Google DeepMind, a révélé que l'entreprise prévoyait de consacrer plus de 100 milliards de dollars au développement de l'IA. Il a également affirmé que Google exploite des superordinateurs d'IA plus puissants que ses concurrents, y compris Microsoft, alors que les géants de la technologie multiplient les investissements dans les puces, les centres de données et les superordinateurs pour dominer la course à l'IA.

    Source : Mémo envoyé en interne aux employés qui travaillent sur Google Gemini

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous cette initiative de Sergey Brin crédible ou pertinente ?

    Voir aussi :

    La crainte de ChatGPT oblige Google à engager ses fondateurs Sergey Brin et Larry Page dans la course à l'IA, ChatGPT menace l'activité de recherche de Google évaluée à 149 milliards de dollars

    Les abonnés à l'IA Gemini Advanced de Google peuvent désormais faire appel aux conversations passées pour améliorer la précision des réponses, et permettre aux nouvelles discussions de ne plus repartir de zéro
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  17. #17
    Membre éprouvé
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    1 902
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 42
    Localisation : Singapour

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 1 902
    Par défaut
    google, la boite qui a viré 12000 salariés en 2023 et veut recommencer depuis le début de cette années ? ca donne envie aux salariés de s'investir pour l'entreprise
    Et quand bine même, je doute que bosser 60h de toute façon ce soit productif mentalement pour un ingénieur. Ca risque même d'avoir l'effet inverse.

    Enfin l'ia, c'est que le début, c'est un marché très compétitifs et les clients ne sont pas fidèle donc y'a pas d'urgence a sortir un produit dans le mois.. Si dans 1ans google arrive a offrir un meilleur produit, les clients irons chez google.
    C'est d'ailleurs une raison pour laquelle je n'ai jamais investie mon argent dans des compagnies aériennes, les clients sont pas fidèle.
    Pour l'ia c'est la même chose, c'est les fabricants de puces qui sont gagnant (nvidia...) pas les vendeurs de modèles.
    La France est un pays qui redistribue tout sauf de l'espoir.

  18. #18
    Membre éprouvé
    Homme Profil pro
    Développeur
    Inscrit en
    Août 2003
    Messages
    1 450
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 38
    Localisation : France, Charente Maritime (Poitou Charente)

    Informations professionnelles :
    Activité : Développeur

    Informations forums :
    Inscription : Août 2003
    Messages : 1 450
    Par défaut
    60h/semaine (de 5 jours) + 10h/semaine (les trajets aller-retour domicile-travail) ce qui donne 14h à consacrer par jour au travail.

    Si on ajoute :
    - 1h pour se préparer le matin (voir un peu plus)
    - 2h pour le soir pour faire les tâches ménagères (ménager, diner, ...)

    Il reste déjà plus que 7h pour dormir, sinon il faut aussi travailler le WE. Qui tiendrait un rythme régulier comme ça ?
    De mémoire, une étude avait conclu qu'au delà d'un certain nombre d'heures de travail par semaine la productivité s'effondrait.

  19. #19
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 348
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 348
    Par défaut Les internautes utilisent le nouveau modèle d'IA de Google pour supprimer les filigranes des images
    Les internautes utilisent Gemini 2.0, le nouveau modèle d'IA de Google, pour supprimer les filigranes des images.
    Opportunité ou menace pour les artistes, photographes et entreprises de l’image ?

    L’intelligence artificielle ne cesse de repousser les limites du possible, mais certaines avancées soulèvent des préoccupations majeures. Récemment, le nouveau modèle d’IA de Google s’est retrouvé au cœur d’une controverse : il serait capable de supprimer efficacement les filigranes des images, mettant ainsi en péril les droits d’auteur et la protection des œuvres visuelles sur Internet. Cette situation relance le débat sur les dérives potentielles de l’IA et la nécessité de repenser les mécanismes de protection des contenus numériques.

    Contexte

    Les filigranes sont un élément clé de la protection des images en ligne, qu’il s’agisse de photographies, d’illustrations ou de visuels de marques. Ils permettent aux créateurs de revendiquer la propriété de leurs œuvres et d’éviter leur utilisation abusive. Cependant, des utilisateurs ont découvert que le dernier modèle d’IA de Google pouvait supprimer ces filigranes avec une précision troublante.

    Ce n’est pas la première fois que l’IA est utilisée à cette fin. Des algorithmes existent déjà pour atténuer ou éliminer les filigranes à l’aide de techniques de traitement d’image, mais la puissance du modèle de Google rend cette tâche plus rapide et efficace que jamais. L’IA peut analyser une image, détecter les altérations artificielles et les « réparer » en générant des pixels qui remplacent les zones marquées, le tout avec une qualité presque indétectable.

    L’IA de Google et la suppression des filigranes : une avancée controversée

    Les utilisateurs des médias sociaux ont découvert un cas d'utilisation controversé du nouveau modèle d'IA Gemini de Google : la suppression des filigranes des images, y compris des images publiées par Getty Images et d'autres sociétés de stock media bien connues.

    Il y a quelques jours, Google a élargi l'accès à la fonction de génération d'images de son modèle Gemini 2.0 Flash, qui permet au modèle de générer et d'éditer nativement du contenu d'image. Il s'agit d'une capacité puissante, à tous points de vue.

    « D'accord, Google a vraiment réussi son coup. Vous pouvez facilement échanger votre vêtement en téléchargeant les pièces dans Gemini Flash 2.0 et en lui indiquant ce qu'il doit faire ».

    Mais elle semble aussi avoir peu de garde-fous. Gemini 2.0 Flash créera sans problème des images représentant des célébrités

    « à gauche : mon bureau ; à droite : elon musk assis à mon bureau. J'ai tendance à penser que les inquiétudes concernant Photoshop, etc. sont exagérées, mais bon sang, l'internet est sur le point de devenir beaucoup plus bizarre ».

    Nom : elon.png
Affichages : 3552
Taille : 418,4 Ko

    et des personnages protégés par des droits d'auteur

    « Le nouveau Gemini permet d'obtenir des angles différents assez bien. Très utile pour les ensembles de données sur les personnages sur mesure ».

    Nom : picha.png
Affichages : 408
Taille : 313,4 Ko

    et, comme nous l'avons déjà mentionné, supprimera les filigranes des photos existantes.

    Comme l'ont indiqué plusieurs utilisateurs de X, Gemini 2.0 Flash ne se contente pas de supprimer les filigranes, mais tente de combler les lacunes créées par la suppression d'un filigrane. D'autres outils dotés d'une intelligence artificielle le font également, mais Gemini 2.0 Flash semble être exceptionnellement compétent dans ce domaine, et son utilisation est gratuite.

    « Gemini 2.0 Flash, disponible dans le studio AI de Google, est extraordinaire pour éditer des images à l'aide de simples invites textuelles. Il peut également supprimer les filigranes des images (et insérer son propre filigrane subtil à la place &#129315 ».

    Un défi pour les créateurs et les entreprises

    Cette avancée pose un problème majeur pour les photographes, les artistes et les entreprises qui dépendent des filigranes pour protéger leurs œuvres. Les banques d’images, comme Shutterstock ou Getty Images, s’appuient largement sur ces protections pour éviter l’utilisation non autorisée de leur contenu premium. Si une IA est capable de les contourner en quelques secondes, cela risque de bouleverser l’industrie.

    Les créateurs individuels sont également touchés. Pour un photographe indépendant qui vend ses clichés en ligne, un filigrane est souvent la seule garantie que son travail ne sera pas volé ou utilisé sans compensation. Avec une IA aussi performante, il devient difficile de préserver ses droits sans recourir à des mesures plus drastiques, comme des signatures cryptographiques ou l’intégration de données invisibles dans les images.

    Pour être clair, la fonction de génération d'images de Gemini 2.0 Flash est qualifiée « d'expérimentale » et de « non destinée à la production » pour le moment, et n'est disponible que dans les outils de Google destinés aux développeurs, tels que AI Studio. Le modèle n'est pas non plus parfait pour supprimer les filigranes. Gemini 2.0 Flash semble avoir des difficultés avec certains filigranes semi-transparents et avec les filigranes qui recouvrent de grandes parties d'images.

    Néanmoins, certains détenteurs de droits d'auteur ne manqueront pas de s'offusquer de l'absence de restrictions d'utilisation de Gemini 2.0 Flash. Des modèles tels que Claude 3.7 Sonnet d'Anthropic et GPT-4o d'OpenAI refusent explicitement de supprimer les filigranes ; Claude qualifie le retrait d'un filigrane d'une image de « contraire à l'éthique et potentiellement illégal ».

    Les implications éthiques et légales

    Le développement d’une IA capable d’effacer les filigranes soulève plusieurs questions éthiques et juridiques. D’un côté, certains pourraient arguer que cette technologie pourrait être utilisée à des fins légitimes, comme la restauration d’images endommagées ou la suppression de filigranes accidentels. Cependant, son potentiel d’abus est évident : vol de contenu, falsification de preuves visuelles, ou encore diffusion d’images modifiées pour la désinformation.

    D’un point de vue légal, la suppression d’un filigrane peut être considérée comme une violation du droit d’auteur dans de nombreux pays. Aux États-Unis, par exemple, le Digital Millennium Copyright Act (DMCA) interdit toute tentative de suppression de mesures de protection du contenu. En Europe, des réglementations similaires existent, notamment avec la directive sur le droit d’auteur et les droits voisins dans le marché unique numérique. Toutefois, l’application de ces lois est difficile lorsque la technologie devient largement accessible et utilisée à grande échelle.

    Face à cette menace, plusieurs pistes sont envisageables pour renforcer la protection des images :
    • L’empreinte numérique et les filigranes invisibles : Plutôt que d’apposer un logo ou un texte en surimpression, les créateurs peuvent intégrer des données invisibles dans l’image, comme un tatouage numérique ou des métadonnées infalsifiables.
    • L’intelligence artificielle pour contrer l’intelligence artificielle : Des solutions IA pourraient être développées pour détecter les images modifiées et signaler les suppressions de filigranes. Google lui-même pourrait intégrer des verrous empêchant son IA d’être utilisée à des fins frauduleuses.
    • Le renforcement des régulations et des sanctions : Les gouvernements pourraient adapter les lois existantes pour mieux encadrer l’utilisation de ces outils et sanctionner les abus plus sévèrement.
    • L’éducation et la sensibilisation : Informer les utilisateurs sur les risques et les conséquences légales du vol de contenu pourrait contribuer à limiter l’exploitation abusive de cette technologie.

    Un tournant pour la protection des images sur Internet ?

    Cette affaire montre à quel point l’intelligence artificielle est en train de transformer les dynamiques de création et de protection des contenus numériques. Si les IA comme celles de Google peuvent améliorer considérablement le traitement d’image, elles posent également des défis considérables en matière de droits d’auteur.

    Les créateurs, les entreprises et les législateurs devront s’adapter rapidement à cette nouvelle réalité pour éviter que l’innovation technologique ne devienne un outil d’exploitation sans contrepartie. La question centrale reste donc : jusqu’où peut-on aller dans l’amélioration des capacités de l’IA sans compromettre les droits et la propriété intellectuelle ? Un débat qui ne fait que commencer.

    Sources : Law Office of Jason H. Rosenblum, X (captures dans le texte)

    Et vous ?

    Que dit la loi de votre pays au sujet des filigranes ? Supprimer un filigrane avec une IA devrait-il être considéré comme une infraction pénale, ou cela dépend-il de l’usage qui en est fait ?

    L’IA doit-elle être bridée pour empêcher la suppression des filigranes, ou est-ce aux créateurs de trouver de nouvelles solutions de protection ?

    Google et les autres entreprises développant ces IA ont-ils une responsabilité légale en cas d’abus de leurs technologies ?

    Quel impact cette technologie pourrait-elle avoir sur l’industrie des banques d’images comme Shutterstock ou Getty Images ?

    Voir aussi :

    Le grand modèle de langage Gemini 2.0 de Google DeepMind est maintenant disponible pour tout le monde, et la famille d'IA Gemini 2.0 s'étend pour les développeurs

    L'IA Gemini de Google peut désormais consulter votre historique de recherche pour personnaliser ses réponses, mais la fonction suscite des préoccupations en matière de protection de la vie privée
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  20. #20
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 348
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 348
    Par défaut Gemini se dote de nouveaux outils de codage et d'une fonctionnalité générant des « podcasts » par IA
    Gemini se dote de nouveaux outils de codage et d'écriture, ainsi que d'une fonctionnalité générant des « podcasts » par IA
    à partir de simples requêtes

    Google continue d'améliorer sa plateforme d'intelligence artificielle Gemini, qui s’enrichit désormais d’une série d’outils destinés aux développeurs, aux créateurs de contenu et aux amateurs de médias audio. Ces nouvelles fonctionnalités visent à positionner Gemini non seulement comme un assistant conversationnel, mais également comme un véritable studio numérique capable de générer du texte, du code, et même des podcasts à partir de simples requêtes.

    Après la sortie de nouveaux modèles Gemini la semaine dernière, Google vient d'annoncer deux nouvelles fonctionnalités pour son produit phare en matière d'intelligence artificielle. Gemini dispose désormais d'une nouvelle fonctionnalité Canvas qui vous permet de rédiger, d'éditer et d'affiner des documents ou du code. Gemini est également doté d'Audio Overview, une fonctionnalité intéressante qui est apparue pour la première fois dans le produit NotebookLM de l'entreprise, mais qui devient encore plus utile dans le cadre de Gemini.

    Canvas est similaire au produit OpenAI du même nom. Canvas est disponible dans la barre d'invite de Gemini sur le web et l'application mobile. Il suffit de télécharger un document et d'indiquer à Gemini ce que vous voulez en faire. Dans l'exemple de Google, l'utilisateur demande un discours basé sur un PDF contenant des notes de cours. Et c'est ainsi que Gemini produit un document.

    Canvas vous permet d'affiner les documents générés par l'IA directement dans Gemini. Les outils d'écriture disponibles dans l'écosystème Google, avec des options telles que des suggestions d'édition et différents tons, sont disponibles dans l'éditeur basé sur Gemini. Si vous souhaitez apporter d'autres modifications ou collaborer avec d'autres personnes, vous pouvez exporter le document vers Google Documents d'un simple clic.

    Citation Envoyé par Google
    Canvas est un nouvel espace interactif au sein de Gemini, conçu pour faciliter la création, l'amélioration et le partage de votre travail. Il vous suffit de sélectionner « Canvas » dans votre barre d'invite pour écrire et modifier des documents ou du code, les changements apparaissant en temps réel.

    Créez sans effort des premières ébauches de haute qualité, puis perfectionnez rapidement votre travail en utilisant les commentaires de Gemini pour suggérer des modifications. Vous avez besoin de mettre à jour des sections spécifiques ou des projets entiers ? Ajustez facilement le ton, la longueur ou le formatage à l'aide d'outils d'édition rapides. Par exemple, mettez un paragraphe en surbrillance et demandez à Gemini de le rendre plus concis, plus professionnel ou plus informel. Que vous rédigiez un discours, que vous ayez besoin d'aide pour réviser un essai, un article de blog ou un rapport, Canvas peut vous aider à maximiser votre créativité.

    Canvas est conçu pour une collaboration transparente avec Gemini. Si vous souhaitez collaborer avec d'autres personnes sur le contenu que vous venez de créer, vous pouvez l'exporter vers Google Docs en un clic.
    Nom : collabore.png
Affichages : 2801
Taille : 458,0 Ko

    Des outils de codage plus performants pour développeurs exigeants

    Google mise gros sur le développement logiciel assisté par IA. Les nouveaux outils de Gemini permettent aux développeurs de générer, expliquer et améliorer du code dans plusieurs langages, dont Python, JavaScript, et Java. La plateforme s’inspire ici des fonctionnalités popularisées par des concurrents comme GitHub Copilot, mais avec une ambition plus large : celle d’offrir des suggestions contextuelles plus intelligentes, d’aider à la documentation automatique et de détecter les failles potentielles dans le code.

    Il suffit de lui demander et Canvas peut générer des prototypes d'applications web, des scripts Python, du HTML, etc. Vous pouvez interroger Gemini sur le code, y apporter des modifications et même prévisualiser vos résultats en temps réel dans Gemini au fur et à mesure que vous (ou l'IA) apportez des modifications.

    De plus, Gemini facilite désormais l’intégration dans des environnements de développement (EDI) populaires et propose des exports directs vers des projets existants. L’objectif : faire gagner un temps considérable aux développeurs tout en améliorant la qualité du code produit.

    Citation Envoyé par Google
    Gemini simplifie déjà les tâches de programmation et de développement de logiciels, notamment la génération de code, le débogage et l'explication de code. Désormais, Canvas rationalise le processus de transformation de vos idées de codage en prototypes fonctionnels pour les applications web, les scripts Python, les jeux, les simulations et autres applications interactives. Canvas permet aux développeurs de créer rapidement des versions initiales de leurs projets et offre aux étudiants un espace pour apprendre rapidement les concepts de codage. Tout au long du processus, Gemini collabore avec vous pour apporter des modifications itératives à votre code.

    Dans Canvas, vous pouvez générer et prévisualiser votre code HTML/React et d'autres prototypes d'applications web pour obtenir une représentation visuelle de votre conception. Par exemple, imaginons que vous souhaitiez créer un formulaire d'inscription par courriel pour votre site Web. Vous pouvez demander à Gemini de générer le code HTML du formulaire, puis de prévisualiser la façon dont il apparaîtra et fonctionnera dans votre application web. Demandez facilement des modifications aux champs de saisie ou ajoutez des boutons d'appel à l'action, voyez instantanément l'aperçu mis à jour, puis partagez vos créations avec d'autres personnes.

    Canvas simplifie l'ensemble du processus de codage, vous permettant de vous concentrer sur la création, l'édition et le partage de votre code et de votre conception en un seul endroit, sans avoir à passer d'une application à l'autre.

    Gemini est désormais capable de produire des podcasts générés automatiquement par IA

    Audio Overviews n'est pas vraiment une nouvelle fonctionnalité : elle a été lancée l'année dernière dans le cadre d'un produit Google appelé NotebookLM. En gros, vous téléchargez des documents et l'IA assimile les données pour générer une conversation entre deux personnes qui n'existent pas. Google compare cela à une discussion de type podcast, et c'est une bonne description de ce que vous obtenez. Parfois, les faux animateurs donnent même un nom au faux podcast.

    Cette fonctionnalité ouvre la porte à une nouvelle ère du contenu audio. Les entreprises pourront facilement produire des bulletins d’information internes, des podcasts thématiques ou des résumés d’actualité sans intervention humaine. Pour les médias, cela soulève toutefois des questions d’éthique et de véracité, car ces productions automatisées pourraient brouiller la ligne entre contenu authentique et contenu généré.

    Pour utiliser Audio Overviews de Gemini, il suffit de télécharger un document et de rechercher le bouton « Générer un aperçu audio » au-dessus de la barre d'invite. Attention, la création de l'audio prend plusieurs minutes, même pour une quantité de texte relativement faible. Cette fonction est similaire aux Audio Overviews de NotebookLM, mais elle a un peu plus à offrir dans le cadre de Gemini.

    Les Audio Overviews sont également intégrés à Deep Research, l'agent doté d'une intelligence artificielle qui peut parcourir Internet en votre nom. Google a récemment rendu Deep Research gratuit pour une utilisation limitée, et vous pouvez désormais en faire plus avec ces rapports. Lorsque vous consultez les résultats de Deep Research (dont la création prend plusieurs minutes), vous pouvez désormais générer un aperçu audio à partir du rapport.

    Google précise que Canvas et Audio Overviews sont disponibles pour tous les utilisateurs dans le monde entier, même pour la version gratuite de l'IA de Google. Toutefois, les Audio Overviews ne fonctionne pour l'instant qu'en anglais. L'entreprise promet d'ajouter d'autres langues par la suite.


    Citation Envoyé par Google
    Nous avons constaté un engouement incroyable pour Audio Overviews dans NotebookLM, qui aide les gens à donner du sens à des informations complexes. Aujourd'hui, nous rendons Audio Overviews disponible dans Gemini.

    Audio Overviews transforme vos documents, vos diapositives et même vos rapports de recherche approfondie en discussions audio attrayantes de type podcast. Gemini crée une discussion de type podcast entre deux animateurs IA qui, d'un simple clic, se lancent dans une conversation animée et approfondie sur la base des fichiers que vous avez téléchargés. Ils résumeront le contenu, établiront des liens entre les sujets, s'engageront dans un va-et-vient dynamique et apporteront des points de vue uniques.

    Audio Overview améliore l'apprentissage de manière ludique et productive. Vous pouvez télécharger des notes de cours, des documents de recherche, de longs fils de discussion ou des rapports générés par Deep Research et recevoir un Audio Overview pour vous aider à résumer vos fichiers lorsque vous êtes en déplacement.
    Source : Google

    Et vous ?

    Ces assistants de codage vont-ils rendre les développeurs plus efficaces ou risquent-ils de les rendre dépendants ?

    Peut-on encore parler de créativité dans le code si l’IA génère des solutions toutes faites ?

    Quelles garanties faut-il pour éviter que l’IA introduise des failles de sécurité dans le code ?

    Les podcasts produits sans intervention humaine ont-ils la même valeur que ceux réalisés par des créateurs ? Ne risque-t-on pas de saturer le marché avec des contenus « sans âme » créés uniquement pour optimiser la visibilité ?

    Voir aussi :

    L'IA Gemini de Google peut désormais consulter votre historique de recherche pour personnaliser ses réponses, mais la fonction suscite des préoccupations en matière de protection de la vie privée

    Google teste une nouvelle fonctionnalité d'IA qui convertira votre historique de recherche et de Discover en podcast, mais les critiques affirment que l'IA nuit au trafic du site et entraine des licenciements
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Google lance son nouveau routeur Wi-Fi à usage domestique
    Par Stéphane le calme dans le forum Hardware
    Réponses: 14
    Dernier message: 21/08/2015, 20h04
  2. NETGEAR lance son nouveau ReadyNAS destiné aux particuliers
    Par Mejdi20 dans le forum Communiqués
    Réponses: 0
    Dernier message: 26/08/2010, 21h02
  3. Google lance son API Google Analytics
    Par Kerod dans le forum Général Conception Web
    Réponses: 2
    Dernier message: 23/04/2009, 23h52
  4. Google lance son générateur de sitemap
    Par Kerod dans le forum Webmarketing
    Réponses: 4
    Dernier message: 15/02/2009, 13h48

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo