IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

La domination de Google sur le marché de la recherche en ligne a vacillé en 2024


Sujet :

Intelligence artificielle

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 758
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 758
    Par défaut Gemini : Google sauvegarde par défaut vos conversations avec son chatbot IA séparément pendant des années
    Gemini : Google sauvegarde par défaut vos conversations avec son chatbot IA séparément pendant des années,
    ce qui soulève des questions de sécurité

    Un nouveau document d'assistance choquant de Google a suscité l'indignation après avoir dévoilé comment son application Gemini Chatbot stocke en fait les données des utilisateurs par défaut en ligne. Cette pratique est observée sur le web, pour les utilisateurs d'iOS et ceux d'Android. « Les conversations qui ont été examinées ou annotées par des réviseurs humains (et les données connexes telles que votre langue, le type d'appareil, les informations de localisation ou les commentaires) ne sont pas supprimées lorsque vous supprimez votre activité Gemini Apps, car elles sont conservées séparément et ne sont pas connectées à votre compte Google. En revanche, elles sont conservées pendant une période pouvant aller jusqu'à trois ans », révèle Google dans une page d'assistance.

    Ne tapez rien dans Gemini, la famille d'applications GenAI de Google, qui soit incriminant (ou que vous ne voudriez pas que quelqu'un d'autre voie). C'est l'avertissement (en quelque sorte) lancé par Google, qui, dans un nouveau document d'assistance, explique comment il recueille les données des utilisateurs de ses applications de chatbot Gemini pour le web, Android et iOS.

    Google précise que des annotateurs humains lisent, étiquettent et traitent régulièrement les conversations avec Gemini (même si ces conversations sont « déconnectées » des comptes Google - afin d'améliorer le service. (Il n'est pas précisé si ces annotateurs sont internes ou externalisés, ce qui pourrait avoir une incidence sur la sécurité des données ; Google ne le précise pas). Ces conversations sont conservées jusqu'à trois ans, avec des « données connexes » telles que les langues et les appareils utilisés par l'utilisateur, ainsi que sa localisation.

    Citation Envoyé par Google
    Quelles données sont collectées

    Lorsque vous interagissez avec les applications Gemini, Google collecte les informations suivantes :
    • Conversations
    • Localisation
    • Commentaires
    • Informations d'utilisation

    Lorsque vous utilisez Gemini pour vous faire aider sur mobile, Google traite des informations supplémentaires pour vous comprendre, vous répondre et vous aider, tout en vous permettant de garder les mains libres.

    Comment Google utilise ces données

    Ces données aident Google à fournir, améliorer et développer ses produits et services, ainsi que ses technologies de machine learning, telles que celles sur lesquelles s'appuient les applications Gemini.

    Voici quelques exemples :
    • Les applications Gemini utilisent vos conversations précedentes, votre position et les informations associées pour générer une réponse.
    • Nous examinons vos commentaires et nous les utilisons pour renforcer la sécurité des applications Gemini. Nous les utilisons également pour réduire les problèmes courants liés aux grands modèles de langage.
    Nom : gemini.png
Affichages : 41737
Taille : 343,9 Ko

    Quelle est donc la solution ? Comment éviter que cela ne se produise ?

    Selon Google, la seule solution semble être de désactiver les applications de Gemini en cliquant sur l'onglet Mon activité, car cette option est activée par défaut et empêche l'accès aux discussions futures ou leur stockage en ligne.

    En revanche, si vous êtes plus préoccupé par les chats individuels ou les invites effectuées via Gemini, ne vous inquiétez pas, vous pouvez les supprimer via l'écran Activité des applications dont vous avez été témoin en ligne.

    Google a indiqué que les chats effectués par l'intermédiaire de Gemini peuvent toujours être stockés dans la base de données, même si l'activité de Gemini est désactivée. Mais ces données sont conservées pendant 72 heures afin de garantir la sécurité de l'utilisateur sur Gemini et d'améliorer l'expérience de l'utilisateur lors de l'utilisation des applications.

    C'est pourquoi le fabricant d'Android avertit désormais les utilisateurs de ne plus ajouter dans les chats des données sensibles ou piratées qu'ils n'auraient jamais voulu exposer pour améliorer les produits et les services, sans parler de la technologie d'apprentissage automatique : « Veuillez ne pas saisir d'informations confidentielles dans vos conversations ni de données que vous ne voudriez pas qu'un évaluateur voie ou que Google utilise pour améliorer nos produits, nos services et nos technologies d'apprentissage automatique », écrit Google.

    Il faut dire que les règles de collecte et de conservation des données de GenAI de Google ne diffèrent pas tellement de celles de ses rivaux. OpenAI, par exemple, enregistre tous les chats avec ChatGPT pendant 30 jours, que la fonction d'historique des conversations de ChatGPT soit désactivée ou non, sauf dans les cas où l'utilisateur a souscrit à un plan d'entreprise assorti d'une politique de conservation des données personnalisée.


    Un équilibre difficile

    La politique de Google illustre les défis inhérents à l'équilibre entre la protection de la vie privée et le développement de modèles GenAI qui se nourrissent des données des utilisateurs pour s'améliorer eux-mêmes.

    Les politiques libérales de conservation des données de la GenAI ont récemment mis les fournisseurs dans le collimateur des autorités de régulation.

    L'été dernier, la FTC a demandé à OpenAI des informations détaillées sur la manière dont l'entreprise contrôle les données utilisées pour l'entraînement de ses modèles, y compris les données des consommateurs, et sur la manière dont ces données sont protégées lorsqu'elles sont accessibles à des tiers. Du côté de l'Europe, l'autorité italienne de protection des données a déclaré qu'OpenAI ne disposait pas d'une « base juridique » pour la collecte et le stockage massifs de données à caractère personnel en vue de l'entraînement de ses modèles GenAI.

    Alors que les outils de GenAI prolifèrent, les organisations se méfient de plus en plus des risques liés à la protection de la vie privée.

    OpenAI, Microsoft, Amazon, Google et d'autres proposent des produits GenAI destinés aux entreprises qui ne veulent explicitement pas conserver les données pendant un certain temps, que ce soit pour la formation des modèles ou à d'autres fins. Cependant, les consommateurs - comme c'est souvent le cas - n'ont pas droit à l'erreur.

    Une enquête récente de Cisco a révélé que 63 % des entreprises ont établi des limites quant aux données pouvant être introduites dans les outils de GenAI, tandis que 27 % d'entre elles ont complètement interdit la GenAI. La même enquête a révélé que 45 % des employés ont saisi des données « problématiques » dans les outils de GenAI, notamment des informations sur les employés et des fichiers non publics concernant leur employeur.

    L'IA générative suscite des inquiétudes croissantes en matière de protection de la vie privée

    « Les organisations considèrent la GenAI comme une technologie fondamentalement différente avec de nouveaux défis à prendre en compte », a déclaré Dev Stahlkopf, directeur juridique de Cisco. « Plus de 90% des personnes interrogées pensent que la GenAI nécessite de nouvelles techniques pour gérer les données et les risques. C'est là qu'une gouvernance réfléchie entre en jeu. La préservation de la confiance des clients en dépend ».

    Parmi les principales préoccupations, les entreprises ont cité les menaces pesant sur les droits juridiques et de propriété intellectuelle d'une organisation (69 %), et le risque de divulgation d'informations au public ou aux concurrents (68 %).

    La plupart des organisations sont conscientes de ces risques et mettent en place des contrôles pour limiter l'exposition : 63% ont établi des limites sur les données qui peuvent être saisies, 61% ont des limites sur les outils GenAI qui peuvent être utilisés par les employés, et 27% ont déclaré que leur organisation avait complètement interdit les applications GenAI pour le moment. Néanmoins, de nombreuses personnes ont saisi des informations qui pourraient être problématiques, notamment des informations sur les employés (45 %) ou des informations non publiques sur l'entreprise (48 %).

    Lenteur des progrès en matière d'IA et de transparence

    Les consommateurs sont préoccupés par l'utilisation de l'IA impliquant leurs données aujourd'hui, et pourtant 91% des organisations reconnaissent qu'elles doivent faire plus pour rassurer leurs clients sur le fait que leurs données sont utilisées uniquement à des fins prévues et légitimes dans le cadre de l'IA. Ce chiffre est similaire aux niveaux de l'année dernière, ce qui suggère que peu de progrès ont été réalisés.

    Les priorités des organisations pour renforcer la confiance des consommateurs diffèrent de celles des individus. Les consommateurs ont indiqué que leurs principales priorités étaient d'obtenir des informations claires sur l'utilisation exacte de leurs données et de ne pas voir leurs données vendues à des fins de marketing. À la même question, les entreprises ont indiqué que leurs principales priorités étaient de se conformer aux lois sur la protection de la vie privée (25 %) et d'éviter les violations de données (23 %). Cela suggère qu'une attention supplémentaire sur la transparence serait utile - en particulier avec les applications d'IA où il peut être difficile de comprendre comment les algorithmes prennent leurs décisions.
    Sources : Google, Cisco

    Et vous ?

    Que pensez-vous de la sauvegarde automatique des conversations par Google ? Est-ce une fonctionnalité utile ou une intrusion dans votre vie privée ?
    Faites-vous confiance à Google pour protéger vos données personnelles ? Quelles sont les mesures de sécurité que vous attendez de la part de Google ?
    Utilisez-vous Gemini ou une autre application de messagerie ? Quels sont les critères qui vous font choisir une application plutôt qu’une autre ?
    Pensez-vous que Google devrait rendre la sauvegarde des conversations optionnelle, et permettre aux utilisateurs de supprimer leurs données de ses serveurs ?
    Quelles sont les conséquences potentielles de la sauvegarde des conversations ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre extrêmement actif Avatar de OrthodoxWindows
    Homme Profil pro
    Étudiant
    Inscrit en
    Novembre 2021
    Messages
    1 369
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Novembre 2021
    Messages : 1 369
    Par défaut
    Marrant comme les entreprises qui s'inquiète des "risques" des images de nus générés par IA sont aussi celles qui pompent allégrement les données privées pour former leurs modèles.
    A l'opposé, l'IA l'open-source ne s'inquiète pas des risques mais respecte plus la vie privée

  3. #3
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 498
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 498
    Par défaut
    Où est l'Union Européenne et son RGPD?

    Où est la CNIL, son bras armé en France?

    Ben ils regardent ailleurs... Occupés à emmerder la PME qui aurait l'idée d'enregistrer les activités de ses employés qui posent problèmes (vol, etc...), occupés à emmerder l'éditeur de logiciel qui veut mettre en place des rapports statistiques dans ses progiciels...

  4. #4
    Membre éprouvé
    Profil pro
    MOA
    Inscrit en
    Décembre 2002
    Messages
    1 272
    Détails du profil
    Informations personnelles :
    Localisation : France, Eure et Loir (Centre)

    Informations professionnelles :
    Activité : MOA

    Informations forums :
    Inscription : Décembre 2002
    Messages : 1 272
    Par défaut
    Au moins ils ont l'honnêteté de prévenir
    Citation Envoyé par Anselme45 Voir le message
    Où est l'Union Européenne et son RGPD?
    Où est la CNIL, son bras armé en France?
    Malheureusement la CNIL n'a pas de grand moyen face à Google et Microsoft

  5. #5
    Membre averti
    Profil pro
    Inscrit en
    Août 2010
    Messages
    39
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Août 2010
    Messages : 39
    Par défaut
    Ils jouent d'autant plus les wokes car ils ont arrêtés ou au moins diminués les effectifs "diversitaires" parce qu'embaucher des tonnes de gens suivant leur type et non leurs compétences ça va un moment.

    Heureusement pour le moment Stable diffusion est à peu près épargné par ces conneries.

  6. #6
    Membre actif
    Homme Profil pro
    Développeur de jeux vidéo
    Inscrit en
    Mai 2014
    Messages
    28
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 44
    Localisation : Madagascar

    Informations professionnelles :
    Activité : Développeur de jeux vidéo
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Mai 2014
    Messages : 28
    Par défaut Google est disqualifiée de la course à l'IA
    Bard Gemini cumule les échecs depuis un an.
    ça répond à coté, sinon les présentations publiques sont fake, puis là le générateur de photo fait n'importe quoi.
    Croire qu'il n'y a personne chez Google pour tester ces outils avant leur publication ?
    Pour moi, Google a perdu la course à l'IA. C'est fini.

  7. #7
    Membre extrêmement actif Avatar de OrthodoxWindows
    Homme Profil pro
    Étudiant
    Inscrit en
    Novembre 2021
    Messages
    1 369
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Novembre 2021
    Messages : 1 369
    Par défaut
    Les excuses de Google font suite aux critiques concernant la représentation de personnages blancs spécifiques (tels que les pères fondateurs des États-Unis) ou de groupes tels que les soldats allemands de l'époque nazie en tant que personnes de couleur, ce qui pourrait constituer une correction excessive des problèmes de préjugés raciaux existant de longue date dans l'IA.
    Trolldi.


  8. #8
    Inactif  
    Profil pro
    undef
    Inscrit en
    Février 2013
    Messages
    1 001
    Détails du profil
    Informations personnelles :
    Localisation : France, Lot (Midi Pyrénées)

    Informations professionnelles :
    Activité : undef

    Informations forums :
    Inscription : Février 2013
    Messages : 1 001
    Par défaut
    Il aura fallu que des nazis noirs apparaissent pour que Google reconnaisse enfin le problème woke.

  9. #9
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 617
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 617
    Par défaut Google prévoit de relancer dans les prochaines semaines son outil d'IA Gemini
    Google prévoit de relancer dans les prochaines semaines son outil d'IA Gemini qui crée des images de personnes, après l'avoir stoppé en raison d'inexactitudes grotesques dans certaines représentations

    Google prévoit de relancer dans les prochaines semaines son outil d'IA qui crée des images de personnes, qu'il a mis en pause après des inexactitudes dans certaines représentations historiques, a déclaré le PDG de Google DeepMind, Demis Hassabis.

    Google a commencé à proposer la génération d'images via ses modèles d'IA Gemini au début du mois. Certains utilisateurs ont toutefois signalé sur les médias sociaux qu'elle générait des images historiques parfois inexactes.

    "Nous avons mis la fonction hors ligne le temps de résoudre ce problème. Nous espérons la remettre en ligne très prochainement, dans les deux semaines à venir", a déclaré M. Hassabis lors d'une table ronde organisée dans le cadre du Mobile World Congress à Barcelone. L'outil ne fonctionnait pas "comme nous l'avions prévu", a-t-il ajouté.

    Les actions d'Alphabet étaient en baisse de 3,5 %, ce qui représentait la plus forte baisse de l'indice de référence S&P 500.


    Depuis le lancement de ChatGPT d'OpenAI en novembre 2022, Google s'est lancé dans une course pour produire un logiciel d'IA capable de rivaliser avec celui de la société soutenue par Microsoft. Lorsque Google a lancé son chatbot d'IA générative Bard il y a un an, il avait communiqué des informations inexactes sur des photos d'une planète située en dehors du système solaire de la Terre dans une vidéo promotionnelle, ce qui avait fait chuter ses actions de 9 %.

    Bard a été rebaptisé Gemini et Google a mis en place des formules d'abonnement payantes, que les utilisateurs peuvent choisir pour bénéficier de meilleures capacités de raisonnement de la part du modèle d'IA. "Nous n'en sommes qu'aux premiers stades du développement de l'IA générative, mais si les pépins ou les inexactitudes persistent, c'est là que les gens commencent à s'inquiéter", a déclaré Bob O'Donnell, analyste en chef chez TECHnalysis Research.

    Source : Google

    Et vous ?

    Quel est votre avis sur le sujet ?

    Voir aussi :

    Gemini, l'outil IA de Google qui transforme les mots en images, taxé de "woke" et critiqué pour avoir généré des nazis de différentes origines ethniques, en réponse à des requêtes historiques

    Gemini Pro 1.5 : l'une des utilisations du modèle d'IA de Google est de générer du code à partir de vidéos, avec un contexte d'1 million de jetons, dépassant Claude 2.1 et gpt-4-turb

    Google rebaptise son chatbot Bard en Gemini, lance un abonnement payant pour profiter de Gemini Ultra et propose une application dédiée sur Android qui va remplacer Google Assistant
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  10. #10
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 758
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 758
    Par défaut Le PDG de Google qualifie de « totalement inacceptables » les erreurs de diversité commises par l'IA Gemini
    Le PDG de Google qualifie de « totalement inacceptables » les erreurs de diversité commises par l'IA Gemini et s'engage à procéder à des changements structurels,
    des erreurs qui ont coûté 90 milliards de dollars à la capitalisation boursière de l'entreprise

    Le PDG de Google, Sundar Pichai, a récemment exprimé son mécontentement concernant l’outil Gemini AI. Dans une note adressée aux employés, il a déclaré que certaines des réponses textuelles et visuelles générées par le modèle étaient biaisées et complètement inacceptables. Cette situation a suscité des réactions négatives de la part des utilisateurs et a mis en évidence des problèmes de partialité.

    La semaine dernière, Google a présenté ses excuses pour ce qu’il décrit comme des « inexactitudes dans certaines représentations historiques générées par l’image » avec son outil Gemini, en disant que ses tentatives de créer une « large gamme » de résultats ont manqué la cible. Gemini est un outil d’intelligence artificielle lancé par Google qui peut créer des images en réponse à des requêtes écrites. Il a rapidement attiré des critiques, qui ont accusé l’entreprise de former le bot à être trop «woke».

    Les résultats semblaient montrer de manière écrasante ou exclusive des personnes de couleur générées par l'IA (bien sûr, tous les endroits qu'il a cités comptent des femmes de couleur, et aucune des femmes générées par l'IA n'existe dans aucun pays). La critique a été reprise par des comptes de droite qui ont demandé des images de groupes historiques ou de personnages tels que les Pères fondateurs et qui ont prétendument obtenu comme résultats des personnes générées par l'IA qui n'étaient pas blanches dans leur grande majorité.

    Certains de ces comptes ont présenté les résultats de Google comme faisant partie d'une conspiration visant à éviter la représentation de personnes blanches, et au moins un compte a utilisé une référence antisémite codée pour rejeter la faute sur les autres.

    Google a décidé de suspendre la génération d'images de personnes par Gemini, le temps d'effectuer les modifications nécessaires.

    Nom : america.png
Affichages : 16926
Taille : 397,8 Ko

    Le PDG de Google qualifie les réponses controversées de l'outil d'IA de « totalement inacceptables »

    Sundar Pichai, PDG de Google, a abordé mardi soir la controverse sur Gemini, qualifiant d'inacceptables les réponses problématiques de l'application d'intelligence artificielle en matière d'origine ethnique et s'engageant à procéder à des changements structurels pour résoudre le problème.

    La plupart des entreprises qui proposent des outils d'IA comme Gemini créent des garde-fous pour limiter les abus et éviter les préjugés, en particulier à la lumière d'autres expériences. Par exemple, les outils de génération d'images d'entreprises comme OpenAI ont été critiqués lorsqu'ils ont créé des images prédominantes de personnes blanches dans des rôles professionnels et dépeignant des personnes noires dans des rôles stéréotypés.

    « Je sais que certaines de ses réponses ont offensé nos utilisateurs et montré des préjugés - pour être clair, c'est tout à fait inacceptable et nous nous sommes trompés », a déclaré Pichai dans la note.

    Pichai a déclaré que l'entreprise avait déjà fait des progrès dans la correction des garde-fous de Gemini. « Nos équipes ont travaillé 24 heures sur 24 pour résoudre ces problèmes. Nous constatons déjà une amélioration substantielle sur un large éventail d'invites », a-t-il déclaré.

    Ci-dessous, le memo entier :

    Je souhaite aborder les récents problèmes liés aux réponses textuelles et imagées de l'application Gemini (anciennement Bard). Je sais que certaines de ses réponses ont offensé nos utilisateurs et fait preuve de partialité - pour être clair, c'est tout à fait inacceptable et nous nous sommes trompés.

    Nos équipes ont travaillé sans relâche pour résoudre ces problèmes. Nous constatons déjà une amélioration substantielle sur un large éventail d'invites. Aucune IA n'est parfaite, surtout à ce stade émergent du développement de l'industrie, mais nous savons que la barre est haute pour nous et nous continuerons à travailler aussi longtemps qu'il le faudra. Nous examinerons ce qui s'est passé et nous nous assurerons de le corriger à grande échelle.

    Notre mission, qui consiste à organiser l'information mondiale et à la rendre universellement accessible et utile, est sacro-sainte. Nous avons toujours cherché à fournir aux utilisateurs des informations utiles, précises et impartiales dans nos produits. C'est pourquoi les gens leur font confiance. Nous devons adopter cette approche pour tous nos produits, y compris nos nouveaux produits d'intelligence artificielle.

    Nous mènerons une série d'actions claires, notamment des changements structurels, des lignes directrices actualisées sur les produits, des processus de lancement améliorés, des évaluations robustes et des équipes d'experts, ainsi que des recommandations techniques. Nous examinons tout cela et nous apporterons les changements nécessaires.

    Même si nous tirons les leçons de ce qui n'a pas fonctionné, nous devons également nous appuyer sur les annonces techniques et de produits que nous avons faites dans le domaine de l'IA au cours des dernières semaines. Il s'agit notamment d'avancées fondamentales dans nos modèles sous-jacents, par exemple notre percée d'un million de fenêtres à long contexte et nos modèles ouverts, qui ont tous deux été bien accueillis.

    Nous savons ce qu'il faut pour créer d'excellents produits qui sont utilisés et appréciés par des milliards de personnes et d'entreprises, et grâce à notre infrastructure et à notre expertise en matière de recherche, nous disposons d'un tremplin incroyable pour la vague de l'IA. Concentrons-nous sur ce qui compte le plus : créer des produits utiles qui méritent la confiance de nos utilisateurs.


    La perspective du marché

    Alphabet, la société mère de Google, a perdu quelque 90 milliards de dollars en valeur boursière lundi, la controverse sur le produit d'intelligence artificielle générative du géant de la Silicon Valley ayant fait son chemin jusqu'à Wall Street. Les actions d'Alphabet ont chuté de 4,5 % à 138,75 dollars lundi, clôturant à leur prix le plus bas depuis le 5 janvier et enregistrant la deuxième plus forte perte quotidienne de l'année dernière.

    Cette chute a fait suite à une série de controverses autour du service d'IA Gemini de Google, avec des problèmes tels que le service de génération d'images de Gemini produisant des représentations raciales inexactes de personnages historiques et son chatbot refusant de déterminer le personnage historique ayant le plus d'impact négatif entre Adolf Hitler et Elon Musk, ce qui a conduit l'entreprise à admettre qu'elle avait « raté le coche » lors du déploiement initial de Gemini et à mettre son service d'images d'IA hors ligne pour les prochaines semaines.

    « Il s'agit d'une bévue significative dans la bataille de relations publiques autour de l'IA générative et cela suggère que Google est à la traîne et mal exécuté dans un espace qui évolue rapidement et dont les enjeux sont importants », a écrit Rob Sanderson, analyste chez Loop Capital, dans une note adressée aux clients dimanche.

    « Le problème pour l'action n'est pas le débat [sur Gemini] lui-même, c'est la perception de la vérité derrière la marque », ont écrit Ben Reitzes et Nick Monroe, analystes chez Melius Research, dans une note adressée aux clients lundi. « Indépendamment de votre opinion, si Google est perçu comme une source d'IA peu fiable par une partie de la population, ce n'est pas bon pour les affaires », poursuivent les analystes.

    La propulsion d'Alphabet dans la « ligne de mire » du débat sur la guerre culturelle pourrait remettre en question sa mainmise sur le marché de la recherche en ligne, selon l'hypothèse du groupe Melius, compte tenu du rôle croissant de l'IA dans la recherche en ligne et de la possibilité « qu'une partie significative des utilisateurs s'inquiète des hallucinations et des préjugés de l'IA de Google ». L'apparente partialité de Gemini est le dernier faux pas d'Alphabet dans la course aux armements de l'IA, dans laquelle son rival Microsoft semble être en pole position. Alphabet a perdu plus de 100 milliards de dollars de capitalisation boursière le jour de l'annonce de son service de chatbot d'IA en février dernier, après que le communiqué de presse ait inclus des erreurs factuelles commises par le service.

    Nom : google.png
Affichages : 6003
Taille : 376,5 Ko

    Conclusion

    La controverse sur Gemini a alimenté les critiques de la droite, qui accusent souvent les entreprises technologiques de partialité libérale.

    Mais il ne s'agit pas vraiment d'un parti pris. Elle montre que Google a commis des erreurs techniques dans la mise au point de ses modèles d'intelligence artificielle. Le problème ne réside pas dans les modèles sous-jacents eux-mêmes, mais dans les garde-fous logiciels qui chapeautent le modèle.

    Il s'agit d'un défi auquel sont confrontées toutes les entreprises qui conçoivent des produits d'IA grand public, et pas seulement Google. Personne chez Google n'a voulu forcer Gemini à représenter le pape comme une femme, ou les Vikings comme des Noirs, et personne n'a voulu qu'il établisse une équivalence morale entre Musk et Hitler. Il s'agissait d'une tentative ratée de réduire les préjugés, et elle a mal tourné.

    Cette débâcle montre à quel point Google évolue rapidement. Comme toutes les grandes entreprises, Google a ralenti au fil des ans. Mais la course à l'IA générative l'a contraint à accélérer le développement de ses produits.

    Les erreurs de Gemini sont un problème technique qui peut être résolu et la note de Pichai au personnel mardi soir montre que l'entreprise y travaille. Mais les problèmes de réputation que cela soulève pourraient ne pas être aussi faciles à résoudre.

    Source : mémo de Sundar Pichai

    Et vous ?

    Quelle est votre expérience personnelle avec Gemini AI ? Avez-vous déjà utilisé cet outil et avez-vous remarqué des biais ou des problèmes dans les réponses générées ?
    Pensez-vous que les abonnements payants pour Gemini AI sont justifiés ? Quelle est votre opinion concernant la monétisation de cet outil ? La version payante améliore-t-elle réellement la qualité des réponses ?
    Comment devrions-nous évaluer la performance des modèles d’intelligence artificielle ? Quels sont, selon vous, les critères de succès et les mesures objectives pour évaluer l’efficacité de Gemini AI ?
    Quelles mesures devrait prendre Google pour réduire les biais dans les réponses générées par Gemini AI ?
    Quel rôle joue la transparence dans le développement des technologies d’intelligence artificielle ? Partagez votre avis sur l’importance de la transparence et de la responsabilité dans ce domaine.

    Voir aussi :

    Google rebaptise son chatbot Bard en Gemini, lance un abonnement payant pour profiter de Gemini Ultra et propose une application dédiée sur Android qui va remplacer Google Assistant
    Google prévoit de relancer dans les prochaines semaines son IA Gemini qui crée des images de personnes , après l'avoir stoppé en raison d'inexactitudes grotesques sur les représentations historiques
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  11. #11
    Inactif  
    Profil pro
    undef
    Inscrit en
    Février 2013
    Messages
    1 001
    Détails du profil
    Informations personnelles :
    Localisation : France, Lot (Midi Pyrénées)

    Informations professionnelles :
    Activité : undef

    Informations forums :
    Inscription : Février 2013
    Messages : 1 001
    Par défaut
    Leur problème, c'est de vouloir faire des IA sans personnalité alors, forcément, cela ne peut que mécontenter tout le monde. Il ferait plusieurs IA avec chacune leur personnalité (aka biais propres), tout le monde s'y retrouverait et pourrait choisir celle qui leur semble la plus honnête.

  12. #12
    Membre très actif
    Homme Profil pro
    Ergonome
    Inscrit en
    Octobre 2016
    Messages
    166
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 61
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Ergonome
    Secteur : Arts - Culture

    Informations forums :
    Inscription : Octobre 2016
    Messages : 166
    Par défaut
    Je trouve ce "scandale" des ethnies déguisées sans intérêt.

    N'importe qui peut mettre un casque de martien à un humain d'ethnie anti-martienne sous GIMP et ça n'a jamais fait jaser personne.
    D'ailleurs, c'est tellement absurde que personne n'a jamais consacré 5 minutes pour réaliser ce genre d'ineptie.

    Il est vraiment dommage que Google ait bloqué les représentations humaines à cause d'un timbre poste de mauvais goût. Gemini m'a récemment empêché de modifier un avatar en envoyant un message d'erreur. Résultat, je me suis tourné vers une offre payante et moins exposée médiatiquement.

    Personnellement, Bard m'a rendu de grands services par le passé alors que GPT, réputé plus agile, était soit limité aux informations de 2020 soit complètement aux fraises. Je préfère nettement un Bard moins pointu mais accédant à tout l'internet qu'un GPT réputé pointu mais totalement ignorant.

    Clairement, Bard était capable d'accéder à la base de recherche Google en temps réel ce qui lui apportait un avantage autrement utile.

  13. #13
    Inactif  
    Profil pro
    undef
    Inscrit en
    Février 2013
    Messages
    1 001
    Détails du profil
    Informations personnelles :
    Localisation : France, Lot (Midi Pyrénées)

    Informations professionnelles :
    Activité : undef

    Informations forums :
    Inscription : Février 2013
    Messages : 1 001
    Par défaut
    Citation Envoyé par commandantFred Voir le message
    ...
    N'importe qui peut mettre un casque de martien à un humain d'ethnie anti-martienne sous GIMP et ça n'a jamais fait jaser personne...

    Le problème c'est que dans le cas présent, il n'a jamais été demandé à l'IA de faire preuve de fantaisie ou "d'imagination". Les requêtes étaient du genre : Montres-moi un authentique Viking de l'Histoire Norvégienne.
    Se retrouver avec un Booba à casque ou un Gengis Khan sur un drakkar, ce n'est clairement pas ce qui était demandé.

  14. #14
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 959
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 959
    Par défaut Apple envisage de confier les fonctions d'IA de l'iPhone à Gemini de Google
    Apple envisage de confier les fonctions d'IA de l'iPhone à Gemini, le moteur d'IA de Google, des fonctions telles que la création d'images ou la rédaction d'essais à partir d'invites simples

    Apple est en pourparlers pour intégrer le moteur d'intelligence artificielle (IA) Gemini de Google dans l'iPhone, selon un rapport publié le lundi 18 mars par Bloomberg News, citant des personnes au fait de la situation.

    Apple a également discuté récemment avec OpenAI, soutenu par Microsoft, et a envisagé d'utiliser son modèle, ajoute le rapport.

    Apple prépare de nouvelles fonctionnalités dans le cadre de son prochain iPhone iOS 18, basées sur ses propres modèles d'IA, mais elle cherche un partenaire pour alimenter les fonctions d'IA générative, y compris les fonctions de création d'images et de rédaction d'essais basées sur des invites simples, selon le rapport.


    Les deux parties n'ont pas décidé des termes ou de la marque d'un accord sur l'IA ni finalisé la manière dont il serait mis en œuvre, a déclaré Bloomberg, ajoutant qu'il était peu probable qu'un accord soit annoncé avant le mois de juin, lorsque Apple prévoit de tenir sa conférence annuelle des développeurs mondiaux (Worldwide Developers Conference).

    Apple a été plus lent à déployer l'IA générative, qui peut générer des réponses semblables à celles d'un être humain à partir d'invites écrites, que ses rivaux Microsoft et Google, qui l'intègrent dans leurs produits.

    Le mois dernier, Tim Cook, PDG d'Apple, a déclaré que l'entreprise prévoyait de dévoiler plus tard dans l'année ses projets d'utilisation de l'IA générative, ajoutant que l'entreprise investissait "de manière significative" dans ce domaine.

    Apple et Google ont déjà conclu un accord qui permet à Google d'être le moteur de recherche par défaut du navigateur web Safari d'Apple.

    Toutefois, cet accord a fait l'objet d'un examen réglementaire, les États-Unis et leurs alliés étatiques affirmant que Google a illégalement étouffé la concurrence en versant des milliards de dollars à Apple et à d'autres partenaires commerciaux pour s'assurer que son moteur de recherche serait le moteur par défaut sur la plupart des téléphones et des navigateurs web.

    Google a également conclu un partenariat avec Samsung en janvier pour déployer plusieurs produits de technologie d'IA générative dans la série de smartphones Galaxy S24 de l'entreprise sud-coréenne.

    Et vous ?

    Quel est votre avis sur le sujet ?

    Voir aussi :

    Gemini, l'outil IA de Google qui transforme les mots en images, taxé de "woke" et critiqué pour avoir généré des nazis de différentes origines ethniques en réponse à des requêtes historiques

    Apple achète la startup DarwinAI pour renforcer son équipe d'IA, avant les mises à jour majeures d'IA générative prévues dans iOS 18
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  15. #15
    Nouveau candidat au Club
    Profil pro
    Inscrit en
    Mai 2008
    Messages
    3
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Mai 2008
    Messages : 3
    Par défaut Suite aux conférences développeurs...
    Suite aux conférences développeurs de Google il y a 2 semaines, et Microsoft la semaine dernière, la différence entre les deux est bien perceptible sur l'IA. Google a fait beaucoup d'annonces surprenantes mais floues, quelques démos de prototypes inaccessibles... A part dans la keynote, Google a finalement très peu parlé d'IA dans les sessions techniques de Google I/O.
    Microsoft a présenté des éléments plus concrets pour l'IA dans le cloud ou en local sur le PC, et des sessions techniques.

  16. #16
    Expert confirmé

    Homme Profil pro
    Directeur des systèmes d'information
    Inscrit en
    Avril 2002
    Messages
    2 900
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 65
    Localisation : Luxembourg

    Informations professionnelles :
    Activité : Directeur des systèmes d'information
    Secteur : Finance

    Informations forums :
    Inscription : Avril 2002
    Messages : 2 900
    Par défaut
    Oui enfin Microsoft ne fait qu'intégrer la solution d'OpenAI à tous ses logiciels c'est tout

  17. #17
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 336
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 336
    Par défaut L’IA Gemini de Google prise en flagrant délit d’analyse des fichiers PDF hébergés sur Google Drive
    L’IA Gemini de Google prise en flagrant délit d’analyse des fichiers PDF hébergés sur Google Drive, sans permission
    Ravive le débat sur les questions de confidentialité en lien avec la mise en œuvre de l’IA

    Gemini de Google a été pris en flagrant délit d’analyse des fichiers hébergés sur Google Drive. Cela se fait sans le consentement des utilisateurs. Pire, les paramètres de désactivation ne sont pas disponibles. C’est ce qui ressort de certains rapports d’utilisateurs qui ravivent le débat sur les questions de confidentialité en lien avec la mise en œuvre de l’intelligence artificielle.

    « J'ai trouvé le paramètre censé empêcher Gemini d'accéder à mes documents et il était déjà désactivé ! Pourtant, Gemini me donne absolument des résumés de documents. Un réglage qui ne fonctionne pas est encore pire que l'absence de réglage », rapporte Kevin Bankston.

    Nom : 0.png
Affichages : 8662
Taille : 113,0 Ko

    La situation fait suite à un avertissement de Google via une modification de sa politique de confidentialité : « Google utilise les informations pour améliorer ses services et développer de nouveaux produits, ainsi que de nouvelles fonctionnalités et technologies utiles à ses utilisateurs et au public. Par exemple, Google utilise des informations disponibles publiquement pour contribuer à l'entraînement de ses modèles d'intelligence artificielle, et concevoir des produits et des fonctionnalités comme Google Traduction, Bard et les capacités d'IA de Cloud. »

    La situation mise en avant par cet utilisateur des services en ligne de Google n’a donc rien de surprenant surtout qu’elle semble s’être imposée en norme.

    L'usage de paramètres de confidentialité stricts par les parents n'empêche pas les entreprises d'entraîner leurs IA sur les photos d'enfants, d'après un rapport de Human Rights Watch

    Des photos personnelles d'enfants australiens sont utilisées pour créer de puissants outils d'intelligence artificielle (IA) à l'insu et sans le consentement des enfants ou de leurs familles. Ces photos sont récupérées sur le web pour constituer un vaste ensemble de données que les entreprises utilisent ensuite pour entraîner leurs outils d'intelligence artificielle. À leur tour, d'autres utilisent ces outils pour créer des deepfakes malveillants qui mettent encore plus d'enfants en danger d'exploitation et de préjudice.

    « Les enfants ne devraient pas avoir à vivre dans la crainte que leurs photos soient volées et utilisées contre eux », a déclaré Hye Jung Han, chercheuse et avocate spécialisée dans les droits de l'enfant et la technologie à Human Rights Watch. « Le gouvernement australien devrait adopter de toute urgence des lois visant à protéger les données des enfants contre l'utilisation abusive de l'IA. »

    Une analyse réalisée par Human Rights Watch a révélé que LAION-5B, un ensemble de données utilisé pour former les outils d'intelligence artificielle les plus répandus et constitué à partir de la plus grande partie de l'internet, contient des liens vers des photos identifiables d'enfants australiens. Le nom de certains enfants figure dans la légende qui accompagne la photo ou dans l'URL où elle est stockée. Dans de nombreux cas, il est facile de retrouver leur identité, y compris des informations sur le moment et le lieu où l'enfant se trouvait au moment où la photo a été prise.

    L'une de ces photos montre deux garçons âgés de 3 et 4 ans, souriant d'une oreille à l'autre alors qu'ils tiennent des pinceaux devant une fresque murale colorée. La légende qui accompagne la photo indique le nom complet et l'âge des deux enfants, ainsi que le nom de l'école maternelle qu'ils fréquentent à Perth, en Australie occidentale. Il semble qu'il n'existe aucune autre information sur ces enfants sur l'internet.

    Human Rights Watch a trouvé 190 photos d'enfants provenant de tous les États et territoires d'Australie. Il s'agit probablement d'une sous-estimation significative de la quantité de données personnelles d'enfants contenues dans LAION-5B, car Human Rights Watch a examiné moins de 0,0001 % des 5,85 milliards d'images et de légendes contenues dans l'ensemble de données.

    Les photos examinées par Human Rights Watch couvrent l'ensemble de l'enfance. Elles capturent des moments intimes de bébés nés entre les mains gantées de médecins et encore reliés à leur mère par le cordon ombilical ; de jeunes enfants soufflant des bulles ou jouant des instruments dans des écoles maternelles ; des enfants déguisés en leurs personnages préférés pour la Semaine du livre ; et des filles en maillot de bain au carnaval de natation de leur école.

    Les photos montrent également des enfants des Premières nations, notamment ceux identifiés dans les légendes comme appartenant aux peuples Anangu, Arrernte, Pitjantjatjara, Pintupi, Tiwi et Warlpiri. Ces photos montrent des enfants en bas âge dansant sur une chanson dans leur langue indigène, une fille tenant fièrement un lézard goanna des sables par la queue et trois jeunes garçons portant des peintures corporelles traditionnelles et s'entourant les uns les autres.

    Bon nombre de ces photos n'ont été vues que par un petit nombre de personnes et bénéficiaient auparavant d'une certaine confidentialité. Il ne semble pas possible de les retrouver par le biais d'une recherche en ligne. Certaines photos ont été publiées par les enfants ou leur famille sur des blogs personnels et des sites de partage de photos et de vidéos. D'autres photos ont été téléchargées par les écoles ou par des photographes engagés par les familles pour capturer des moments personnels et des portraits. Certaines de ces photos sont impossibles à trouver sur les versions accessibles au public de ces sites web. Certaines ont été téléchargées des années, voire une décennie, avant la création de la LAION-5B.

    Human Rights Watch a constaté que LAION-5B contenait également des photos provenant de sources qui avaient pris des mesures pour protéger la vie privée des enfants. L'une de ces photos est un gros plan de deux garçons faisant de drôles de grimaces, tiré d'une vidéo postée sur YouTube d'adolescents célébrant la semaine des Schoolies après leurs examens de fin d'année. Le créateur de la vidéo a pris des précautions pour protéger la vie privée des personnes figurant dans la vidéo : Ses paramètres de confidentialité sont réglés sur "non listé" et la vidéo n'apparaît pas dans les résultats de recherche de YouTube.

    Les conditions d'utilisation de YouTube interdisent la collecte d'informations susceptibles d'identifier une personne, y compris les images de son visage, sauf dans certaines circonstances. YouTube n'a pas répondu à notre demande de commentaire.

    Une fois que leurs données sont collectées et intégrées dans des systèmes d'IA, ces enfants sont confrontés à d'autres menaces pour leur vie privée en raison des failles de la technologie. Les modèles d'IA, y compris ceux formés sur LAION-5B, sont connus pour la fuite d'informations privées ; ils peuvent reproduire des copies identiques du matériel sur lequel ils ont été formés, y compris des dossiers médicaux et des photos de personnes réelles. Les garde-fous mis en place par certaines entreprises pour empêcher la fuite de données sensibles ont été violés à plusieurs reprises.

    En outre, les modèles d'IA actuels ne peuvent pas oublier les données sur lesquelles ils ont été formés, même si ces données ont été ultérieurement supprimées de l'ensemble des données de formation. Cette perpétuité risque de porter préjudice aux Australiens autochtones en particulier, car de nombreux peuples des Premières nations limitent la reproduction des photos de personnes décédées pendant les périodes de deuil.

    Ces risques pour la vie privée ouvrent la voie à d'autres préjudices, a déclaré Human Rights Watch. L'entraînement sur des photos d'enfants réels permet aux modèles d'IA de créer des clones convaincants de n'importe quel enfant, sur la base d'une poignée de photos ou même d'une seule image. Des acteurs malveillants ont utilisé des outils d'IA entraînés par LAION pour générer des images explicites d'enfants à partir de photos inoffensives, ainsi que des images explicites d'enfants survivants dont les images d'abus sexuels ont été introduites dans LAION-5B.

    De même, la présence d'enfants australiens dans LAION-5B contribue à la capacité des modèles d'IA formés sur cet ensemble de données à produire des images réalistes d'enfants australiens. Cela amplifie considérablement le risque existant pour les enfants que quelqu'un vole leur image sur des photos ou des vidéos d'eux-mêmes publiées en ligne et utilise l'IA pour les manipuler afin qu'ils disent ou fassent des choses qu'ils n'ont jamais dites ni faites.

    En juin 2024, une cinquantaine de jeunes filles de Melbourne ont signalé que des photos de leurs profils de médias sociaux avaient été prises et manipulées à l'aide de l'IA pour créer des deepfakes sexuellement explicites d'elles, qui ont ensuite circulé en ligne.

    Les médias artificiels ont toujours existé, mais leur création nécessitait du temps, des ressources et de l'expertise, et ils étaient largement irréalistes. Les outils d'IA actuels créent des résultats réalistes en quelques secondes, sont souvent gratuits et faciles à utiliser, ce qui risque d'entraîner la prolifération de "deepfakes" non consensuels qui pourraient circuler à nouveau en ligne pour toujours et causer des dommages durables.

    LAION, l'organisation allemande à but non lucratif qui gère LAION-5B, a confirmé le 1er juin que l'ensemble de données contenait les photos personnelles des enfants trouvées par Human Rights Watch, et s'est engagée à les supprimer. Elle a contesté le fait que les modèles d'intelligence artificielle formés sur LAION-5B puissent reproduire mot pour mot des données personnelles. LAION a également déclaré qu'il incombait aux enfants et à leurs tuteurs de retirer les photos personnelles des enfants de l'internet, ce qui, selon elle, constitue la protection la plus efficace contre les utilisations abusives.

    Mark Dreyfus, procureur général d'Australie, a récemment présenté au parlement un projet de loi interdisant la création ou le partage non consensuel de deepfakes sexuellement explicites d'adultes, en précisant que de telles images d'enfants continueraient d'être traitées comme du matériel de maltraitance d'enfants en vertu du code pénal. Cependant, Human Rights Watch a déclaré que cette approche ne tient pas compte du problème plus profond, à savoir que les données personnelles des enfants ne sont pas protégées contre les utilisations abusives, y compris la manipulation non consensuelle de l'image d'enfants réels dans n'importe quel type de deepfake.

    Nom : 1.png
Affichages : 2122
Taille : 401,5 Ko

    Certains dirigeants d’entreprise sont d’avis qu'il est tout à fait acceptable de voler du contenu s'il se trouve sur le web ouvert, ce qui constitue une explication de l’actuel tableau

    Mustafa Suleyman est d’avis que dès que l'on publie quelque chose sur le web, cela devient un "freeware" que tout le monde peut copier et utiliser librement. Ce positionnement est néanmoins en contradiction avec la suppression par OpenAI de jeux de données utilisés pour entraîner GPT-3. La décision laissait ainsi entendre que l’entraînement des modèles d’IA tel qu’effectué en l’état se fait en violation des lois sur le copyright contrairement à ce que semble laisser entendre le patron de l’intelligence artificielle chez Microsoft.

    Des documents récemment dévoilés dans le cadre d’un recours collectif contre OpenAI révèlent que la startup a supprimé deux énormes ensembles de données, appelés "books1" et "books2", qui avaient été utilisés pour entraîner son modèle d'intelligence artificielle GPT-3. Les avocats de la firme Authors Guild ont déclaré dans les documents déposés au tribunal que les ensembles de données contenaient probablement plus de 100 000 livres publiés et qu'ils étaient au cœur des allégations selon lesquelles OpenAI avait utilisé des documents protégés par le droit d'auteur pour entraîner des modèles d'intelligence artificielle.

    Pendant des mois, la firme Authors Guild a cherché à obtenir des informations sur ces données auprès d'OpenAI. L'entreprise a d'abord résisté, invoquant des problèmes de confidentialité, avant de révéler qu'elle avait supprimé toutes les copies des données, selon les documents juridiques examinés par certains médias

    Dans un livre blanc publié en 2020, OpenAI a décrit les ensembles de données books1 et books2 comme des "corpus de livres basés sur Internet" et a indiqué qu'ils représentaient 16 % des données d'entraînement utilisées pour créer le GPT-3. Le livre blanc indique également que "books1" et "books2" contiennent ensemble 67 milliards de tokens de données, soit à peu près l'équivalent de 50 milliards de mots. À titre de comparaison, la Bible du roi Jacques contient 783 137 mots.

    La lettre non scellée des avocats d'OpenAI, qui porte la mention « hautement confidentiel - réservé aux avocats », indique que l'utilisation de books1 et books2 pour l'entraînement des modèles a cessé à la fin de 2021 et que les ensembles de données ont été supprimés à la mi-2022 en raison de leur non-utilisation. La lettre poursuit en indiquant qu'aucune des autres données utilisées pour entraîner le GPT-3 n'a été supprimée et offre aux avocats de la Guilde des auteurs l'accès à ces autres ensembles de données.

    Les documents non scellés révèlent également que les deux chercheurs qui ont créé books1 et books2 ne sont plus employés par OpenAI. OpenAI a d'abord refusé de révéler l'identité des deux employés.

    La startup a depuis identifié les employés auprès des avocats de la firme Authors Guild, mais n'a pas révélé publiquement leurs noms. OpenAI a demandé au tribunal de garder sous scellés les noms des deux employés, ainsi que les informations sur les ensembles de données. Authors Guild s'y est opposée, arguant du droit du public à être informé. Le litige est en cours.

    « Les modèles qui alimentent ChatGPT et notre API aujourd'hui n'ont pas été développés à partir de ces ensembles de données », a déclaré OpenAI dans un communiqué mardi. « Ces jeux de données, créés par d'anciens employés qui ne font plus partie d'OpenAI, ont été utilisés pour la dernière fois en 2021 et supprimés pour cause de non-utilisation en 2022. »

    Les lois en vigueur en UE empêchent les géants technologiques de siphonner les données des internautes à leur guise mais certains acteurs estiment qu’elles sont susceptibles de constituer un frein à l’innovation

    Meta a interrompu son projet d’entraînement de ses systèmes d'intelligence artificielle en utilisant les données de ses utilisateurs dans l'Union européenne et au Royaume-Uni. Cette décision fait suite au refus de la Commission irlandaise de protection des données (DPC), le principal régulateur de Meta dans l'UE, qui agit au nom de plusieurs autorités de protection des données dans l'ensemble de l'Union.

    Seulement certains intervenants sont d’avis que l’application de ces lois constitue un frein à l’innovation qui mettra l’Europe en retard sur les USA et la Chine.

    « Autre axe, c'est évidemment l'intelligence artificielle. Là-dessus, point n'est besoin d'y revenir, j'en ai beaucoup parlé il y a encore quelques jours. On a une révolution en cours. Mais au fond, sur ce sujet, on a eu une étrange semaine. On a eu à la fois Mistral qui a levé des financements record dans le secteur, près de 400 millions d'euros. Chapeau, bravo ! Vous pouvez les applaudir. C'est vraiment le génie français comme on aime à le voir et à le célébrer. Et on a eu une réglementation européenne qui est venue consolider, c'est une bonne chose, un modèle français de la régulation mais qui, à mes yeux, je vous parle en toute franchise, fait qu'on est le premier endroit au monde où sur les modèles dits fondationnels d'IA, on va beaucoup plus réguler que les autres.

    Moi, je pense que ce n'est pas une bonne idée et je le dis en toute honnêteté. Il faudra donc l'évaluer parce qu’aujourd'hui, quand je regarde, la France est sans doute le premier pays en termes d'intelligence artificielle en Europe continentale, on est au coude à coude avec les Britanniques. Mais eux n'auront pas cette régulation sur les modèles fondationnels et surtout, on est tous très loin des Chinois et des Américains. Alors on peut décider de réguler beaucoup plus vite et beaucoup plus fort que nos grands compétiteurs mais on régulera des choses qu'on ne produira plus ou qu'on n’inventera pas. Ce n'est jamais une bonne idée. Il faut donc qu'on soit toujours à la bonne vitesse et en tout cas au bon rythme. Donc moi, je demande à ce qu'on évalue de manière régulière cette réglementation et si on perd des leaders ou des pionniers à cause de ça, il faudra revenir. C'est clé », estime le président français.


    C’est une position similaire à celle du co-fondateur et PDG de Limit à propos de l’AI Act : « Il s’agit de la pire réglementation : large, radicale, tout le monde est techniquement en infraction d’une manière ou d’une autre, mais vous pouvez payer pour la combattre. Les entrepreneurs obéissants et respectueux des règles perdront tout leur temps et leur argent à essayer de se conformer à chaque paragraphe de la loi sur l’IA. De plus en plus d’entrepreneurs soucieux de la Realpolitik placeront leur entreprise dans une zone grise, supposeront que s’ils réussissent, ils seront un jour poursuivis en justice et économiseront des fonds pour cette éventualité.

    Et s’ils sont poursuivis, quelles sont les sanctions ? Jusqu'à 7% du chiffre d'affaires annuel mondial. C'est une farce. Si l’UE affirme que cette technologie est si dangereuse qu’elle nécessite une réglementation à l’échelle européenne, alors les sanctions devraient en réalité être beaucoup plus lourdes. S’il y a un mauvais acteur qui dirige une entreprise d’IA massivement abusive et que la plus grande menace à laquelle il est confronté est une pénalité de revenus de 7 % qu’il peut probablement réduire à 2 % après quelques années de litige, alors cela n’a aucun effet dissuasif ! Ces entreprises fonctionnent avec une marge brute de 75 %. Vous avez une année qui tourne à 73% ? Cela n’a pas d’importance.

    Cela place la loi sur l’IA dans une situation intermédiaire lamentable en matière de réglementation : suffisamment ennuyeuse pour dissuader les entrepreneurs légitimes, suffisamment édentée pour ne pas empêcher des abus à grande échelle. Je suis choqué que la loi sur l’IA ne prévoie aucune possibilité d’interdire quelque chose qui serait réellement dangereux, comme une machine de propagande optimisée par l’IA et financée par l’État, se faisant passer pour un réseau social. S’ils ne peuvent pas interdire des produits, alors il ne s’agit pas de protection des consommateurs : il s’agit simplement d’extraction de richesses. »

    Source : rapports d’utilisateurs

    Et vous ?

    Quelle est la priorité la plus importante pour vous en tant qu’utilisateur ? Préférez-vous que les entreprises protègent davantage vos données personnelles ou qu’elles rendent leurs produits plus interopérables avec d’autres services ?
    Pensez-vous que les réglementations telles que le Digital Markets Act (DMA) sont nécessaires pour encadrer les géants de la technologie ? Ou devrions-nous laisser les entreprises décider elles-mêmes de leurs politiques de déploiement de nouvelles technologies ?
    Comment pensez-vous que ces restrictions affecteront l’innovation dans le domaine de l’intelligence artificielle ? Est-ce que cela freinera ou encouragera de nouvelles avancées technologiques ?

    Voir aussi :

    Les États-Unis s'attaquent aux lacunes dans les restrictions sur les exportations de puces d'IA vers la Chine et prévoient d'introduire de nouvelles lignes directrices de restrictions

    Les États-Unis veulent entraver l'industrie chinoise des puces électroniques en adoptant de nouvelles règles d'exportation radicales, mais la Chine dénonce ces règles et exige qu'elles soient levées

    Les États-Unis étendent les restrictions à l'exportation de puces d'IA aux pays du Moyen-Orient
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  18. #18
    Membre extrêmement actif Avatar de OrthodoxWindows
    Homme Profil pro
    Étudiant
    Inscrit en
    Novembre 2021
    Messages
    1 369
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Novembre 2021
    Messages : 1 369
    Par défaut
    Comment pensez-vous que ces restrictions affecteront l’innovation dans le domaine de l’intelligence artificielle ? Est-ce que cela freinera ou encouragera de nouvelles avancées technologiques ?
    Plus qu'un problème d'IA, on a affaire ici à un problème présent chez Google depuis deux décennies : Le mépris complet de Google pour la vie privée, droit pourtant fondamental dans le respect de la dignité humaine.
    Un fichier hébergé sur Google Drive est la plupart du temps un fichier privé, on ne parle pas de fichiers publiés sur le web.

    Cette situation est dans la droite ligné de ceci : https://grisebouille.net/google-lesp...-con-du-monde/

    A ce niveau, Google Drive (même si c'est malheureusement loin d'être le seul) devrait être considéré comme un service piégé qui abuse de la confiance de victimes trop crédules. Le réglage qui ne fonctionne pas est carrément une stratégie digne des cybercriminel.

  19. #19
    Membre extrêmement actif Avatar de OrthodoxWindows
    Homme Profil pro
    Étudiant
    Inscrit en
    Novembre 2021
    Messages
    1 369
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Novembre 2021
    Messages : 1 369
    Par défaut
    Ces risques pour la vie privée ouvrent la voie à d'autres préjudices, a déclaré Human Rights Watch. L'entraînement sur des photos d'enfants réels permet aux modèles d'IA de créer des clones convaincants de n'importe quel enfant, sur la base d'une poignée de photos ou même d'une seule image. Des acteurs malveillants ont utilisé des outils d'IA entraînés par LAION pour générer des images explicites d'enfants à partir de photos inoffensives, ainsi que des images explicites d'enfants survivants dont les images d'abus sexuels ont été introduites dans LAION-5B.
    Par contre je comprend peut-être mal cette phrase, mais je ne voit pas en quoi le risque pour la vie privé décrit plus haut (la collecte abusive de certaines données) entraînerai d'autres risque par effet domino. En effet, rien n'interdit aux modèles de s’entraîner sur des photos d'enfant disponibles publiquement, le résultat sera exactement le même. A moins de demander aux modèles de ne plus collecter de photo d'enfant (donc de tronquer une part importante de la réalité, ce qui va à l'encontre la fonction première) ou de devenir bête en ne reproduisant plus que des images de manière littéral, sans rien mélanger. Hors il est évident que l'on se dirige vers l'inverse, à savoir une amélioration constante des modèles, ou il sera de plus en plus difficile de discerner les images d'origine.
    On semble se diriger vers une nouvelle révolution de l'image, et donc probablement vers la faillite d'une grosse parti de la société consumériste (car la sacralisation des images et un des fondements du consumérisme), et les états/organisations vont devoir s'habituer.

    Par contre, il devient très urgent de faire en sorte que n'importe qui souhaitant que son image ou l'image de son enfant ne serve pas pour entraîner des modèles, puisse avoir gain de cause.

  20. #20
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 617
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 617
    Par défaut OpenAI représente une plus grande menace pour Google que les régulateurs américains
    OpenAI représente une plus grande menace pour Google que les régulateurs américains, car un nombre croissant de personnes utilisent des outils d'IA, y compris le populaire ChatGPT d'OpenAI.

    OpenAI représenterait une plus grande menace pour Google que les régulateurs américains. Selon un ancien ingénieur de Google, "l'IA est beaucoup plus importante que la décision" (dans le procès antitrust de Google). L'époque du traitement préférentiel contre rémunération est révolue, et l'IA modifie fondamentalement le fonctionnement du produit de recherche. Ainsi, avec le lancement de SearchGPT, un prototype de moteur de recherche propulsé par l'IA, OpenAI éroderait la domination de Google sur le marché de la recherche en ligne.

    OpenAI tente de rivaliser avec Google sur un autre front après avoir pris le lead dans la course à l'IA. Le nouveau produit SearchGPT d'OpenAI donne une idée de la vision de l'entreprise sur l'avenir de la recherche en ligne. Le lancement de SearchGPT a déclenché une alerte rouge chez Google qui détient environ 90 % du marché de la recherche. Pour la première fois, le géant technologique faisait face à une menace crédible dirigée contre son monopole sur le marché de la recherche en ligne.

    Certains analystes considèrent SearchGPT comme un changement technologique capable de bouleverser l'activité et permettre à OpenAI de grignoter des parts de marché à Google. Le produit d'OpenAI vise également à concurrencer des startups comme Perplexity AI, mais il suscite des craintes quant à son impact potentiel sur l'état du Web. SearchGPT pourrait favoriser la diffusion de spams sur le Web, contribuant ainsi à le dégrader davantage.

    Dans le même temps, Google a perdu son procès antitrust sur des accords pour que son moteur de recherche soit la solution par défaut sur les téléphones. L'action antitrust opposait Google au ministère de la Justice, qui accusait Google de maintenir un monopole illégal sur le marché de la recherche en ligne. Le juge américain Amit Mehta vient de rendre sa décision : Google a violé la législation antitrust américaine en maintenant un monopole sur les marchés de la recherche et de la publicité en ligne.

    Les conséquences de cette décision pour l'avenir des activités de Google ne sont pas encore claires, car cette première conclusion ne porte que sur la responsabilité de l'entreprise, et non sur les solutions à apporter. Le sort de Google sera déterminé lors de la prochaine phase de la procédure. Cette dernière pourrait déboucher sur des mesures allant de l'obligation de mettre fin à certaines pratiques commerciales au démantèlement de l'activité de recherche de Google.

    Pour les observateurs, OpenAI représente une plus grande menace pour Google que les régulateurs américains. Ainsi, alors même que Google attend une décision sur la manière dont les régulateurs antitrust prévoient d'uniformiser les règles du jeu dans le secteur de la recherche sur internet, il est également confronté à la menace d'OpenAI dans ce domaine.

    Nom : 1.jpg
Affichages : 6489
Taille : 10,0 Ko

    Quel est la priorité de Google : son procès antitrust ou l'IA ?

    La décision rendue par les États-Unis, selon laquelle Google a créé un monopole illégal dans le domaine de la recherche, est considérée comme une grande victoire pour les autorités de régulation. Mais un nombre croissant de personnes utilisant des outils d'intelligence artificielle, dont le populaire chatbot ChatGPT d'OpenAI, est déjà en train d'éroder la position dominante de Google, selon des sources, des investisseurs et des analystes.

    "Je pense que pour Google, l'IA (est) beaucoup plus importante que la décision. L'IA modifie fondamentalement le fonctionnement du produit de recherche", a déclaré Arvind Jain, un ancien ingénieur de Google qui a travaillé pendant dix ans sur des produits tels que Search. M. Jain, qui dirige aujourd'hui une entreprise de recherche appelée Glean, a déclaré que l'impact de l'IA était immédiat par rapport à l'impact de ces décisions qui font l'objet d'un appel et prennent beaucoup de temps pour affecter un marché.

    Google est depuis longtemps synonyme de recherche, avec environ 90 % des parts de marché mondiales et un chiffre d'affaires annuel de 175 milliards de dollars. Même Apple, qui préfère construire tous les logiciels et une grande partie du matériel entrant dans la composition de ses appareils, a permis à Google d'être son moteur de recherche par défaut moyennant une rémunération intéressante.

    Mais l'époque du traitement préférentiel contre rémunération est révolue, même avant la résolution d'une série d'affaires antitrust. Dans le cadre de son incursion dans le domaine de l'IA, Apple a annoncé un partenariat avec OpenAI afin d'intégrer ChatGPT à ses prochains appareils. Elle a insisté sur le caractère non exclusif de l'accord et a évoqué la possibilité d'intégrer Google en tant que partenaire supplémentaire.

    Selon les analystes, une décision défavorable à Google accélérera l'évolution d'Apple vers des services de recherche alimentés par l'IA, s'il est contraint de mettre fin à son accord de recherche avec Google. OpenAI, soutenu par Microsoft, a déclaré le mois dernier qu'il entrait également dans le jeu de la recherche avec un lancement lent de SearchGPT, un moteur de recherche alimenté par l'IA avec un accès en temps réel à l'information sur Internet.

    Nom : 2.jpg
Affichages : 1216
Taille : 42,9 Ko

    Google et l'IA : Vers une domination totale de la recherche en ligne ou vers sa propre perte ?

    Un ancien cadre supérieur de Google a prédit que "l'IA évoluera plus vite que la vitesse à laquelle le ministère de la justice peut agir contre Google. Tout le monopole sera terminé, en d'autres termes, la vitesse à laquelle l'IA s'emparera de la recherche".

    Les anciens dirigeants de Google ainsi que de nombreux analystes de Wall Street s'accordent à dire que Google dispose de la matière première nécessaire pour prendre une longueur d'avance dans le domaine de l'IA - un grand modèle de langage pour entraîner son IA et un moteur de recherche. Mais les efforts de l'entreprise semblent dispersés face à l'assaut d'OpenAI, qui attire des utilisateurs plus jeunes.

    La popularité de l'IA générative a pris Google par surprise. Bien qu'elle soit à l'origine des recherches fondamentales sur la technologie, l'entreprise n'a lancé un produit grand public que bien après que ChatGPT soit devenue l'application grand public à la croissance la plus rapide au début de l'année 2023.

    "La plus grande menace pour Google pourrait être Google lui-même - la confiance est la clé de l'adoption de toute IA, et ses premiers faux pas avec Search Overviews ont montré que les ingénieurs de Google se concentraient davantage sur des versions rapides que sur la réussite, alors qu'ils tentent de suivre le rythme d'OpenAI et d'autres", a déclaré Rebecca Wettemann, PDG et analyste principale du cabinet d'études Valoir.

    Mme Wettemann a fait référence aux "AI Overviews" de Google, une nouvelle fonctionnalité qui utilise l'IA pour répondre aux requêtes de recherche qui apparaissent avant les liens. Cette fonction a été critiquée par les éditeurs qui ont vu le trafic de référence de Google diminuer et qui ont été accusés d'avoir commis des erreurs, notamment en disant aux utilisateurs de manger de la colle et en affirmant que Barack Obama était musulman. Google a réduit cette fonctionnalité au début de l'année.


    Gil Luria, analyste chez D.A. Davidson, estime que la surveillance réglementaire et la menace de l'IA sont liées. "Si le ministère de la justice s'en prend aux pratiques commerciales de Google, c'est en partie parce que le marché est en pleine mutation et qu'il veut s'assurer que Google n'étend pas sa domination actuelle sur le marché."

    Si la décision antitrust n'a pas encore d'impact majeur sur Google, elle devrait ouvrir le marché de la recherche à d'autres acteurs, a déclaré Richard Socher, PDG et fondateur de la startup You.com, un moteur de recherche basé sur l'IA, et ancien directeur scientifique de Salesforce. Il ajoute toutefois qu'il sera "très difficile" de mettre fin à la domination de Google dans le domaine de la recherche. "Personne n'a encore vraiment réussi à entamer la domination de Google dans le domaine de la recherche [...] Nous devrons voir s'il s'agit d'une nouvelle pièce en domino qui se mettra en place pour donner aux consommateurs plus de choix, de vrais choix."

    Source : Arvind Jain, ancien ingénieur de Google

    Et vous ?

    Pensez-vous que l'affirmation qu'"OpenAI représente une plus grande menace pour Google que les régulateurs américains" est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Quel moteur de recherche pourrait être le prochain Google ? Voici comment certains essaient de détrôner le géant de Mountain View

    OpenAI lance SearchGPT, un prototype de moteur de recherche propulsé par l'IA, pour défier le monopole de Google, mais le produit est sujet aux hallucinations et suscite de nombreuses autres préoccupations

    L'accord de 21 ans conclu à coups de milliards de dollars entre Google et Apple est le « cœur » de l'affaire de monopole sur les services Internet, selon le juge Amit Mehta

    L'IA de Google conseille aux utilisateurs de mettre de la colle sur les pizzas pour empêcher le fromage de glisser, une suggestion tirée d'un commentaire Reddit vieux de 11 ans
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 0
    Dernier message: 21/09/2022, 21h40
  2. Réponses: 17
    Dernier message: 01/07/2011, 17h26
  3. Réponses: 12
    Dernier message: 29/08/2010, 19h39
  4. Réponses: 10
    Dernier message: 25/05/2010, 08h10
  5. Réponses: 2
    Dernier message: 18/11/2009, 00h07

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo