IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #721
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 414
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 414
    Points : 2 742
    Points
    2 742
    Par défaut
    Citation Envoyé par Jules34 Voir le message
    D'une manière générale les fonds américains représentent environ 40 % des fonds investis dans les startup Française, qui n'ont donc de Français que le numéro au RCS...
    Ça me rappelle que je me demande au sujet de l'Équipe de France (de foot) ... Est-ce qu'ils ont au moins ça, de Français ?

  2. #722
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 936
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 936
    Points : 37 645
    Points
    37 645
    Par défaut Les travailleurs africains à l'origine de la révolution de l'IA : une réalité de conditions éprouvantes
    Les travailleurs africains à l'origine de la révolution de l'IA : une réalité de conditions éprouvantes et de salaires médiocres,
    pour environ un dollar de l'heure

    Les travailleurs africains, comme Mercy à Nairobi et Anita en Ouganda, sont essentiels à la révolution de l'IA, mais endurent des conditions éprouvantes pour environ un dollar de l'heure. Mercy, modératrice de contenu pour Meta, visionne des vidéos traumatisantes, dont l'accident mortel de son grand-père, et traite un "ticket" toutes les 55 secondes sous une surveillance étroite pour étiqueter les contenus violents. Anita, annotatrice de données, travaille sur des projets technologiques sous une pression intense, avec des salaires bien inférieurs aux normes internationales et peu de soutien émotionnel ou de sécurité d'emploi.

    Les employés de ces centres de modération sont continuellement exposés à des images et vidéos explicites sans avoir le temps de réfléchir à ce qu'ils voient. Ils doivent traiter entre 500 et 1 000 tickets par jour, ce qui laisse une marque indélébile sur leur vie. Les conséquences psychologiques sont dévastatrices, allant jusqu'à des tentatives de suicide et des ruptures familiales. Un modérateur licencié a déclaré que les politiques de l'entreprise étaient encore plus pénibles que le travail lui-même. Dans un centre de modération, les travailleurs ont pleuré et tremblé après avoir visionné des vidéos de décapitation, mais leur accès à un conseiller en bien-être, un collègue sans formation de psychologue, était limité à une pause de 30 minutes par semaine. Les employés qui quittaient leur poste en raison de ce qu'ils avaient vu étaient pénalisés pour ne pas avoir correctement indiqué leur absence dans le système de l'entreprise.

    Nom : Africa.jpg
Affichages : 7886
Taille : 73,1 Ko

    Ces récits mettent en lumière la réalité des travailleurs de l'industrie mondiale de l'IA, où des entreprises comme OpenAI externalisent des tâches critiques à des travailleurs dans des pays en développement pour des rémunérations minimes. Ces travailleurs, essentiels pour rendre les technologies plus sûres et efficaces, sont souvent exposés à des conditions précaires et à un stress psychologique considérable, soulevant des questions sur l'équité et la responsabilité sociale dans l'innovation technologique. OpenAI, par exemple, a fait appel à des travailleurs kenyans rémunérés moins de 2 dollars de l'heure pour améliorer la sécurité de ChatGPT en étiquetant des textes potentiellement toxiques. Bien que leur rôle soit crucial, ces travailleurs opèrent dans des conditions précaires et souvent traumatisantes, avec des salaires bien en deçà des normes internationales du travail.

    Quand l'innovation technologique écrase les droits des travailleurs en afrique

    Les pratiques de gestion et de soutien des travailleurs par des entreprises comme Sama sont souvent critiquées comme insuffisantes face à la nature éprouvante du travail. Twitter a licencié presque tout le personnel de son seul bureau en Afrique dans le cadre des efforts de réorganisation du nouveau propriétaire Elon Musk pour l'application de médias sociaux qu'il a récemment achetée, selon un nouveau rapport. Les licenciements collectifs sont intervenus sans aucune mention d'indemnité de départ quelques jours seulement après l'ouverture du bureau physique au Ghana après la venue du travail à distance qui aura duré environ un an. Les licenciements pourraient également être illégaux.

    Cette situation met en lumière un défi majeur pour l'industrie de l'IA : équilibrer l'innovation technologique avec des normes de travail équitables et respectueuses des droits humains, particulièrement dans des régions économiquement vulnérables comme l'Afrique subsaharienne. Sama, qui collabore avec des géants comme Google, Microsoft et Walmart, emploie des modérateurs de contenu à Nairobi pour filtrer les contenus illégaux pour Facebook. Ces employés sont confrontés à des salaires médiocres, des conditions de travail difficiles et un traumatisme mental, tout en étant souvent réprimés lorsqu'ils tentent d'améliorer leurs conditions de travail. Les pratiques de Sama et les exigences de Facebook soulèvent des questions sur les conditions de travail. Les modérateurs de contenu de Facebook au Kenya vont jusqu'à qualifier leur travail de torture.

    Au bord des larmes, Nathan Nkunzimana se souvient d'avoir regardé une vidéo montrant un enfant agressé et une autre montrant une femme tuée. Huit heures par jour, son travail de modérateur de contenu pour un sous-traitant de Facebook l'obligeait à regarder des horreurs pour que le monde n'ait pas à le faire. Certains collègues accablés criaient ou pleuraient, dit-il.
    Aujourd'hui, Nkunzimana fait partie des quelque 200 anciens employés kenyans qui poursuivent Facebook et l'entreprise locale Sama en raison de conditions de travail qui pourraient avoir des répercussions sur les modérateurs de médias sociaux dans le monde entier. Il s'agit de la première action en justice connue en dehors des États-Unis, où Facebook a conclu un accord avec les modérateurs en 2020.

    Le groupe était employé au centre de modération de contenu externalisé du géant des médias sociaux à Nairobi, la capitale du Kenya, où les travailleurs filtrent les messages, les vidéos, les messages et d'autres contenus provenant d'utilisateurs de toute l'Afrique, en supprimant tout matériel illégal ou nuisible qui enfreint les normes de la communauté et les conditions d'utilisation. Les révélations sur ces conditions de travail mettent en lumière la tension entre les gains de productivité technologique et les coûts humains cachés, soulignant la nécessité d'une réflexion critique sur les pratiques de travail et la responsabilité sociale des entreprises technologiques.

    La plupart des gens ne connaîtront jamais les conditions de travail inhumaines endurées par Mercy et ses collègues. Cependant, des millions de travailleurs à travers le monde effectuent ce type de travail dans des circonstances et des lieux variés. Dans ce centre particulier, certaines conditions de travail ont changé après la publication de nos recherches. Toutefois, des grandes entreprises comme Meta ont tendance à utiliser plusieurs fournisseurs de services de modération externalisés qui se font concurrence pour obtenir les contrats les plus lucratifs.

    Ce travail sur les données est crucial pour le fonctionnement des produits et services que nous utilisons quotidiennement - des applications de médias sociaux aux chatbots et aux nouvelles technologies automatisées. C'est une condition essentielle à leur existence même - sans les modérateurs de contenu qui analysent constamment les messages en arrière-plan, les réseaux sociaux seraient rapidement envahis de contenus violents et explicites. Sans les annotateurs de données qui créent des ensembles de données pour enseigner à l'IA à distinguer un feu de circulation d'un panneau de signalisation, les véhicules autonomes ne seraient pas autorisés à circuler sur nos routes. Et sans les travailleurs qui forment les algorithmes d'apprentissage automatique, nous n'aurions pas d'outils d'IA tels que ChatGPT.

    Facebook et Sama ont défendu leurs pratiques en matière d'emploi

    Sans certitude quant à la durée de l'affaire, les modérateurs ont exprimé leur désespoir alors que l'argent et les permis de travail viennent à manquer et qu'ils se débattent avec les images traumatisantes qui les hantent. « Si vous vous sentez à l'aise en naviguant et en parcourant la page Facebook, c'est parce qu'il y a quelqu'un comme moi qui a été là, sur cet écran, à se demander si c'est normal d'être ici », a déclaré Nkunzimana, père de trois enfants originaire du Burundi, à l'Associated Press à Nairobi.

    Selon ce jeune homme de 33 ans, la modération des contenus est comparable à des "soldats" qui prennent une balle pour les utilisateurs de Facebook. Les employés surveillent des contenus nuisibles montrant des meurtres, des suicides et des agressions sexuelles, et veillent à ce qu'ils soient supprimés. Pour Nkunzimana et d'autres, le travail a commencé par un sentiment de fierté, avec l'impression d'être des « héros pour la communauté ».

    Mais lorsque l'exposition à des contenus alarmants a ravivé les traumatismes passés de certains qui, comme lui, avaient fui la violence politique ou ethnique dans leur pays, les modérateurs ont trouvé peu de soutien et une culture du secret. On leur a demandé de signer des accords de non-divulgation. Les objets personnels, comme les téléphones, n'étaient pas autorisés sur le lieu de travail.

    Après son service, Nkunzimana rentrait chez lui épuisé et s'enfermait souvent dans sa chambre pour tenter d'oublier ce qu'il avait vu. Même sa femme n'avait aucune idée de ce qu'était son travail. Ces jours-ci, il s'enferme dans sa chambre pour éviter que ses fils ne lui demandent pourquoi il ne travaille plus et pourquoi ils ne peuvent probablement plus payer les frais de scolarité. Le salaire des modérateurs de contenu était de 429 dollars par mois, les non-Kényans recevant en plus une petite indemnité d'expatriation.

    Le sous-traitant de Facebook, la société américaine Sama, n'a pas fait grand-chose pour s'assurer que des conseils professionnels post-traumatiques étaient proposés aux modérateurs dans son bureau de Nairobi, a déclaré Nkunzimana. Il a ajouté que les conseillers n'étaient pas suffisamment formés pour faire face à ce que ses collègues vivaient. Aujourd'hui, en l'absence de soins de santé mentale, il se plonge dans l'église.


    Meta, la société mère de Facebook, a déclaré que ses sous-traitants étaient contractuellement tenus de rémunérer leurs employés à un niveau supérieur à la norme du secteur sur les marchés où ils opèrent et de leur fournir un soutien sur place par des praticiens formés.

    Dans un courriel adressé à l'AP, Sama a déclaré que les salaires offerts au Kenya étaient quatre fois supérieurs au salaire minimum local et que "plus de 60 % des employés masculins et plus de 70 % des employées féminines vivaient en dessous du seuil international de pauvreté (moins de 1,90 dollar par jour)" avant d'être embauchés.

    Sama a déclaré que tous les employés avaient un accès illimité à des conseils individuels « sans crainte de répercussions ». L'entrepreneur a également qualifié de « déroutante » une récente décision de justice visant à prolonger les contrats des modérateurs et a affirmé qu'une décision ultérieure suspendant cette décision signifiait qu'elle n'était pas entrée en vigueur.

    Source : The Guardian

    Et vous ?

    Quel est votre avis sur le sujet ?

    Quelles sont les solutions potentielles pour garantir que l'innovation technologique ne se fasse pas au détriment des droits et du bien-être des travailleurs en Afrique ?

    Quelle est l'ampleur réelle du problème de sous-traitance des tâches de modération de contenu à des prestataires externes, et quelles mesures pourraient être prises pour améliorer la transparence et les conditions de travail ?

    Voir aussi :

    Les modérateurs de contenu de Facebook au Kenya qualifient leur travail de torture, leur action en justice pourrait avoir des répercussions dans le monde entier

    Le Twitter d'Elon Musk licencie « presque tous » ses employés en Afrique sans offrir d'indemnités de départ et sans mentionner les noms des collaborateurs remerciés dans les avis de licenciement

    OpenAI a fait appel à des travailleurs kényans payés moins de 2 dollars par heure pour rendre ChatGPT moins toxique, les experts jugent ce tarif faible en raison des "tâches ingrates" des employés

  3. #723
    Expert confirmé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 355
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 355
    Points : 4 083
    Points
    4 083
    Par défaut
    Les travailleurs africains à l'origine de la révolution de l'IA : une réalité de conditions éprouvantes et [...] pour environ un dollar de l'heure
    Pendant que les société d'IA lèvent des millions de dollar d'investissement.

  4. #724
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 414
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 414
    Points : 2 742
    Points
    2 742
    Par défaut
    Citation Envoyé par totozor Voir le message
    Les travailleurs africains à l'origine de la révolution de l'IA : une réalité de conditions éprouvantes et [...] pour environ un dollar de l'heure
    Pendant que les société d'IA lèvent des millions de dollar d'investissement.
    Si je lis bien, l'émergence de l'IA est basée sur l'esclavage.

  5. #725
    Membre émérite
    Profil pro
    Inscrit en
    Juin 2009
    Messages
    951
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Juin 2009
    Messages : 951
    Points : 2 909
    Points
    2 909
    Par défaut
    A titre de comparaison : https://www.combien-coute.net/cout-de-la-vie/kenya/

    En moyenne, le coût de la vie au Kenya en 2024 est 43% moins important qu'en France.

    Le salaire mensuel moyen est de : 362€
    1L d'essence coûte : 1.5€
    Un déjeuner au restaurant : 3.6€
    Le prix d'une place de cinéma est 5.8€
    La location d'un appartement dans le centre-ville coûte 850€/mois
    En moyenne, le prix pour se loger à l'hôtel au Kenya est 54% moins cher par rapport à la France
    Le coût de la vie pour habiter (logement, abonnements...) au Kenya est en moyenne 51% moins cher par rapport à la France
    Je me suis dit que le niveau de vie était pas forcément le même et j'ai, vite fait, vérifié à quel point, c'est sur que c'est pas pareil qu'en France, en revanche quand on compare le salaire moyen avec le cout de la vie, ça a bien l'air misérable de vivre au Kenya.

  6. #726
    Expert éminent Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 671
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 671
    Points : 7 804
    Points
    7 804
    Par défaut
    Citation Envoyé par Gluups Voir le message
    Si je lis bien, l'émergence de l'IA est basée sur l'esclavage.
    Oui. Et pas uniquement en Afrique: le passage sur la classification des données pour l'IA est dans la dernière partie.

  7. #727
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 414
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 414
    Points : 2 742
    Points
    2 742
    Par défaut
    Dès le début de la vidéo, j'ai l'impression que pour un peu, il y aurait matière à ce que la "Gauche" trouve autre chose à glander que s'écharper en interne à longueur de journée parlementaire.
    Il est vrai que si on est trop occupé à pourchasser les députés ou futurs députés qui ont le sens du pays, il reste moins de temps.

  8. #728
    Candidat au Club
    Femme Profil pro
    Chargé d'affaire
    Inscrit en
    Juillet 2024
    Messages
    3
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Chargé d'affaire

    Informations forums :
    Inscription : Juillet 2024
    Messages : 3
    Points : 4
    Points
    4
    Par défaut Salaire
    Cet article poignant met en lumière les conditions difficiles des travailleurs africains comme Mercy et Anita, qui jouent un rôle crucial dans la révolution de l'IA. Il est choquant de voir qu'ils sont rémunérés à peine un dollar de l'heure pour un travail aussi éprouvant et essentiel. Ces travailleurs méritent des salaires justes, un soutien émotionnel et une sécurité d'emploi adéquate. Il est impératif que les grandes entreprises technologiques reconnaissent leur contribution et améliorent leurs conditions de travail.

  9. #729
    Expert confirmé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 355
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 355
    Points : 4 083
    Points
    4 083
    Par défaut
    Citation Envoyé par walfrat Voir le message
    A titre de comparaison : https://www.combien-coute.net/cout-de-la-vie/kenya/
    Je me suis dit que le niveau de vie était pas forcément le même et j'ai, vite fait, vérifié à quel point, c'est sur que c'est pas pareil qu'en France, en revanche quand on compare le salaire moyen avec le cout de la vie, ça a bien l'air misérable de vivre au Kenya.
    Le taux horaire net du smic est de 9,23 € ce qui donnerait un équivalent à 3.97€ si on prend en compte les 43%.
    Ce qui est toujours 4 fois au dessus du salaire desdites personnes.
    Et n'est il pas aussi - un peu - la responsabilité des grands de ce monde de tirer le monde vers le haut plutôt que d'entretenir la main d'œuvre gratuite (à ce niveau là on peut parler de ça) dans sa misère.

    Mais je suis probablement un idéaliste qui rêve de vivre chez les bisounours.

  10. #730
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 932
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 932
    Points : 206 972
    Points
    206 972
    Par défaut OpenAI pourrait perdre 5 milliards de dollars cette année et se retrouver à court de liquidités dans 12 mois
    OpenAI pourrait perdre 5 milliards de dollars cette année et se retrouver à court de liquidités dans 12 mois, selon un rapport
    qui évoque ses dépenses colossales en formation des modèles d'IA et en rémunération du personnel

    L’intelligence artificielle (IA) est un domaine en pleine expansion, mais il n’est pas sans risques financiers. OpenAI, le créateur de ChatGPT, pourrait bien en faire l’amère expérience. Selon une analyse de The Information, l’entreprise pourrait perdre jusqu’à 5 milliards de dollars en 2024, mettant ainsi en péril sa trésorerie dans les 12 prochains mois.

    OpenAI a lancé ChatGPT en novembre 2022. L'assistant d'IA a rapidement gagné en popularité, dépassant les 100 millions d'utilisateurs hebdomadaires. L'entreprise d'intelligence artificielle, basée aux États-Unis, a annoncé le 18 juillet le lancement d'un nouveau modèle d'IA générative, baptisé « GPT-4o Mini ». L'entreprise serait également en train de construire un modèle d'IA capable d'un raisonnement avancé, surpassant les capacités de l'actuel modèle phare GPT-4o. Le nouveau modèle, appelé « Strawberry », aurait également des réactions plus proches de celles des humains.

    Toutefois, OpenAI gère une entreprise coûteuse qui pourrait perdre jusqu'à 5 milliards de dollars en 2024, ce qui mettrait le fabricant de ChatGPT à court de liquidités dans les 12 mois à venir, selon une analyse de The Information.

    Des dépenses colossales

    Selon le rapport, qui cite des données financières précédemment non divulguées et des personnes familières avec l'entreprise, OpenAI est sur la bonne voie pour dépenser quelque 7 milliards de dollars uniquement pour la formation de ses modèles d'intelligence artificielle, et 1,5 milliard de dollars supplémentaires pour la dotation en personnel. Ces dépenses dépassent de loin celles de ses rivaux, comme Anthropic, soutenu par Amazon, qui prévoit un taux d'absorption de 2,7 milliards de dollars en 2024.

    Les dépenses élevées d'OpenAI pourraient obliger l'entreprise à conclure un nouveau cycle de financement dans les 12 mois pour renforcer son bilan, selon le rapport. OpenAI a déjà réalisé sept tours de financement, levant plus de 11 milliards de dollars, selon les données de Tracxn - le plus récent étant un tour privé avec ARK Investment Management en avril pour une somme non divulguée.

    Nom : financement.png
Affichages : 6393
Taille : 33,9 Ko

    Les défis réglementaires et de transparence

    Outre les défis financiers, OpenAI doit également faire face à des questions réglementaires. En effet, la Securities and Exchange Commission (SEC), gendarme américain des marchés financiers, enquête sur des allégations de non-respect des accords de confidentialité. De plus, des législateurs américains ont exprimé leurs préoccupations concernant les normes de sécurité et les pratiques d’emploi d’OpenAI. Dans une lettre adressée au PDG d'OpenAI, Sam Altman ils ont demandé si l’entreprise s’engagerait à rendre son prochain modèle de base disponible aux agences gouvernementales américaines pour des tests, des examens et des évaluations préalables au déploiement.

    Les motifs ? Ils l'expliquent avant de lister leurs exigences :

    « Une IA sûre et sécurisée est largement considérée comme vitale pour la compétitivité économique et la position géopolitique de la nation au XXIe siècle. En outre, OpenAI travaille actuellement en partenariat avec le gouvernement américain et les agences de sécurité et de défense nationales pour développer des outils de cybersécurité destinés à protéger les infrastructures critiques de notre pays. La sécurité nationale et économique fait partie des responsabilités les plus importantes du gouvernement des États-Unis, et les systèmes d'IA non sécurisés ou autrement vulnérables ne sont pas acceptables.

    « Compte tenu de la position d'OpenAI en tant qu'entreprise leader dans le domaine de l'IA, il est important que le public puisse avoir confiance dans la sûreté et la sécurité de ses systèmes. Cela inclut l'intégrité de la structure de gouvernance de l'entreprise et des tests de sécurité, ses pratiques d'emploi, sa fidélité à ses promesses publiques et à sa mission, ainsi que ses politiques de cybersécurité. Les engagements volontaires que vous et d'autres grandes entreprises d'IA avez pris avec la Maison Blanche l'année dernière ont constitué une étape importante dans l'instauration de cette confiance ».

    Pour Mark Zuckerberg, l'avenir est dans l'IA open source

    Dans une lettre récente, Mark Zuckerberg, fondateur et PDG de Meta, a souligné le rôle essentiel de l'IA open source et les avantages qu'elle confère pour les développeurs, pour Meta et pour le monde entier. Faisant le parallèle avec le succès de l'open source Linux, Zuckerberg a souligné les avancées des modèles Llama de Meta, en particulier le nouveau Llama 3.1 405B de niveau frontière. Il a détaillé la collaboration de Meta avec de grandes entreprises technologiques afin de favoriser un écosystème d'IA étendu, plaidant pour que l'open source soit l'avenir de l'innovation en matière d'IA et la norme de l'industrie :

    « Dans les premiers temps de l'informatique de haute performance, les principales entreprises technologiques de l'époque ont toutes investi massivement dans le développement de leurs propres versions d'Unix à code source fermé. À l'époque, il était difficile d'imaginer qu'une autre approche puisse permettre de développer des logiciels aussi avancés. Cependant, Linux a fini par gagner en popularité, d'abord parce qu'il permettait aux développeurs de modifier son code à leur guise et qu'il était plus abordable, puis parce qu'il est devenu plus avancé, plus sûr et qu'il disposait d'un écosystème plus large prenant en charge davantage de fonctionnalités que n'importe quel Unix fermé. Aujourd'hui, Linux est la base standard de l'industrie pour le cloud computing et les systèmes d'exploitation qui font fonctionner la plupart des appareils mobiles - et nous bénéficions tous de produits de qualité supérieure grâce à lui.

    « Je pense que l'IA se développera de la même manière. Aujourd'hui, plusieurs entreprises technologiques développent des modèles fermés de pointe. Mais l'open source comble rapidement le fossé. L'année dernière, Llama 2 n'était comparable qu'à une ancienne génération de modèles derrière la frontière. Cette année, Llama 3 est compétitif avec les modèles les plus avancés et en avance dans certains domaines. À partir de l'année prochaine, nous prévoyons que les futurs modèles Llama deviendront les plus avancés de l'industrie. Mais même avant cela, Llama est déjà en tête pour ce qui est de l'ouverture, de la modifiabilité et de la rentabilité ».

    L'évolution chez la concurrence

    Llama 3.1

    Meta affirme que Llama 3.1 405B est le premier modèle disponible en libre accès qui rivalise avec les meilleurs modèles d’IA en termes de capacités de pointe dans les domaines de la connaissance générale, de l’orientation, des mathématiques, de l’utilisation d’outils et de la traduction multilingue. Avec la sortie du modèle 405B, Meta indique être prêt à stimuler l’innovation, avec des possibilités de croissance et d’exploration sans précédent. La société pense que la dernière génération de Llama va donner naissance à de nouvelles applications et à de nouveaux paradigmes de modélisation, y compris la génération de données synthétiques pour permettre l’amélioration et l’entraînement de modèles plus petits, ainsi que la distillation de modèles – une capacité qui n’a jamais été atteinte à cette échelle dans le domaine de l’open-source.

    Dans le cadre de cette dernière version, Meta présente des versions améliorées des modèles 8B et 70B. Ceux-ci sont multilingues et disposent d’une longueur de contexte nettement plus importante (128 Ko), d’une utilisation d’outils de pointe et de capacités de raisonnement globalement plus solides. Cela permet aux derniers modèles de Meta de prendre en charge des cas d’utilisation avancés, tels que le résumé de textes longs, les agents conversationnels multilingues et les assistants de codage. Meta a également modifié sa licence, ce qui permet aux développeurs d’utiliser les résultats des modèles Llama, y compris le 405B, pour améliorer d’autres modèles. Fidèles à son engagement en faveur de l’open-source, Meta a mis dès aujourd’hui ces modèles à la disposition de la communauté pour le téléchargement sur llama.meta.com et Hugging Face, ainsi que pour le développement immédiat sur son vaste écosystème de plateformes partenaires.


    Large 2 de Mistral AI

    La startup française Mistral AI vient d'annoncer la sortie de Large 2, son nouveau modèle phare dont les capacités de génération de code, de mathématiques et de raisonnement sont considérablement accrues. Mistral AI a également ajouté un support multilingue amélioré et des capacités d'appel de fonctions avancées avec Large 2.

    Le modèle Mistral Large 2 compte 123 milliards de paramètres, ce qui lui permet de fonctionner sur un seul nœud H100 à haut débit. Il prend en charge les langues française, allemande, espagnole, italienne, portugaise, arabe, hindi, russe, chinoise, japonaise et coréenne. En termes de codage, il prend en charge plus de 80 langages de codage, dont Python, Java, C, C++, JavaScript et Bash.

    Pour les développeurs, Mistral Large 2 est désormais doté de compétences améliorées en matière d'appel et de récupération de fonctions. Il peut désormais exécuter des appels de fonctions parallèles et séquentielles, ce qui permet aux développeurs de créer des applications d'IA commerciales complexes.

    Les performances de Mistral Large 2 (123B) sont comparables à celles de GPT-4o d'OpenAI, du Claude Opus 3 et du Meta's Llama 3.1 405B récemment sorti sur les benchmarks de codage. Sur les benchs Wild Bench, Arena Hard et MT Bench, Large 2 surpasse Llama 3.1 405B et Claude 3 Opus. Sur le populaire benchmark MMLU, ce nouveau modèle surpasse Llama 3.1 70B et est comparable à Llama 3.1 405B.

    Mistral Large 2 est maintenant disponible avec des poids ouverts, mais il n'est disponible gratuitement que pour la recherche et l'utilisation non-commerciale. Pour une utilisation commerciale, une licence de modèle est nécessaire. Avec sa sortie, Mistral consolide son portefeuille de modèles. Il y aura deux modèles polyvalents, Mistral Nemo et Mistral Large, et deux modèles spécialisés, Codestral et Embed.


    Conclusion

    Alors qu'OpenAI est considéré par beaucoup comme le leader en matière d'IA, l'écart avec la concurrence ne cesse de se réduire. Pourtant, ses besoins en matière de financement sont loin de diminuer, les entrées ne couvrant vraisemblablement pas tous ses besoins. Aussi, Gary Marcus, le fondateur et directeur général de Geometric Intelligence (racheté par Uber), estime que, vu le contexte, les investisseurs devraient se poser les questions suivantes :

    Quel est leur plus-value ? Une technologie unique ? Quel est leur chemin vers la rentabilité alors que Meta offre gratuitement des technologies similaires ? Ont-ils une « killer app » ? La technologie sera-t-elle un jour fiable ? Qu'est-ce qui est réel et qu'est-ce qui n'est qu'une démo ?

    Sources : The Information, Tracxn, lettre des législateurs

    Et vous ?

    L’IA devrait-elle être réglementée de manière plus stricte pour éviter les risques financiers des entreprises comme OpenAI ? Les dépenses massives d’OpenAI soulèvent des inquiétudes quant à la viabilité financière. Devrions-nous imposer des limites ou des contrôles plus stricts sur les investissements dans l’IA ?
    Quelles sont les implications de la perte potentielle de 5 milliards de dollars pour OpenAI et l’industrie de l’IA en général ? Comment cela pourrait-il affecter la recherche, le développement et l’innovation dans le domaine de l’IA ?
    La transparence d’OpenAI est-elle suffisante ? Les législateurs et les utilisateurs se préoccupent de la manière dont OpenAI gère la sécurité, la confidentialité et la divulgation de ses modèles. Quelles mesures supplémentaires devraient être prises ?
    Partagez-vous le point de vue de Gary Marcus qui pense que les investisseurs devraient se poser les questions suivantes au sujet d'OpenAI : « Quel est leur plus-value ? Une technologie unique ? Quel est leur chemin vers la rentabilité alors que Meta offre gratuitement des technologies similaires ? Ont-ils une "killer app" ? La technologie sera-t-elle un jour fiable ? Qu'est-ce qui est réel et qu'est-ce qui n'est qu'une démo ? » ? Dans quelle mesure ?
    Si Llama ou une autre IA venait à dépasser les performances proposées par les IA d'OpenAI, quelles pourraient en être les conséquences ?
    Des IA susceptibles selon vous de réaliser cette prouesse ? Lesquelles ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  11. #731
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 932
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 932
    Points : 206 972
    Points
    206 972
    Par défaut OpenAI a mis au point un système capable d'identifier du texte rédigé par ChatGPT mais craint de le déployer
    OpenAI a mis au point un système capable d'identifier les textes rédigés par ChatGPT mais hésite à le déployer
    car il pourrait stigmatiser l’utilisation de ChatGPT et réduire sa popularité

    Depuis sa sortie à la fin de 2022, ChatGPT est devenu l’un des sites web les plus populaires au monde. Cependant, OpenAI a récemment développé un système capable de détecter le texte généré par ChatGPT. Ce système laisse une sorte de filigrane dans les mots générés, invisible pour les humains mais repérable par un autre système d’intelligence artificielle. Par exemple, les enseignants pourraient l’utiliser pour vérifier si leurs élèves trichent en utilisant ChatGPT pour leurs devoirs. Cependant, OpenAI hésite à mettre en place ce système, car il pourrait stigmatiser l’utilisation de ChatGPT et réduire sa popularité.

    OpenAI dispose d'une méthode permettant de détecter de manière fiable si quelqu'un utilise ChatGPT pour rédiger une dissertation ou un travail de recherche. C'est en tout cas ce qu'a rapporté le Wall Street Journal qui a précisé que l'entreprise ne l'a pas rendue publique malgré les inquiétudes généralisées concernant l'utilisation de l'intelligence artificielle par les étudiants pour tricher.

    Le projet est embourbé dans un débat interne à OpenAI depuis environ deux ans et est prêt à être publié depuis environ un an, selon des personnes familières avec le sujet et des documents internes consultés par le quotidien. « Il suffit d'appuyer sur un bouton », a déclaré l'une de ces personnes.

    En essayant de décider quoi faire, les employés d'OpenAI ont hésité entre l'engagement déclaré de la startup à la transparence et leur désir d'attirer et de retenir les utilisateurs. Une enquête menée par l'entreprise auprès des utilisateurs fidèles de ChatGPT a révélé que près d'un tiers d'entre eux seraient rebutés par la technologie anti-tricherie.

    Une porte-parole d'OpenAI a déclaré que l'entreprise craignait que l'outil n'affecte de manière disproportionnée des groupes tels que les personnes dont l'anglais n'est pas la langue maternelle. « La méthode de filigrane que nous développons est techniquement prometteuse, mais elle comporte des risques importants que nous évaluons tout en recherchant d'autres solutions », a-t-elle déclaré. « Nous pensons que l'approche délibérée que nous avons adoptée est nécessaire compte tenu des complexités en jeu et de son impact probable sur l'écosystème élargi au-delà de l'OpenAI ».

    Les employés qui soutiennent la diffusion de l'outil, y compris ceux qui ont contribué à son développement, ont déclaré en interne que ces arguments étaient bien faibles par rapport à l'utilité de cette technologie.

    L’outil d’intelligence artificielle (IA) générative ChatGPT, sorti en novembre 2022 et accessible gratuitement au grand public, est capable de créer des textes sur demande, qu’il s’agisse de rédiger des e-mails, des messages sur les réseaux sociaux ou des dissertations – au grand désarroi de certains enseignants. « C'est un problème énorme », a déclaré Alexa Gutterman, professeur d'anglais et de journalisme dans un lycée de New York. « Tous les enseignants avec lesquels je travaille en ont parlé ».

    Une enquête récente du Center for Democracy & Technology, une organisation à but non lucratif spécialisée dans la politique technologique, a révélé que 59 % des enseignants de collège et de lycée étaient certains que certains élèves avaient utilisé l'IA pour les aider dans leurs travaux scolaires, soit une augmentation de 17 points par rapport à l'année scolaire précédente.

    Sam Altman, directeur général d'OpenAI, et Mira Murati, directrice de la technologie, ont participé aux discussions sur l'outil anti-tricherie. Altman a encouragé le projet, mais n'a pas insisté pour qu'il soit lancé, ont déclaré certaines personnes au fait du dossier.

    Nom : credit.png
Affichages : 5064
Taille : 14,3 Ko

    Un outil qui serait efficace à 99,9 % sur ChatGPT

    ChatGPT est alimenté par un système d'intelligence artificielle qui prédit quel mot ou fragment de mot, appelé "token", doit suivre dans une phrase. L'outil anti-tricherie en cours de discussion à l'OpenAI modifierait légèrement la manière dont les jetons sont sélectionnés. Ces modifications laisseraient un motif appelé « filigrane ». Ces filigranes seraient imperceptibles à l'œil nu, mais pourraient être détectés grâce à la technologie de détection de l'OpenAI. Le détecteur fournit un score indiquant la probabilité que le document entier ou une partie de celui-ci ait été écrit par ChatGPT.

    Les filigranes sont efficaces à 99,9 % lorsque ChatGPT crée suffisamment de nouveau texte, selon les documents internes. Néanmoins, des employés ont exprimé leur inquiétude quant à la possibilité d'effacer les filigranes au moyen de techniques simples, par exemple en demandant à Google de traduire le texte dans une autre langue, puis de revenir en arrière, ou en demandant à ChatGPT d'ajouter des emojis au texte, puis de les effacer manuellement, a déclaré un employé d'OpenAI au courant de l'affaire.

    L'entreprise est largement d'accord sur le fait qu'il serait difficile de déterminer qui peut utiliser ce détecteur. Si trop peu de personnes y ont accès, l'outil ne sera pas utile. Si trop de personnes y ont accès, de mauvais acteurs pourraient déchiffrer la technique de filigrane de l'entreprise.

    Les employés d'OpenAI ont envisagé de fournir le détecteur directement aux éducateurs ou à des entreprises extérieures qui aident les écoles à identifier les travaux rédigés par l'IA et les travaux plagiés.

    Une portée limitée

    Dans une déclaration, un porte-parole d'OpenAI a confirmé que l'entreprise étudie la méthode de filigrane décrite dans l'article du Journal, mais a déclaré qu'elle adopte une « approche délibérée » en raison des « complexités impliquées et de son impact probable sur l'écosystème plus large au-delà d'OpenAI ».

    « La méthode de filigrane que nous développons est techniquement prometteuse, mais elle comporte des risques importants que nous évaluons pendant que nous recherchons des alternatives, notamment la possibilité d'être contournée par de mauvais acteurs et la possibilité d'avoir un impact disproportionné sur des groupes tels que les non-anglophones », a déclaré le porte-parole.

    Il s'agirait d'une approche différente de la plupart des efforts précédents visant à détecter les textes générés par l'IA, qui se sont avérés largement inefficaces. OpenAI elle-même a fermé l'an dernier son précédent détecteur de texte généré par l'IA en raison de son « faible taux de précision ».

    Avec le filigrane de texte, OpenAI se concentrerait uniquement sur la détection de l'écriture de ChatGPT, et non sur les modèles d'autres entreprises. Pour ce faire, elle apporterait de petites modifications à la manière dont ChatGPT sélectionne les mots, créant ainsi un filigrane invisible dans l'écriture qui pourrait être détecté ultérieurement par un outil distinct.

    À la suite de la publication de l'article du Journal, l'OpenAI a également mis à jour un billet de blog datant du mois de mai et portant sur ses recherches en matière de détection des contenus générés par l'IA. La mise à jour indique que le filigrane de texte s'est avéré « très précis et même efficace contre les altérations localisées, telles que la paraphrase », mais qu'il s'est révélé « moins robuste contre les altérations globales, telles que l'utilisation de systèmes de traduction, la reformulation avec un autre modèle génératif, ou le fait de demander au modèle d'insérer un caractère spécial entre chaque mot, puis de supprimer ce caractère ».

    En conséquence, OpenAI écrit que cette méthode est « triviale pour être contournée par de mauvais acteurs ». La mise à jour d'OpenAI fait également écho à la remarque du porte-parole concernant les non-anglophones, en écrivant que le filigrane de texte pourrait "stigmatiser l'utilisation de l'IA en tant qu'outil d'écriture utile pour les personnes dont l'anglais n'est pas la langue maternelle ».

    Sources : Le Monde, OpenAI

    Et vous ?

    L’anonymat en ligne : Devrions-nous privilégier la confidentialité des utilisateurs de ChatGPT, même si cela peut entraîner des abus ? Comment pouvons-nous trouver un équilibre entre la protection de la vie privée et la prévention des comportements nuisibles ?
    Responsabilité des utilisateurs : Qui devrait être tenu responsable des actions basées sur le texte généré par ChatGPT ? L’utilisateur, OpenAI ou les deux ? Comment pouvons-nous encourager une utilisation responsable ?
    Transparence et confiance : Comment OpenAI peut-il renforcer la confiance des utilisateurs envers ChatGPT sans compromettre la confidentialité ? Quelles mesures de transparence devraient être mises en place ?
    Quelles sont les implications de l’utilisation de ChatGPT sans filigrane ? Comment pouvons-nous garantir que l’IA est utilisée de manière responsable ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  12. #732
    Expert confirmé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 355
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 355
    Points : 4 083
    Points
    4 083
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    [...]malgré les inquiétudes généralisées concernant l'utilisation de l'intelligence artificielle par les étudiants pour tricher.
    C'est vraiment pour ça que l'IA fait peur?
    Parce que les élèves trichent? Les élèves ont toujours triché et dans certains cas je considère même ça comme une preuve d'intelligence.
    J'ai hâte que cette fonctionnalité sorte pour constater à quel point certains de nos supérieurs (je vais même inclure les profs là dedans) réfléchissent à travers OpenAI. A quel point les PPT qu'on nous impose de lire n'ont pas été écrits par une personne.
    Mais le problème n'est pas que des documents inutiles ne soient pas écrit par des personnes mais :
    1. Qu'on nous impose de les écrire et de les lire
    2. Que ceux qui sont censé les avoir écrits n'assument pas d'avoir optimiser leur temps de travail.
    En essayant de décider quoi faire, les employés d'OpenAI ont hésité entre l'engagement déclaré de la startup à la transparence et leur désir d'attirer et de retenir les utilisateurs. Une enquête menée par l'entreprise auprès des utilisateurs fidèles de ChatGPT a révélé que près d'un tiers d'entre eux seraient rebutés par la technologie anti-tricherie.
    le problème ce n'est pas l'IA là dedans ce sont les illusions des profs sur ce que font les élèves.
    Et je vais être honnête, faire ses devoirs avec les parents/les amis/un autre prof/l'IA a souvent plus d'intérêt que de le faire seul, le partage permet la transmission, permet d'ouvrir les perspectives.
    Mais un bon nombre de profs semblent incapables de le comprendre.
    « La méthode de filigrane que nous développons est techniquement prometteuse, mais elle comporte des risques importants que nous évaluons tout en recherchant d'autres solutions »
    Quels risques?
    Des faux-positifs/négatifs?
    Parce que les autres risques me semblent intrinsèques à l'idée de détecteur d'IA.
    « C'est un problème énorme », a déclaré Alexa Gutterman, professeur d'anglais et de journalisme dans un lycée de New York. « Tous les enseignants avec lesquels je travaille en ont parlé ».
    Mais l'utilisent en cachette
    Une enquête récente du Center for Democracy & Technology, une organisation à but non lucratif spécialisée dans la politique technologique, a révélé que 59 % des enseignants de collège et de lycée étaient certains que certains élèves avaient utilisé l'IA pour les aider dans leurs travaux scolaires, soit une augmentation de 17 points par rapport à l'année scolaire précédente.
    Est ce mal d'utiliser l'IA pour aider dans les travaux scolaires?
    Je comprends le débat si ils font faire les devoirs par l'IA mais pour de l'aide???
    Est ce plus choquant que d'utiliser Google ou une personne payée pour aider aux devoirs?
    ChatGPT est alimenté par un système d'intelligence artificielle qui prédit quel mot ou fragment de mot, appelé "token", doit suivre dans une phrase. L'outil anti-tricherie en cours de discussion à l'OpenAI modifierait légèrement la manière dont les jetons sont sélectionnés. Ces modifications laisseraient un motif appelé « filigrane ». Ces filigranes seraient imperceptibles à l'œil nu, mais pourraient être détectés grâce à la technologie de détection de l'OpenAI. Le détecteur fournit un score indiquant la probabilité que le document entier ou une partie de celui-ci ait été écrit par ChatGPT.
    Disons donc que je donne un texte à l'analyseur qui me dit que le texte à 75% de chance d'avoir été rédigé par OpenAI.
    Que dois je en conclure?
    Il y a 25% de chances que ça ne soit pas la cas.
    Que le texte a été rédigé par IA mais qu'il a été retouché?
    Que 75% du texte est rédigé par IA mais que les 25% restant ont été rédigés manuellement?

    Je ne sais rien retirer comme conclusion en dehors du fait qu'une personne a probablement utilisé l'IA pour rédiger le texte mais qu'il a eu une démarche d'analyse et d'enrichissement du texte ce qui est ce qu'on attends du rédacteur dans la plupart des cas.
    Donc tous les cas en dessous de 95% on peut difficilement critiquer le rédacteur.
    Les filigranes sont efficaces à 99,9 % lorsque ChatGPT crée suffisamment de nouveau texte, selon les documents internes. Néanmoins, des employés ont exprimé leur inquiétude quant à la possibilité d'effacer les filigranes au moyen de techniques simples, par exemple en demandant à Google de traduire le texte dans une autre langue, puis de revenir en arrière, ou en demandant à ChatGPT d'ajouter des emojis au texte, puis de les effacer manuellement, a déclaré un employé d'OpenAI au courant de l'affaire.
    Quand j'étais à l'école un de mes potes était un petit génie de la triche, son imagination étant sans limite pour tester les limites du système et les exploiter et ça révolte les profs mais c'est une manière, de mon point de vue, de montrer qu'on est capable du niveau de réflexion attendu pour un ingénieur.
    Petit exemple : l'école a décidé de nous donner des QCM pendant une année plutôt que des travaux écrits pour gagner du temps de correction et diminuer le temps de distribution des notes (on avait les notes la demie journée après l'examen). Il a essayé de cocher toutes les cases, ce qui l'a amené à majorer la première session avec la note remarquable de 20/20. Il a fallu à l'école dix sessions de correction pour s'en rendre compte et considérer les bonnes et les mauvaises réponses.

    Pour moi l'enjeu derrière ça n'est pas l'école mais les personnes validées par le système comme un élite et qui risqueraient d'être décrédibilisés en un instant.

    PS : oui on reconnait instantanément vos PPT passés par la moulinette IA, même sans détecteur.

  13. #733
    Membre émérite

    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2013
    Messages
    1 106
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2013
    Messages : 1 106
    Points : 2 658
    Points
    2 658
    Par défaut
    Pour l'accessibilité les utilisateurs de lecteurs d'écrans utilisent des voix un peu robotique comme code factory Eloquance, qui ont l'avantage de ne pas bégayer à vitesse élevée, et pour les plus masochiste hi-speak(beurk), mais c'est gratuit sous linux et windows.

    Et puis perso je n'aime pas ma voix, alors je ne vais pas l'utiliser avec mon lecteur d'écrans.

    Il y a de belles voies, mais perso elles m'endorment un peu, même si les voix robotique me tape un peu sur les nerfs en fin de journée mais elles me permettent de rester concentré.

    Par contre c'est marrant quand la voix passe en français canadien.

    Aussi le lecteur d'écrans me lit souvent l'anglais avec une voix française, parfois je comprends mieux ouarf
    C'est parcque il n'y a pas d'attribut lan="en"
    Consultez mes articles sur l'accessibilité numérique :

    Comment rendre son application SWING accessible aux non voyants
    Créer des applications web accessibles à tous

    YES WE CAN BLANCHE !!!

    Rappelez-vous que Google est le plus grand aveugle d'Internet...
    Plus c'est accessible pour nous, plus c'est accessible pour lui,
    et meilleur sera votre score de référencement !

  14. #734
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 244
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 244
    Points : 20 540
    Points
    20 540
    Par défaut Seuls 5 % des experts en cybersécurité ont confiance dans les mesures qui protègent leurs applications GenAI
    Seuls 5 % des experts en cybersécurité ont confiance dans les mesures de sécurité qui protègent leurs applications GenAI, même si 90 % d'entre eux les utilisent activement, d'après une étude de Lakera

    Bien que les entreprises adoptent massivement la GenAI, seuls 5 % des 1 000 experts en cybersécurité ayant répondu à une nouvelle enquête de Lakera ont confiance dans les mesures de sécurité protégeant leurs applications GenAI, même si 90 % d'entre eux les utilisent activement ou étudient la possibilité de les utiliser.

    Les recherches menées par Lakera montrent que les méthodes d'attaque spécifiques à la GenAI, ou attaques par invite, sont facilement utilisables par n'importe qui pour manipuler les applications, obtenir un accès non autorisé, voler des données confidentielles et entreprendre des actions non autorisées.

    Gandalf, un jeu éducatif sur l'IA créé par Lakera, invite les joueurs à essayer de tromper l'IA pour qu'elle révèle un mot de passe. Il a attiré plus d'un million de joueurs, dont des experts en cybersécurité qui ont tenté de percer ses défenses. Fait remarquable, 200 000 de ces joueurs ont réussi à franchir sept niveaux du jeu, démontrant ainsi leur capacité à manipuler les modèles de GenAI pour leur faire prendre des mesures involontaires.


    « Il suffit de quelques mots bien choisis pour que même un novice puisse manipuler les systèmes d'IA, ce qui entraîne des actions involontaires et des violations de données », déclare David Haber, cofondateur et PDG de Lakera. « Alors que les entreprises s'appuient de plus en plus sur la GenAI pour accélérer l'innovation et gérer des tâches sensibles, elles s'exposent sans le savoir à de nouvelles vulnérabilités que les mesures de cybersécurité traditionnelles ne prennent pas en compte. La combinaison d'une forte adoption et d'une faible préparation n'est peut-être pas si surprenante dans un domaine émergent, mais les enjeux n'ont jamais été aussi importants. »

    Parmi les autres résultats de l'étude, la fiabilité et la précision du LLM sont considérées comme le principal obstacle à l'adoption. 35 % des personnes interrogées craignent la fiabilité et la précision du LLM, tandis que 34 % sont préoccupées par la confidentialité et la sécurité des données. Le manque de personnel qualifié représente 28 % des préoccupations.

    Malgré ces inquiétudes, 45 % des personnes interrogées explorent les cas d'utilisation de la GenAI, 42 % utilisent et mettent en œuvre activement la GenAI et seulement 9 % n'ont pas l'intention d'adopter les LLM pour le moment. Seuls 22 % des répondants ont adopté une modélisation des menaces spécifiques à l'IA pour se préparer aux menaces spécifiques à la GenAI.

    À propos de Lakera
    Lakera est le leader mondial de la sécurité GenAI en temps réel. Les clients font confiance à la plateforme de sécurité de l'IA de Lakera pour une sécurité qui ne ralentit pas leurs applications d'IA. Pour accélérer l'adoption sécurisée de l'IA, l'entreprise a créé Gandalf, une plateforme éducative où plus d'un million d'utilisateurs se sont familiarisés avec la sécurité de l'IA. Lakera utilise l'IA pour faire évoluer en permanence les défenses, afin que les clients puissent garder une longueur d'avance sur les menaces émergentes.

    Source : "GenAI Security Readiness Report 2024" (Etude de Lakera)

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous les conclusions de cette étude de Lakera crédibles ou pertinentes ?

    Voir aussi :

    Les craintes liées à la sécurité conduisent les entreprises à interdire l'utilisation de la GenAI : 27 % des organisations ont interdit l'utilisation de l'IA générative, selon Cisco

    52 % des membres de conseils d'administration français considèrent l'IA générative comme un risque pour la sécurité de l'entreprise, pour 84 % d'entre eux, la cybersécurité est une priorité
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  15. #735
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 569
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 569
    Points : 109 995
    Points
    109 995
    Par défaut Les détecteurs de texte généré par l'IA ne sont pas aussi précis que certains le prétendent
    Les détecteurs de texte généré par l'IA ne sont pas aussi précis que certains le prétendent, selon une évaluation de la robustesse des détecteurs sur le benchmark partagé RAID

    Des chercheurs présentent RAID, un ensemble de données de référence vaste et difficile pour la détection de textes générés par l'IA. Les résultats de leurs évaluations démontrent que les détecteurs de texte généré par l'IA ne sont pas aussi précis que certains le prétendent. Malgré cela, des détecteurs ont affiché des signes prometteurs d'amélioration.

    Les textes générés par l'IA font de plus en plus parti de notre vie quotidienne. L'auto-complétion dans les courriels et le contenu généré par ChatGPT se généralisent, laissant les humains vulnérables à la tromperie et à la désinformation. Même dans les contextes où l'on s'attend à converser avec un autre être humain, comme les rencontres en ligne, l'utilisation de textes générés par l'IA est en augmentation. Une enquête de McAfee indique que 31 % des adultes prévoient d'utiliser ou utilisent déjà l'IA dans leurs profils de rencontres. Certains des modèles de langage les plus en vogue sont : ChatGPT d'OpenAI, Bard de Google et LLaMA de Meta.

    Une étude menée par les chercheurs de l'institut Human-Centered Artificial Intelligence de l'université de Stanford (Stanford HAI) a révélé que les gens parviennent à détecter avec précision les textes générés par l'IA seulement dans 50 à 52 % des cas. Cela correspond à peu près au hasard d'un tirage à pile ou face.

    Dans le même temps, une autre étude réalisée par des chercheurs de l'université du Maryland indique que les systèmes de détection existants les plus performants ne peuvent pas détecter de manière fiable les sorties des modèles d'IA de génération de texte dans des scénarios pratiques. Ils estiment que cela pourrait être dangereux pour Internet à l'avenir.

    Récemment, une étude réalisée par des chercheurs de l'université de Pennsylvanie révèle que les détecteurs de texte d'IA ne sont pas aussi fiables qu'on le pense. Les détecteurs de texte d'IA sont utilisés pour analyser si un texte est généré par l'IA ou non. Mais ces détecteurs de texte IA sont développés de telle sorte qu'ils ne recherchent que certains signes spécifiques qui peuvent facilement être écrits par des humains également.

    Nom : 1.jpg
Affichages : 3158
Taille : 36,2 Ko

    Les détecteurs de texte généré par l'IA ne sont pas aussi précis que certains le prétendent

    Parfois, les détecteurs d'IA trouvent facilement le texte généré par l'IA, mais ils n'obtiennent pas de bons résultats lorsqu'ils sont confrontés à des textes spécifiques tels que des articles d'actualité. Parfois, ces détecteurs de texte d'IA identifient également des textes entièrement rédigés par des humains comme étant des contenus générés par l'IA.

    Les chercheurs de l'étude ont proposé une nouvelle façon de généraliser un texte écrit par une IA en donnant à ces détecteurs un ensemble de données de 10 millions de documents, allant d'articles d'actualité à des blogs et des recettes, et en les comparant.

    Un tableau de classement public permettra ensuite de classer les détecteurs d'IA en fonction de leurs performances sur la base de ces ensembles de données. La société a expliqué qu'elle essayait de comparer les détecteurs d'IA afin que, "si quelqu'un propose une nouvelle idée, nous puissions valider que son texte est bien écrit par un être humain."

    Depuis la publication de GPT-2 en 2019 et de GPT-3 en 2022, il y a eu de nombreux problèmes concernant les textes produits par les générateurs de textes d'IA. De nombreux enseignants ont également fait part de leurs inquiétudes quant à l'utilisation de LLM par leurs étudiants pour rédiger leurs devoirs et travaux universitaires. De nombreux détecteurs d'IA revendiquent une précision de 99 %, ce qui est trop beau pour être vrai. Certains prétendent même que l'IA est difficile à détecter.

    Les chercheurs affirment que les détecteurs d'IA sont faciles à tromper si l'on remplace certains mots et si l'on ajoute des orthographes britanniques aux mots. Certains détecteurs fonctionnent également mieux avec les modèles de texte d'IA sur lesquels ils ont été formés, de sorte qu'ils ne peuvent parfois pas détecter avec précision les textes écrits par des modèles tels que Claude d'Anthropic.

    Certains détecteurs d'IA spécialement conçus pour détecter les nouvelles peuvent également éprouver des difficultés avec les recettes de cuisine. Dans l'ensemble, alors que les LLM s'améliorent, les détecteurs d'IA s'efforcent de détecter avec précision les textes écrits par l'IA.

    Nom : 2.jpg
Affichages : 769
Taille : 70,4 Ko
    Précision des détecteurs selon les modèles et les domaines

    RAID : Un benchmark partagé pour une évaluation robuste des détecteurs de textes générés par l'IA

    De nombreux modèles commerciaux et open-source prétendent détecter les textes générés par des machines avec une précision extrêmement élevée (99% ou plus). Cependant, très peu de ces détecteurs sont évalués sur des ensembles de données de référence partagés.

    Même lorsqu'ils le sont, les ensembles de données utilisés pour l'évaluation ne sont pas suffisamment difficiles car ils manquent de variations dans la stratégie d'échantillonnage, les attaques adverses et les modèles génératifs open-source.

    Des chercheurs présentent RAID : un ensemble de données de référence vaste et difficile pour la détection de textes générés par l'IA. RAID comprend plus de 6 millions de générations couvrant 11 modèles, 8 domaines, 11 attaques adverses et 4 stratégies de décodage.

    À l'aide de RAID, ils ont évalué la robustesse hors domaine et la résistance aux attaques adverses de 8 détecteurs à source ouverte et de 4 détecteurs à source fermée. Les résultats montrent que les détecteurs actuels sont facilement trompés par les attaques adverses, les variations dans les stratégies d'échantillonnage, les pénalités de répétition et les modèles génératifs non vus.

    Nom : 3.jpg
Affichages : 799
Taille : 107,2 Ko
    Aperçu de RAID

    Les détecteurs ne sont pas encore assez robustes mais montrent signes d'amélioration

    Les capacités de génération des modèles de langage n'ayant cessé d'augmenter, la détection précise et automatique des textes générés par l'IA est devenue une priorité importante. Les efforts de détection ont même dépassé les limites de la recherche sur le traitement du langage naturel, suscitant des discussions entre les entreprises de médias sociaux et les gouvernements sur la possibilité d'imposer des étiquettes pour les contenus générés par l'IA.

    Malgré les intentions protectrices de ces mandats, cette étude montre que de telles réglementations seraient difficiles à appliquer même si elles étaient mises en œuvre. Les détecteurs ne sont pas encore assez robustes pour être déployés à grande échelle ou pour être utilisés dans le cadre d'enjeux importants : de nombreux détecteurs testés sont presque inopérants à des taux de faux positifs faibles, ne parviennent pas à s'adapter à des stratégies de décodage alternatives ou à des pénalités de répétition, présentent des biais évidents pour certains modèles et domaines, et se dégradent rapidement avec des attaques adverses simples de type "boîte noire".

    Si ces résultats constatent que les détecteurs ne sont pas suffisamment précis, ils montrent des signes prometteurs d'amélioration. Binoculars, par exemple, a obtenu des résultats impressionnants sur l'ensemble des modèles, même avec des taux de faux positifs extrêmement faibles, Originality a atteint une grande précision dans certains scénarios contraignants, et GPTZero s'est révélé exceptionnellement robuste face aux attaques adverses.

    Nom : 4.jpg
Affichages : 778
Taille : 47,1 Ko
    Précision de la détection par rapport au taux de faux positifs

    Il est nécessaire d'améliorer les capacités des détecteurs de contenus générés par l'IA

    Il est essentiel d'évaluer ouvertement les détecteurs sur des ressources partagées importantes et diversifiées afin d'accélérer les progrès et la confiance dans la détection. L'évaluation de la robustesse est particulièrement importante pour la détection, et son importance ne fait que croître à mesure que l'échelle du déploiement public augmente.

    Il est bon aussi de rappeler que la détection n'est qu'un outil au service d'une motivation plus large et encore plus précieuse : la prévention des dommages causés par la diffusion massive de textes. La détection de textes générés par l'IA a longtemps été un moyen utile d'identifier les textes préjudiciables, mais les modèles de langage se sont améliorés au point que les textes générés sont souvent légitimes et non préjudiciables.

    Par conséquent, la détection d'éléments nuisibles spécifiques - comme la désinformation, les discours haineux et les abus - devrait primer sur la question de savoir si le texte a été rédigé par l'IA ou non. Le fait de savoir si un texte a été généré par l'IA donne toutefois des indications sur les types d'erreurs auxquels on peut s'attendre ou sur la récurrence des faits cités dans le texte.

    Les chercheurs concluent l'étude en déclarant :

    Nous espérons que nos analyses et l'ensemble de données RAID constituent une étape vers un avenir où les outils de détection de l'IA seront intégrés en toute sécurité dans la société, dans le cadre d'une approche multidimensionnelle visant à réduire les dommages. Nous publions nos données ainsi qu'un classement afin d'encourager la recherche future. Nous encourageons les travaux futurs à s'appuyer sur cette base en incluant davantage de modèles, de langages et de paramètres de génération dans les futures ressources partagées.
    Source : "RAID: A Shared Benchmark for Robust Evaluation of Machine-Generated Text Detectors"

    Et vous ?

    Pensez-vous que cette étude est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Quand les détecteurs d'IA se trompent : les rédacteurs perdent leur emploi, accusés à tort d'utiliser l'IA, ce qui soulève des questions sur la fiabilité de ces technos et leurs implications pour l'emploi

    Écriture académique à l'ère de l'IA : progrès ou problème ? Les étudiants rédigent probablement des millions d'articles à l'aide de l'IA, selon une étude menée par Turnitin

    OpenAI a mis au point un système capable d'identifier les textes rédigés par ChatGPT mais hésite à le déployer, car il pourrait stigmatiser l'utilisation de ChatGPT et lui faire perdre des utilisateurs
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  16. #736
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 932
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 932
    Points : 206 972
    Points
    206 972
    Par défaut OpenAI assure ne pas pouvoir gagner de l'argent sans utiliser gratuitement du matériel protégé
    Controverse autour du droit d'auteur : OpenAI assure ne pas pouvoir gagner de l'argent sans utiliser gratuitement du matériel protégé,
    et estime que « légalement, la loi sur le droit d'auteur n'interdit pas l'entraînement »

    OpenAI, l’une des entreprises les plus en vue dans le domaine de l’intelligence artificielle, a suscité une vive controverse en déclarant qu’il lui est impossible de former ses modèles d’IA sans utiliser des matériaux protégés par le droit d’auteur. Cette déclaration a été faite devant une sous-commission de la Chambre des Lords au Royaume-Uni, où OpenAI a plaidé pour le droit d’utiliser ces matériaux gratuitement.

    Le contexte de la controverse

    La formation des modèles d’IA, tels que ceux développés par OpenAI, nécessite une quantité massive de données. Selon OpenAI, les matériaux disponibles dans le domaine public ne suffisent pas pour créer des modèles capables de répondre aux besoins actuels des utilisateurs. L’entreprise affirme que le droit d’auteur couvre pratiquement toutes les formes d’expression humaine, rendant ainsi indispensable l’utilisation de contenus protégés pour former des IA performantes.

    Cette position a provoqué une vague de réactions négatives, notamment de la part de grandes institutions comme le New York Times et la Authors Guild. Ces entités accusent OpenAI de violer massivement les droits d’auteur et de profiter commercialement des œuvres protégées sans compensation adéquate. Les auteurs célèbres, tels que John Grisham et George R.R. Martin, ont également rejoint les rangs des plaignants, soulignant que l’utilisation non autorisée de leurs œuvres menace leur subsistance.

    Les arguments d'OpenAI

    OpenAI supplie le Parlement britannique de l'autoriser à utiliser des œuvres protégées par le droit d'auteur, car il lui serait « impossible » d'entraîner ses modèles d'intelligence artificielle - et de poursuivre la croissance de son entreprise, qui pèse plusieurs milliards de dollars - sans ces œuvres.

    La société d'intelligence artificielle a déclaré dans un document soumis à une sous-commission de la Chambre des Lords que l'utilisation exclusive de contenus du domaine public serait insuffisante pour entraîner le type de grands modèles de langage (LLM) qu'elle construit, suggérant que l'entreprise doit donc être autorisée à utiliser du matériel protégé par le droit d'auteur.

    « Étant donné que le droit d'auteur couvre aujourd'hui pratiquement toutes les formes d'expression humaine - y compris les articles de blog, les photographies, les messages de forum, les bouts de code de logiciel et les documents gouvernementaux - il serait impossible d'entraîner les meilleurs modèles d'IA actuels sans utiliser des documents protégés par le droit d'auteur », a écrit l'entreprise dans son dossier de preuves. « Limiter les données d'entraînement aux livres et dessins du domaine public créés il y a plus d'un siècle pourrait donner lieu à une expérience intéressante, mais ne permettrait pas de fournir des systèmes d'IA répondant aux besoins des citoyens d'aujourd'hui ».

    OpenAI poursuit en insistant dans le document, soumis au comité des communications et du numérique de la Chambre des Lords, sur le fait qu'elle se conforme aux lois sur le droit d'auteur et qu'elle estime que « légalement, la loi sur le droit d'auteur n'interdit pas l'entraînement ».

    Nom : rr.png
Affichages : 97202
Taille : 432,6 Ko
    Des auteurs, dont George RR Martin, ont également intenté un procès à l'OpenAI.

    Rang et dossier

    De plus en plus de parties intéressées s'opposent fermement à l'affirmation d'OpenAI selon laquelle l'utilisation d'œuvres protégées par le droit d'auteur pour entraîner l'IA est légale et sans danger.

    Le New York Times a intenté un procès à OpenAI et à Microsoft, son principal investisseur, pour avoir profité d'une prétendue « violation massive des droits d'auteur, d'une exploitation commerciale et d'une appropriation illicite » de la propriété intellectuelle du quotidien.

    Le journal en question est loin d'être le seul à s'attaquer à OpenAI. Quelques mois auparavant, l'Authors Guild a poursuivi l'entreprise au nom de certains des plus grands noms de la fiction - dont John Grisham, Jodi Picoult, Jonathan Franzen, David Baldacci et George R.R. Martin - parce qu'elle s'opposait à ce que les œuvres de ces écrivains soient utilisées pour former ChatGPT.

    Sans l'utilisation d'œuvres protégées par le droit d'auteur, OpenAI « aurait un produit commercial très différent », a déclaré Rachel Geman, l'un des avocats de la guilde dans le cadre de l'action collective, dans un communiqué de presse relatif au dépôt de la plainte. En tant que telle, la décision de l'entreprise de copier les œuvres des auteurs, sans offrir de choix ni de compensation, menace le rôle et les moyens de subsistance des écrivains dans leur ensemble.

    Du côté d'OpenAI, la société affirme qu'elle cherche à établir de nouveaux partenariats avec des éditeurs. Quoi qu'il en soit, il est difficile d'imaginer que chaque journal, site web ou maison d'édition accepte de telles conditions en bloc, et encore moins les écrivains indépendants qui dépendent de leurs droits d'auteur pour gagner leur vie.

    Nom : open.png
Affichages : 13578
Taille : 143,4 Ko

    OpenAI a toutefois admis qu'il y avait « encore du travail à faire pour soutenir les créateurs et leur donner les moyens d'agir ». L'entreprise a évoqué les moyens mis en œuvre pour permettre aux éditeurs d'empêcher le robot GPTBot d'accéder à leurs sites web. Elle a également indiqué qu'elle mettait au point des mécanismes supplémentaires permettant aux titulaires de droits de se retirer de la formation et qu'elle s'engageait avec eux à trouver des accords mutuellement bénéfiques.

    Dans certaines des actions en justice intentées contre OpenAI et Microsoft, les plaignants accusent les sociétés de refuser de payer les auteurs pour leur travail tout en construisant une industrie d'un milliard de dollars et en profitant d'un énorme gain financier à partir de matériel protégé par le droit d'auteur. Dans un cas, déposé par un couple d'auteurs de non-fiction, il est soutenu que les entreprises auraient pu explorer d'autres options de financement, telles que la participation aux bénéfices, mais qu'elles ont « décidé de voler » à la place.

    OpenAI n'a pas abordé ces poursuites particulières, mais elle a répondu directement à la plainte du New York Times qui l'accuse d'utiliser sans autorisation les articles de presse qu'il a publiés. Le quotidien ne dit pas toute l'histoire, a déclaré OpenAI. L'entreprise était déjà en train de négocier avec le Times un « partenariat de grande valeur » qui lui donnerait accès aux articles de la publication. Les deux parties sont apparemment restées en contact jusqu'au 19 décembre, et OpenAI n'a appris l'existence du procès que le mois suivant, en lisant un article sur le Times.

    Dans la plainte qu'il a déposée, le journal a cité des cas où le ChatGPT a fourni aux utilisateurs des « extraits quasi verbatim » d'articles payants. OpenAI a accusé la publication de manipuler intentionnellement les messages-guides, notamment en incluant de longs extraits d'articles dans son interaction avec le chatbot afin de l'inciter à régurgiter le contenu. Elle accuse également le Times d'avoir choisi des exemples parmi de nombreuses tentatives. OpenAI a déclaré que la plainte déposée par le Times n'était pas fondée, mais qu'elle espérait toujours un « partenariat constructif » avec la publication.

    Conclusion

    La controverse autour de l’utilisation des matériaux protégés par le droit d’auteur par OpenAI soulève des questions cruciales sur l’équilibre entre l’innovation technologique et la protection des droits des créateurs. Alors que l’IA continue de progresser, il est essentiel de trouver des solutions qui respectent à la fois les besoins des développeurs d’IA et les droits des auteurs.

    Source : OpenAI (1, 2)

    Et vous ?

    Quels compromis seriez-vous prêt à accepter pour permettre l’innovation en IA tout en protégeant les droits des auteurs ?
    Pensez-vous que les entreprises technologiques devraient payer une redevance pour utiliser des contenus protégés par le droit d’auteur ? Si oui, comment cette redevance devrait-elle être calculée ?
    Comment les créateurs de contenu peuvent-ils collaborer avec les entreprises d’IA pour garantir une utilisation éthique de leurs œuvres ?
    L’utilisation de matériaux protégés par le droit d’auteur sans autorisation pourrait-elle nuire à la diversité et à la qualité des contenus disponibles en ligne ?
    Quelles mesures législatives pourraient être mises en place pour équilibrer les besoins des développeurs d’IA et les droits des créateurs ?
    Pensez-vous que l’accès libre aux informations et aux œuvres culturelles est essentiel pour le progrès technologique, ou cela devrait-il être strictement réglementé ?
    Comment les utilisateurs finaux des technologies d’IA peuvent-ils influencer les pratiques des entreprises en matière de respect des droits d’auteur ?
    Images attachées Images attachées
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  17. #737
    Invité
    Invité(e)
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Quels compromis seriez-vous prêt à accepter pour permettre l’innovation en IA tout en protégeant les droits des auteurs ?
    Aucun, pourquoi un générateur de médiocrité (nivelage de tout le contenu) pourrait voler le travail des producteurs de valeur pour que OpenAI puisse "gagner de l'argent" en empêchant le dit producteur de valeur d'en gagner ? La réponse à votre question est dans la question en fait, il suffit de remplacer "innovation" par ce qu'est réellement un tel moteur conversationnel qui répond tout et n'importe quoi et de se rappeler le sens de "droit" et de "auteur"

    Citation Envoyé par Stéphane le calme Voir le message
    Pensez-vous que les entreprises technologiques devraient payer une redevance pour utiliser des contenus protégés par le droit d’auteur ? Si oui, comment cette redevance devrait-elle être calculée ?
    Sur la base d'une négociation avec chaque auteur. s'ils ont besoin des ces données il doivent la respecter et donc respecter ceux qui la produise.

    Citation Envoyé par Stéphane le calme Voir le message
    Comment les créateurs de contenu peuvent-ils collaborer avec les entreprises d’IA pour garantir une utilisation éthique de leurs œuvres ?
    C'est leur droit, c'est aux entreprises d'IA de faire les efforts nécessaires.

    Citation Envoyé par Stéphane le calme Voir le message
    L’utilisation de matériaux protégés par le droit d’auteur sans autorisation pourrait-elle nuire à la diversité et à la qualité des contenus disponibles en ligne ?
    C'est déjà le cas, il suffit d'interroger ChatGPT ou Mistral ou autre sur n'importe quel sujet que l'on connait bien pour constater le massacre qui est fait de l'information, vaguement reformulées, avec très souvent des hallucinations ubuesques. En enseignement c'est terrible aujourd'hui, on doit passer 4h sur un sujet qui en prenait 1 avant pour faire désapprendre aux étudiants des trucs faux qui les empêchent de comprendre la notion.

    Citation Envoyé par Stéphane le calme Voir le message
    Quelles mesures législatives pourraient être mises en place pour équilibrer les besoins des développeurs d’IA et les droits des créateurs ?
    Mais pourquoi équilibrer ? les entreprises d'IA n'ont rien à imposer. Si tel était le cas ce serait la fin de tout. Les auteurs n'auraient plus de revenus donc ne produiraient plus et il ne resterait que la soupe mal interprétées par ces "IA" sur la base de l'existant, grande victoire pour les entreprises d'IA qui deviendraient riche pendant un certain temps, une catastrophe pour l'humanité qui deviendrait comme les gros bonhommes dans Wall-e.

    Citation Envoyé par Stéphane le calme Voir le message
    Pensez-vous que l’accès libre aux informations et aux œuvres culturelles est essentiel pour le progrès technologique, ou cela devrait-il être strictement réglementé ?
    si le progrés technologique n'apporte qu'une baisse de qualité et une perte de travail dans une société où on est de plus en plus nombreux il est évident que la réglementation doit empêcher la désignation de "progrés" ce qui n'est qu'un simple moteur conversationnel qui répond coute que coute même quand il ne sait pas. La Justice doit par ailleurs vivement condamner les atteintes au droit d'auteur, sinon ça veut dire que les grosses boites sont plus fortes que l’état de droit...gros soucis.

    Citation Envoyé par Stéphane le calme Voir le message
    Comment les utilisateurs finaux des technologies d’IA peuvent-ils influencer les pratiques des entreprises en matière de respect des droits d’auteur ?
    Quand ils se rendront compte que ça ne leur apporte rien à part le "plaisir" de participer au truc fun du moment, quand ils se lasseront des images toutes identiques, quand ils se lasseront des contenus plats au goût de réchauffé, ils se mordront les doigts et se retourneront vers les gens qui produisent du contenu qui les élève ou les fait rêver.

  18. #738
    Membre émérite
    Homme Profil pro
    Chargé de projets
    Inscrit en
    Décembre 2019
    Messages
    683
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 34
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Chargé de projets
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Décembre 2019
    Messages : 683
    Points : 2 537
    Points
    2 537
    Par défaut
    "Mais Monsieur comment voulez que je vende des voitures si je les voles pas au préalable !"

  19. #739
    Expert confirmé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 355
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 355
    Points : 4 083
    Points
    4 083
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Controverse autour du droit d'auteur : OpenAI assure ne pas pouvoir gagner de l'argent sans utiliser gratuitement du matériel protégé
    Que se passe-t-il quand un entreprise a un business model qui n'est pas viable?
    Elle vire son CEO
    Elle met la clé sous la porte
    Elle est rachetée
    Elle peut aussi sortir de la loi mais à ses risques et péril
    etc

    C'est quand même incroyable que des entreprises hégémoniques se permettent ce genre de discours et qu'en plus elles fasse du quasi-esclavage en parallèle de ça.
    Vous êtes dans la une bulle financière, technique et technologique incroyable et vous ne pouvez pas respecter la loi? Il y a une chose qui cloche dans votre gestion!

  20. #740
    Membre du Club
    Profil pro
    Inscrit en
    Décembre 2009
    Messages
    14
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Décembre 2009
    Messages : 14
    Points : 69
    Points
    69
    Par défaut
    Pas de problème pour que open IA pille tout les contenus pour s'entraîner, du moment que lorsque je demanderait à chatGPT de résumer un contenu, je pourrais faire valoir que c'est pour m'entraîner à faire un résumé en ayant changé 2-3 mots dans le résultat...

Discussions similaires

  1. Réponses: 0
    Dernier message: 21/09/2023, 22h10
  2. Réponses: 5
    Dernier message: 28/08/2023, 10h32
  3. Réponses: 0
    Dernier message: 02/04/2023, 10h33
  4. Réponses: 0
    Dernier message: 27/06/2022, 11h10
  5. Réponses: 130
    Dernier message: 11/09/2018, 08h48

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo