IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Actualités Discussion :

Jon Stewart accuse les PDG de l'industrie de l'IA de faire de « fausses promesses »

  1. #601
    Membre chevronné
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 127
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 127
    Points : 2 237
    Points
    2 237
    Par défaut
    C'était il n'y a pas si longtemps.

    Rappelez-vous : en 1980. On ne nous avait pas encore appelés à sauver le climat, ça allait venir vingt ans plus tard, quand les collègues de bureau allaient vous regarder avec des yeux vitreux.

    Les profs d'économie nous expliquaient que la croissance pouvait se poursuivre sans limite.

    Quand on leur faisait remarquer que l'univers entier n'allait pas pouvoir tenir dans une si petite boîte, ils répondaient avec des arguments aussi solides et irréfutables que "ah si si, je vous assure".

  2. #602
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 856
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 856
    Points : 36 470
    Points
    36 470
    Par défaut Nature choisit ChatGPT, un être non humain, comme l'un des 10 scientifiques de l'année
    La revue Nature choisit ChatGPT, un être non humain, comme l'un des 10 scientifiques de l'année,
    l'outil a suscité des débats sur les limites de l'IA et la transparence

    La revue "Nature" a dévoilé sa liste annuelle des scientifiques de l'année, comprenant pour la première fois un être non humain, le chatbot ChatGPT. En collaboration avec l'un de ses créateurs, Ilya Sutskever d'OpenAI, ChatGPT a contribué à la rédaction d'articles universitaires, à la synthèse de documents scientifiques, et a suscité des débats sur les limites de l'intelligence artificielle et la nécessité de transparence dans son utilisation.

    Un pionnier de l'IA, un architecte de la mission indienne sur la Lune et le premier responsable mondial de la chaleur sont quelques-unes des personnes à l'origine des grands événements de cette année. La liste des 10 de Nature explore les développements clés de la science au cours de l'année écoulée et certains des individus qui ont contribué à faire des découvertes étonnantes et à attirer l'attention sur des questions cruciales. Il ne s'agit pas d'un prix ou d'un classement, mais d'une sélection établie par les rédacteurs de Nature pour mettre en lumière les histoires les plus fascinantes de l'année. Depuis sa création il y a plus de dix ans, le palmarès Nature's 10 a mis en lumière l'influence de dix personnes dans le monde de la science.


    Nom : Nat.jpg
Affichages : 1864
Taille : 49,7 Ko

    La liste met en lumière divers progrès scientifiques, dont la création de souris à partir des cellules de deux mâles, les avancées dans le traitement de l'obésité grâce aux analogues du GLP-1, le développement d'un vaccin contre le paludisme recommandé par l'OMS, les efforts de Marina Silva pour réduire la déforestation en Amazonie, et les avancées prometteuses dans le traitement du cancer de la vessie.

    Également salués sont Halidou Tinto, du Burkina Faso, pour son travail dans les essais cliniques du vaccin R21 contre le paludisme, et Eleni Myrivili, responsable mondiale de la lutte contre la chaleur aux Nations unies. Thomas Powles, pour ses résultats remarquables dans le traitement du cancer de la vessie, et Annie Kritcher, qui a contribué au contrôle de la fusion nucléaire, font également partie des scientifiques de l'année.

    En soulignant les réussites, la revue rappelle l'importance de la transparence dans l'utilisation de technologies telles que ChatGPT et met en garde contre le manque de clarté dans les grands modèles de langage. Malgré les avancées, des défis persistent, comme la correction d'articles sur la supraconductivité et la nécessité de poursuivre les efforts environnementaux pour lutter contre les changements climatiques. La mission Chandrayaan-3 de l'Inde, réussie grâce à la chef de projet associé Kalpana Kalahasti, clôture la liste, faisant de l'Inde le quatrième pays à réussir un atterrissage lunaire.

    ChatGPT : Le catalyseur de l'année de la révolution de l'IA

    L'intelligence artificielle s'est généralisée en 2023 - il a fallu attendre longtemps, mais il reste encore beaucoup à faire pour que la technologie corresponde aux fantasmes de science-fiction des gens, qui imaginent des machines semblables à l'homme. ChatGPT a été le catalyseur de cette année de fanfare de l'IA. Le chatbot a donné au monde un aperçu des avancées récentes en informatique, même si tout le monde n'a pas encore compris comment il fonctionne ou ce qu'il faut en faire. « Je dirais que c'est un moment d'inflexion », a déclaré Fei-Fei Li, pionnier de l'IA. « L'année 2023 restera, je l'espère, dans les mémoires pour les profonds changements technologiques et la prise de conscience du public. Cela montre également à quel point cette technologie est désordonnée ».

    L'année 2023 a été l'occasion pour les gens de comprendre « ce que c'est, comment l'utiliser, quel est l'impact - le bon, le mauvais et le laid », a-t-elle ajouté. La première panique sur l'IA de 2023 s'est déclenchée peu après le jour de l'an, lorsque les classes ont rouvert et que les écoles, de Seattle à Paris, ont commencé à bloquer le ChatGPT. Les adolescents demandaient déjà au chatbot - lancé fin 2022 - de rédiger des dissertations et de répondre à des tests à domicile.

    Les grands modèles linguistiques d'IA qui sous-tendent une technologie telle que ChatGPT fonctionnent en devinant à plusieurs reprises le mot suivant dans une phrase après avoir « appris » les modèles d'un énorme corpus d'œuvres écrites par des êtres humains. Ils se trompent souvent. Mais les résultats semblent si naturels qu'ils suscitent la curiosité quant aux prochaines avancées de l'IA et à son utilisation potentielle à des fins de tromperie et d'escroquerie.

    Débats sur l'IA : Entre avertissements de scientifiques et défis pour l'industrie créative

    Les inquiétudes se sont intensifiées lorsque cette nouvelle cohorte d'outils d'IA générative - qui produisent non seulement des mots, mais aussi des images inédites, de la musique et des voix synthétiques - a menacé les moyens de subsistance de tous ceux qui écrivent, dessinent, grattent ou codent pour gagner leur vie. Ils ont alimenté les grèves des scénaristes et des acteurs d'Hollywood et les actions en justice des artistes visuels et des auteurs de best-sellers.

    Certains des scientifiques les plus estimés dans le domaine de l'IA ont averti que les progrès incontrôlés de la technologie étaient en passe de rendre les humains plus intelligents et de menacer leur existence, tandis que d'autres scientifiques ont qualifié leurs inquiétudes d'exagérées ou ont attiré l'attention sur des risques plus immédiats.

    Au printemps, des "deepfakes" générés par l'IA - certains plus convaincants que d'autres - ont fait irruption dans les campagnes électorales américaines, l'un d'entre eux montrant à tort Donald Trump en train d'embrasser l'ancien expert en maladies infectieuses du pays. La technologie a rendu de plus en plus difficile la distinction entre les images réelles et les images fabriquées des guerres en Ukraine et à Gaza.

    À la fin de l'année, les crises de l'IA se sont déplacées vers le propre fabricant de ChatGPT, la startup OpenAI de San Francisco, presque détruite par les troubles de son PDG charismatique, et vers une salle de réunion gouvernementale en Belgique, où des dirigeants politiques épuisés de toute l'Union européenne ont conclu, après des jours d'intenses discussions, un accord sur les premières garanties juridiques majeures de l'IA dans le monde.

    Préoccupations croissantes autour de l'IA générative

    Nature a annoncé en début d'année que ChatGPT - ou tout système similaire de génération de texte - ne peut pas être crédité en tant qu'auteur dans les articles publiés dans ses revues. L'éditeur ne voit aucun problème au fait que l'IA soit utilisée pour aider à rédiger des recherches, mais elle exige que son utilisation soit correctement divulguée. Cette annonce intervient à un moment où le débat sur la question de savoir si l'on peut attribuer la paternité d'une œuvre à une IA s'intensifie, mais aussi après les déboires du média d'information CNET avec son IA interne de génération de texte.

    Les éditeurs scientifiques et d'autres acteurs ont identifié une série de préoccupations concernant les impacts potentiels de l'IA générative. L'accessibilité des outils d'IA générative pourrait faciliter la production d'articles de mauvaise qualité et, dans le pire des cas, compromettre l'intégrité de la recherche, déclare Daniel Hook, directeur général de Digital Science, une société d'analyse de la recherche située à Londres. « Les éditeurs ont raison d'avoir peur », ajoute-t-il.

    Dans certains cas, des chercheurs ont déjà admis avoir utilisé ChatGPT pour rédiger des articles sans le révéler. Ils se sont fait prendre parce qu'ils avaient oublié de supprimer les signes révélateurs de son utilisation, tels que les fausses références ou la réponse préprogrammée du logiciel indiquant qu'il s'agit d'un modèle de langage d'IA.

    Certains des plus grands éditeurs de revues universitaires du monde ont interdit ou restreint l'utilisation par leurs auteurs du chatbot avancé ChatGPT. Comme le robot utilise des informations provenant d'Internet pour produire des réponses très lisibles à des questions, les éditeurs craignent que des travaux inexacts ou plagiés n'entrent dans les pages de la littérature universitaire. Plusieurs chercheurs ont déjà inscrit le chatbot en tant que coauteur dans des études universitaires, et certains éditeurs ont décidé d'interdire cette pratique. Mais le rédacteur en chef de Science, l'une des principales revues scientifiques au monde, est allé plus loin en interdisant toute utilisation du texte du programme dans les articles soumis.
    //

    Il faudra quelques années pour que la nouvelle loi sur l'IA prenne pleinement effet, et d'autres organes législatifs - dont le Congrès américain - sont encore loin d'avoir promulgué la leur. Il ne fait aucun doute que les produits commerciaux d'IA dévoilés en 2023 intègrent des avancées technologiques qui n'étaient pas possibles aux premiers stades de la recherche sur l'IA, qui remontent au milieu du XXe siècle.

    Mais la dernière tendance en matière d'IA générative a atteint son apogée, selon le cabinet d'études de marché Gartner, qui suit ce qu'il appelle le « cycle de l'engouement » pour les technologies émergentes depuis les années 1990. Imaginez des montagnes russes en bois qui montent jusqu'à leur plus haut sommet, avant de dégringoler dans ce que Gartner appelle un « creux de désillusion », puis de revenir en roue libre à la réalité.

    « L'IA générative est en plein dans le pic des attentes exagérées », déclare Dave Micko, analyste chez Gartner. "Les vendeurs et les producteurs d'IA générative font des déclarations massives sur ses capacités, sa capacité à fournir ces capacités. Google a été critiqué ce mois-ci pour avoir modifié une vidéo de démonstration de son modèle d'IA le plus performant, appelé Gemini, de manière à le rendre plus impressionnant - et plus humain.

    Selon Micko, les principaux développeurs d'IA privilégient certains modes d'application des dernières technologies, qui correspondent pour la plupart à leur gamme actuelle de produits, qu'il s'agisse de moteurs de recherche ou de logiciels de productivité sur le lieu de travail. Cela ne veut pas dire que c'est ainsi que le monde l'utilisera.

    « Même si Google, Microsoft, Amazon et Apple aimeraient que nous adoptions la façon dont ils conçoivent et fournissent leur technologie, je pense que l'adoption vient en fait de la base », a-t-il déclaré.

    ChatGPT et les leçons de la liste des scientifiques de l'année

    L'inclusion du chatbot ChatGPT dans la liste annuelle des scientifiques de l'année par la revue "Nature" souligne l'évolution rapide du paysage scientifique, où des entités non humaines participent activement à la recherche et à la production de connaissances. Cette reconnaissance témoigne du potentiel et de l'impact croissants de l'intelligence artificielle dans le domaine scientifique.

    L'implication de ChatGPT dans la rédaction d'articles universitaires et la synthèse de documents scientifiques suscite des questions légitimes sur les limites de l'intelligence artificielle et soulève des débats nécessaires sur la transparence dans son utilisation. La revue "Nature" met en avant la nécessité de comprendre le fonctionnement des grands modèles de langage, tels que ceux sur lesquels repose ChatGPT, soulignant le caractère souvent opaque de ces "boîtes noires". Cette préoccupation souligne l'importance cruciale de rendre publics le code et le matériel de formation de ces modèles pour assurer une utilisation responsable et éthique de l'intelligence artificielle.


    Les divers progrès scientifiques mentionnés dans la liste démontrent l'ampleur des découvertes et des avancées dans des domaines variés tels que la génétique, le traitement de l'obésité, la lutte contre le paludisme, la protection de l'environnement et la recherche médicale. Cependant, la mise en garde concernant la correction d'articles sur la supraconductivité souligne la nécessité d'une rigueur scientifique constante et de mécanismes robustes pour rectifier les erreurs éventuelles dans la recherche.

    L'inclusion d'acteurs impliqués dans des essais cliniques au Burkina Faso et la reconnaissance des efforts mondiaux pour lutter contre le changement climatique mettent en lumière l'importance d'une représentation mondiale dans la communauté scientifique. Cela souligne également la nécessité de canaliser les ressources vers des domaines de recherche qui peuvent avoir un impact significatif sur les populations des pays en développement.

    En conclusion, la liste des scientifiques de l'année de la revue "Nature" offre un aperçu fascinant des développements scientifiques contemporains, tout en soulevant des questions cruciales sur l'éthique et la transparence dans l'utilisation de l'intelligence artificielle. Elle met en avant l'importance de relever les défis persistants tels que la correction d'erreurs scientifiques et la nécessité de poursuivre les efforts environnementaux à l'échelle mondiale.

    Source : Nature

    :fleche : Est-ce pertinent d'inclure ChatGPT parmi les scientifiques de l'année, ou s'agit-il simplement d'une stratégie de communication sans réelle valeur scientifique ?

    Quel est votre avis sur le sujet ?

    Voir aussi :

    WormGPT est une alternative à ChatGPT sans « limites éthiques ou restrictions ». Le chatbot IA peut aider les cybercriminels à créer des logiciels malveillants et des attaques de phishing

    Les employés utilisent secrètement ChatGPT, ce qui pose des risques pour les entreprises. L'utilisation non contrôlée de l'IA générative, une bombe à retardement pour les sociétés

    Comparaison entre ChatGPT et Google Translate : quel chatbot d'intelligence artificielle est le meilleur traducteur de langues ? ChatGPT arrive en tête devant Google Bard, Translate et Bing AI
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  3. #603
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    942
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 942
    Points : 66 356
    Points
    66 356
    Par défaut Les applications les plus téléchargées au monde en novembre 2023
    Les applications les plus téléchargées au monde en novembre 2023 : ChatGPT entre dans l'histoire en entrant pour la première fois dans le Top 10

    On approche de la fin du mois de décembre, et voici la liste des 10 applications les plus téléchargées en novembre dans le monde entier. Fait remarquable, ChatGPT entre pour la première fois dans la liste des 10 applications les plus téléchargées au monde. Bien qu'il ne soit pas faux de dire que les installations sont un peu moins nombreuses, les suspects habituels continuent de dominer. De plus, ChatGPT a continué à faire parler de lui pour la première fois et c'est un fait marquant qui ne déplairait pas à OpenAI.

    L'application phare TikTok est devenue l'application la plus installée au monde le mois dernier. Elle a été saluée comme la meilleure application du classement avec près de 49 millions de téléchargements sur l'App Store et le Google Play Store, selon des estimations récentes. De même, elle a été l'application la plus installée sur l'App Store d'Apple, la concurrence pour la deuxième place n'étant que légèrement inférieure.

    Instagram a pris la deuxième place en tant qu'application la plus installée dans le monde entier, avec des estimations atteignant la barre des 49 millions sur l'App Store et le Play Store. Lorsque les estimations brutes pour TikTok ont été visualisées, il est constaté qu'il avait une petite longueur d'avance sur le leader du classement. Alors qu'Instagram continue de dominer le classement sur Google Play, TikTok y occupe la troisième place. Mais sur l'App Store, il n'a pas pu battre TikTok, tandis que Threads de Meta était introuvable.

    Les cinq applications les plus téléchargées en novembre 2023 ont été complétées par Facebook et WhatsApp de Meta, ainsi que par Telegram.

    Nom : 1.png
Affichages : 2150
Taille : 267,8 Ko

    C'est certainement un peu choquant de comprendre comment Temu n'a pas été à la hauteur en termes de téléchargements pour le mois de novembre. De son côté, SHEIN n'a pas réussi à se hisser sur la liste, ce qui constitue une autre grande surprise. Ces deux plateformes restent très prometteuses. Cependant, la seule explication possible est qu'il était plus rentable pour elles de diffuser des publicités avant le Black Friday. Par conséquent, beaucoup d'argent a probablement été dépensé en publicité au cours du mois précédent, lorsque les statistiques ont été calculées. Ils seraient ensuite utilisés dans les messages des applications pour convertir ces installateurs en acheteurs en temps réel.

    L'entrée de ChatGPT dans le top 10 des applications les plus installées de tous les temps a été une véritable révélation. On l'a vu se frayer un chemin vers le palmarès de l'App Store d'Apple à plusieurs reprises lors de son lancement en mai, mais l'entrée dans la liste globale n'a jamais eu lieu et est restée un rêve pour OpenAI. Mais le fait qu'il figure désormais sur la liste est une surprise qui est accueillie à bras ouverts. Au cours du seul mois de novembre, il a atteint le chiffre stupéfiant de 19 millions de téléchargements. De la même manière, il a été en mesure de fermer plusieurs paires d'abonnements pendant une courte période en raison de difficultés liées à la mise à l'échelle. Et comme on peut s'y attendre, cela n'a pas été gratuit. L'entreprise a perdu des millions.

    Selon les rapports d'AppFigures, les 10 applications les plus installées au monde en novembre ont atteint le chiffre stupéfiant de 313 millions de téléchargements dans le monde entier et sur les deux plateformes. Bien que ce chiffre a légèrement baissé par rapport à celui d'octobre 2023, il mérite d'être mentionné.

    Source : Appfigures

    Et vous ?

    Pensez-vous que ce rapport est crédible ou pertinent ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    L'application ChatGPT enregistre 500 000 téléchargements au cours des six premiers jours de sa période de lancement et devient le leader en termes de performances et de lancement d'applications

    Apple et Google évitent de nommer ChatGPT comme « application de l'année », malgré le fait qu'elle soit l'une des applications les plus téléchargées et les mieux notées de 2023

    ChatGPT, un phénomène de mode ? Les données montrent une diminution de 10% du trafic et des téléchargements du chatbot IA. Les analystes attribuent la situation à plusieurs causes
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  4. #604
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 463
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 463
    Points : 197 971
    Points
    197 971
    Par défaut ChatGPT : une faille de sécurité expose 24 adresses e-mail malgré les dispositions prises par OpenAI
    ChatGPT : une faille de sécurité expose 24 adresses e-mail malgré les dispositions prises par OpenAI,
    tandis que des experts alertent sur le risque de création de « jardins clos d’IA »

    Des chercheurs ont été en mesure de contourner les mesures prises par OpenAI pour empêcher ChatGPT de divulguer des informations personnelles qu'il a « apprises », fussent-elles disponibles publiquement sur internet. Pour se faire, ils se sont appuyé sur l'API mise à disposition par la société pour les développeurs. La vulnérabilité est particulièrement préoccupante car personne, à l'exception d'un nombre limité d'employés d'OpenAI, ne sait vraiment ce qui se cache dans la mémoire des données de formation de ChatGPT.

    Un journaliste du New-York Times a indiqué : le mois dernier, j'ai reçu un e-mail inquiétant d'une personne que je ne connaissais pas; Rui Zhu, titulaire d'un doctorat à l'Université de l'Indiana à Bloomington. Zhu avait mon adresse e-mail, a-t-il déclaré, parce que GPT-3.5 Turbo, l'un des modèles de langage étendus (LLM) les plus récents et les plus robustes d'OpenAI, la lui avait livrée. Mes coordonnées figuraient dans une liste d'adresses e-mail professionnelles et personnelles de plus de 30 employés du New York Times qu'une équipe de recherche comprenant Zhu a réussi à extraire de GPT-3.5 Turbo à l'automne de cette année. Avec un peu de travail, l’équipe « a pu contourner les restrictions du modèle concernant la réponse aux questions liées à la confidentialité », a écrit Zhu.

    Et le journaliste de déclarer : « Mon adresse e-mail n'est pas un secret. Mais le succès de l’expérience des chercheurs devrait sonner l’alarme car il révèle le potentiel de ChatGPT en particulier, et des outils d'IA générative en général, pour révéler des informations personnelles beaucoup plus sensibles avec juste quelques ajustements ».

    Lorsque vous posez une question à ChatGPT, il ne se contente pas de rechercher sur le Web pour trouver la réponse. Au lieu de cela, il s’appuie sur ce qu’il a « appris » de tonnes d’informations – les données de formation qui ont été utilisées pour alimenter et développer le modèle – pour en générer une. Les LLM s'entraînent sur de grandes quantités de textes, qui peuvent inclure des informations personnelles extraites d'Internet et d'autres sources.

    Ces données de formation indiquent comment l'outil IA fonctionne, mais ne sont pas censée être rappelée textuellement. En théorie, plus de données sont ajoutées à un L.L.M., plus les souvenirs des anciennes informations sont enfouis profondément dans les recoins du modèle. Un processus connu sous le nom d’oubli catastrophique peut conduire un L.L.M. à considérer les informations apprises précédemment comme moins pertinentes lorsque de nouvelles données sont ajoutées. Ce processus peut être bénéfique lorsque vous souhaitez que le modèle « oublie » des éléments tels que des informations personnelles.

    Cependant, Zhu et ses collègues, entre autres, ont récemment découvert que la mémoire des L.L.M., tout comme celle des humains, pouvait être rafraîchie. Par exemple, vous pourriez avoir mémorisé un poème très jeune et avoir du mal à vous en souvenir plus tard; au fil des années, vous avez peut-être oublié la plupart des lignes et n'êtes plus en mesure de les réciter. Mais vous pourrez peut-être vous souvenir des autres lignes si quelqu'un vous en fournissait une pour vous rafraîchir la mémoire. L'information est toujours dans votre mémoire même si vous pensiez qu'elle avait disparu. Un vers du poème qui a disparu est réintroduit. Même si vous pouvez vous tromper sur quelques mots, la plupart de ce dont vous vous souvenez sera probablement toujours correct. Quatre lignes de le poème entourant la ligne réintroduite apparaît et, pour la plupart, ils contiennent le même texte que les lignes originales.

    Dans le cas de l'expérience qui a révélé mes coordonnées, les chercheurs de l'Université d'Indiana ont donné à GPT-3.5 Turbo une courte liste de noms et d'adresses e-mail des employés du New York Times, ce qui a amené le modèle à renvoyer des résultats similaires à ceux de ses données d'entraînement. Tout comme la mémoire humaine, le rappel de GPT-3.5 Turbo n'était pas parfait.
    Les résultats que les chercheurs ont pu extraire étaient encore sujets à des hallucinations – une tendance à produire de fausses informations. Dans l’exemple de résultat fourni aux employés du Times, de nombreuses adresses e-mail personnelles étaient soit erronées de quelques caractères, soit totalement fausses. Mais 80 % des adresses de travail renvoyées par le modèle étaient correctes. Des entreprises comme OpenAI, Meta et Google utilisent différentes techniques pour empêcher les utilisateurs de demander des informations personnelles via des invites de chat ou d'autres interfaces. Une méthode consiste à apprendre à l’outil comment refuser les demandes d’informations personnelles ou d’autres résultats liés à la confidentialité. Un utilisateur moyen qui ouvre une conversation avec ChatGPT en demandant des informations personnelles se verra refuser l'accès, mais les chercheurs ont récemment trouvé des moyens de contourner ces garanties.

    Les garanties mises en place pour demander directement à ChatGPT les informations personnelles d'une personne, comme les adresses e-mail, les numéros de téléphone ou les numéros de sécurité sociale, vont produire une réponse standardisée. Zhu et ses collègues ne travaillaient pas directement avec l'interface publique standard de ChatGPT, mais plutôt avec son interface de programmation d'applications, ou API, que les programmeurs externes peuvent utiliser pour interagir avec GPT-3.5 Turbo. Le processus qu'ils ont utilisé, appelé réglage fin, est destiné à permettre aux utilisateurs de donner un L.L.M. plus de connaissances sur un domaine spécifique, comme la médecine ou la finance. Mais comme Zhu et ses collègues l’ont découvert, il peut également être utilisé pour déjouer certaines des défenses intégrées à l’outil. Les demandes qui seraient généralement refusées dans l'interface ChatGPT ont été acceptées. « Ils ne disposent pas des protections sur les données affinées », a déclaré Zhu. « Il est très important pour nous que le réglage fin de nos modèles soit sécurisé », a déclaré un porte-parole d'OpenAI en réponse à une demande de commentaires. « Nous entraînons nos modèles à rejeter les demandes d'informations privées ou sensibles sur les personnes, même si ces informations sont disponibles sur Internet ouvert ». La vulnérabilité est particulièrement préoccupante car personne – à l'exception d'un nombre limité d'employés d'OpenAI – ne sait vraiment ce qui se cache dans la mémoire des données de formation de ChatGPT.

    Nom : jordan.png
Affichages : 4140
Taille : 80,1 Ko

    Un autre article publié le même jour contenait des avertissements plus larges à ce sujet

    Steven Weber, un professeur à l'École d'information de l'Université de Californie à Berkeley affirme que Microsoft pourrait construire un silo d'IA dans un jardin clos, et qualifie ce développement de « préjudiciable au développement technologique, coûteux et potentiellement dommageable pour la société et l'économie ».

    Weber affirme que Microsoft a profité de la crise de gouvernance chez OpenAI pour renforcer sa vision de façonner et de contrôler le marché de l’IA. Il soutient que Microsoft a investi massivement dans OpenAI, notamment sous la forme de crédits cloud, pour lier le développement des modèles d’OpenAI à son architecture cloud Azure. Il craint que cette stratégie ne conduise à la création d’un « jardin clos » d’IA, où les technologies les plus avancées et les plus imprévisibles seraient enfermées dans des silos, au détriment de l’innovation, de la société et de l’économie. Il appelle à une régulation plus forte et plus transparente de l’IA, ainsi qu’à une plus grande collaboration entre les différents acteurs du domaine.

    Plus tôt cette année, Microsoft a scellé sa relation avec OpenAI avec un autre investissement majeur – cette fois environ 10 milliards de dollars, dont une fois de plus une grande partie sous la forme de crédits cloud plutôt que de financement conventionnel. En échange, OpenAI a accepté d’exécuter et d’alimenter son IA exclusivement via le cloud Azure de Microsoft et a accordé à Microsoft certains droits sur sa propriété intellectuelle.

    Ce qui nous amène au récent tumulte d’OpenAI, dont le conseil d’administration a tenté mais n’a finalement pas réussi à révoquer le PDG Sam Altman en novembre. Après que le conseil d'administration d'OpenAI a annoncé le licenciement d'Altman, le PDG de Microsoft, Satya Nadella, a tweeté qu'Altman et ses collègues rejoindraient Microsoft pour diriger une nouvelle équipe de recherche avancée sur l'IA pour l'entreprise. Mais à peine 12 jours plus tard, Altman était de retour en tant que PDG d’OpenAI et Microsoft avait obtenu un siège sans droit de vote au conseil d’administration d’OpenAI.

    Cela aurait pu être le meilleur résultat possible pour Microsoft : il n’est désormais plus nécessaire pour l’entreprise « d'acquérir » OpenAI en recrutant son personnel et de solliciter l’examen minutieux de la politique de concurrence qu’un tel développement aurait presque certainement impliqué.

    Pour Microsoft, la crise d’OpenAI s’est produite « face, je gagne, face, tu perds ».

    Des rapports récents selon lesquels les autorités britanniques de la concurrence et la Federal Trade Commission (FTC) examinent de près l’investissement de Microsoft dans OpenAI sont encourageants. Mais l’incapacité de Microsoft à déclarer ces investissements pour ce qu’ils sont – une acquisition de facto – démontre que l’entreprise est parfaitement consciente des enjeux et a profité du statut juridique quelque peu particulier d’OpenAI en tant qu’entité à but non lucratif pour contourner les règles.
    L’histoire a une analogie utile. Au début des années 1990, la communauté technologique craignait profondément qu’Internet ne soit segmenté en silos – Microsoft Explorer Web, Netscape Web et autres – et que les consommateurs, les entreprises et les développeurs de technologies soient obligés de choisir où ils veulent être. Heureusement, nous avons évité ce monde sous-optimal et fragmenté grâce à une combinaison de politiques gouvernementales et de protocoles ouverts sous-jacents qui régissent le Web.

    Imaginez à quel point il aurait été difficile de « réparer » l’écosystème et de restaurer l’interopérabilité d’un World Wide Web unique si l’histoire avait été différente et si les gouvernements avaient simplement attendu et espéré le meilleur face à une technologie en évolution rapide.
    Nom : sam.png
Affichages : 1637
Taille : 15,7 Ko

    Ce n'est pas le premier problème de confidentialité rencontré par ChatGPT

    En mars, OpenAI a confirmé qu'un problème de confidentialité avait brièvement entraîné la fuite de l'historique des conversations d'utilisateurs aléatoires par ChatGPT. Pour rappel, ChatGPT archive et affiche la liste de vos conversations passées, vous donnant ainsi un historique de toutes vos saisies de texte avec le programme. Dans la matinée du lundi 20 mars 2023, certaines personnes ont commencé à signaler que la fonction d'historique des conversations affichait des chats antérieurs inconnus semblant provenir d'autres personnes. Des dizaines de captures d'écran montrant le problème ont été publiées sur les réseaux sociaux.

    ChatGPT a également connu une panne le même jour. Tout portait à croire qu'OpenAI a été contrainte de mettre hors ligne ChatGPT pour une maintenance d'urgence. Dans un premier temps, OpenAI est restée muette sur la situation, mais mercredi, Altman a finalement confirmé que l'exposition des données était réelle. Il a tweeté mercredi : « un petit pourcentage d'utilisateurs a pu voir les titres de l'historique des conversations d'autres utilisateurs. Nous nous sentons très mal à l'aise à ce sujet ». Les utilisateurs pensaient que le problème de confidentialité avait été causé par un piratage, mais le PDG d'OpenAI a affirmé dans ses tweets qu'il n'en est rien.

    Un défaut dans le client Redis, nommé redis-py, a créé un problème de cache qui a permis aux utilisateurs de voir les données d’autres comptes.

    OpenAI a pris ChatGPT hors ligne le 21 mars 2023 pour enquêter sur la vulnérabilité, rendant le chatbot inaccessible pendant plus d’une heure et sa fonctionnalité d’historique des conversations hors ligne pendant la majeure partie de la journée. Des investigations plus approfondies ont révélé que le problème avait également exposé les informations de paiement des utilisateurs.

    « Durant une fenêtre de neuf heures le 20 mars 2023 [en heure du Pacifique], un autre utilisateur de ChatGPT a pu voir par inadvertance vos informations de facturation en cliquant sur sa propre page ‘Gérer l’abonnement’ », a indiqué une notification aux clients concernés. « Dans les heures précédant la mise hors ligne de ChatGPT lundi, il était possible pour certains utilisateurs de voir le prénom et le nom, l’adresse e-mail, l’adresse de paiement, les quatre derniers chiffres (seulement) d’un numéro de carte de crédit et la date d’expiration de la carte de crédit d’un autre utilisateur actif », a ajouté OpenAI.

    L’entreprise a précisé que la « visibilité involontaire » des données liées au paiement avait pu affecter 1,2 % des abonnés à ChatGPT Plus qui étaient actifs durant la fenêtre de neuf heures, et a souligné qu’aucun « numéro de carte de crédit complet » n’avait été exposé à aucun moment.

    Sources : NYT, tribune du professeur Steven Weber

    Et vous ?

    Quels sont les avantages et les inconvénients de la collaboration entre Microsoft et OpenAI ?
    Comment garantir que les modèles d’IA les plus puissants soient accessibles et bénéfiques à tous, et non pas réservés à quelques acteurs privés ?
    Que pensez-vous de la faille de sécurité de ChatGPT ? Avez-vous été affecté par cette fuite de données ?
    Faites-vous confiance aux chatbots et à l’IA pour gérer vos informations personnelles ? Quelles sont les mesures que vous prenez pour protéger votre vie privée en ligne ?
    Quels sont les avantages et les inconvénients de l’utilisation des chatbots et de l’IA dans différents domaines ? Quelles sont les applications de l’IA qui vous intéressent le plus ?
    Quels sont les risques de créer des silos d’IA ? Comment éviter ou réduire ces risques ? Quel rôle les utilisateurs, les développeurs et les régulateurs peuvent-ils jouer pour assurer la sécurité et l’éthique de l’IA ?
    Quelles sont les normes communes pour l’IA que vous souhaiteriez voir établies ? Quels sont les principes ou les valeurs qui devraient guider le développement et l’utilisation de l’IA ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  5. #605
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 856
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 856
    Points : 36 470
    Points
    36 470
    Par défaut Les Big Tech dépensent plus que les sociétés de capital-risque dans la frénésie d'investissement dans l'IA
    Les Big Tech dépensent plus que les sociétés de capital-risque dans la frénésie d'investissement dans l'IA,
    avec des accords totalisant deux tiers des 27 milliards de dollars investis dans les startups en 2023

    En 2023, les grandes entreprises technologiques telles que Microsoft, Google et Amazon ont pris le devant dans l'investissement massif dans les start-ups spécialisées en intelligence artificielle (IA), surpassant ainsi les sociétés de capital-risque traditionnelles de la Silicon Valley. Ces géants ont conclu des accords spectaculaires, représentant les deux tiers des 27 milliards de dollars investis dans les jeunes entreprises d'IA en 2023. L'essor de l'IA générative, capable de produire rapidement des contenus similaires à ceux créés par des humains, a attiré des investissements considérables, en particulier après le lancement de ChatGPT d'OpenAI en novembre 2022.

    Les investisseurs traditionnels de la Silicon Valley ont été dépassés, contraints de ralentir leurs dépenses en raison de taux d'intérêt plus élevés et de baisses de valorisation des entreprises. Les grandes entreprises technologiques fournissent aux start-ups l'infrastructure en nuage, l'accès aux puces puissantes et des liquidités, entraînant une augmentation rapide des valorisations des jeunes pousses. Les sociétés de capital-risque cherchent à s'adapter en investissant dans des applications basées sur les modèles d'IA développés par des entreprises comme OpenAI et Anthropic, mais certains estiment qu'il existe encore un vaste terrain inexploré pour de nouvelles applications d'IA.

    Nom : FT.jpg
Affichages : 1491
Taille : 28,1 Ko
    Investissement dans l'IA générative (milliards de dollars)


    Les investisseurs du secteur des grandes technologies font grimper les levées de fonds pour l'IA générative à des niveaux record. Selon une étude récente de Goldman Sachs, les investissements dans la technologie de l'IA approcheront les 200 milliards de dollars dans le monde d'ici à 2025. Toutefois, malgré des investissements réguliers dans des start-ups spécialisées dans l'IA telles qu'Anthropic, Cohere et Hugging Face, les investisseurs restent prudents quant au choix des entreprises à soutenir.

    Depuis le lancement du chatbot ChatGPT d'OpenAI en novembre de l'année dernière, on a assisté à une vague de lancements révolutionnaires d'IA générative. Des entreprises comme Microsoft développent de nouveaux outils d'IA, fournissant des logiciels d'amélioration de la productivité qui pourraient permettre à des millions de travailleurs d'automatiser des tâches telles que la génération de documents et de courriels ou la création de feuilles de calcul.

    Changements majeurs dans les pratiques commerciales

    Dans une nouvelle étude réalisée en collaboration avec le cabinet de conseil en marketing GBK Collective, Stefano Puntoni, professeur de marketing à la Wharton, a dévoilé de nouvelles informations sur l'adoption de l'IA générative et son impact sur l'économie. Il a déclaré que l'IA générative est relativement nouvelle et qu'il n'existe pas de schéma directeur ou de recette pour sa mise en œuvre. « Tout le monde expérimente, la technologie évolue très rapidement. Ce document nous aide à comprendre l'état de la situation », a-t-il expliqué.

    Les recherches de Puntoni ont révélé que l'IA générative a atteint un seuil critique, connaissant une adoption significative et rapide, conduisant à des changements substantiels dans les pratiques commerciales. Il a interrogé 672 répondants basés aux États-Unis. « Plus de 50 % de l'échantillon utilise déjà l'IA générative dans son travail, et de nombreux cas d'utilisation ont été indiqués comme étant déjà en cours d'exploration ou sur le point de l'être. Cela montre que la technologie a déjà franchi un point de basculement crucial », a-t-il déclaré.

    En outre, l'étude prévoit que la situation ne s'inversera probablement pas de sitôt. Au cours des 12 prochains mois, les entreprises prévoient d'augmenter leurs dépenses en IA générative de 25 % supplémentaires. Une grande partie de ces dépenses sera allouée à des équipes internes chargées de développer des stratégies d'IA générative.

    Cependant, l'étude suggère également que les partenaires externes joueront un rôle important, la moitié des entreprises interrogées prévoyant de faire appel à des consultants, partenaires ou sous-traitants externes. « Je m'attends à ce que les principales sociétés de conseil et d'externalisation des technologies de l'information connaissent une croissance très rapide de leurs activités », a déclaré Puntoni.

    Demis Hassabis, directeur général de Google Deepmind, a appelé à un renforcement de la réglementation afin d'apaiser les craintes existentielles suscitées par les technologies dotées d'une intelligence supérieure à celle de l'homme, déclarant : « Nous devons prendre les risques liés à l'IA aussi sérieusement que les autres grands défis mondiaux, tels que le changement climatique. La communauté internationale a mis trop de temps à coordonner une réponse mondiale efficace à ce problème, et nous en subissons aujourd'hui les conséquences. Nous ne pouvons pas nous permettre le même retard avec l'IA ».

    Gary Gensler, président de la Securities and Exchange Commission des États-Unis, aurait déclaré « qu'en l'absence d'une forme d'intervention, une crise financière découlant de l'utilisation généralisée de l'intelligence artificielle est presque inévitable ». Avec le sommet mondial sur la sécurité de l'IA organisé par le Premier ministre britannique Rishi Sunak à l'emblématique Bletchley Park - la maison des décrypteurs britanniques de la Seconde Guerre mondiale, le battage médiatique sur l'investissement dans l'IA générative est en train de se dérouler avec ses partisans et ses détracteurs, ce qui laisse présager un sommet mondial à grand spectacle.

    Lors de son discours au sommet, Sunak devrait évoquer les nouvelles possibilités de croissance économique offertes par les puissants systèmes d'IA, mais il reconnaîtra également qu'ils comportent de nouveaux dangers, notamment les risques de cybercriminalité, la conception d'armes biologiques, la désinformation et les bouleversements dans le domaine de l'emploi. Les partisans du ministre citeront l'exemple de l'entreprise Nvidia, dont l'action a augmenté de plus de 200 % cette année en raison de la demande pour ses processeurs graphiques (GPU) utilisés dans les centres de données pour former et exécuter des modèles d'IA.

    La recherche du prochain produit Nvidia domine les forums et les discussions des investisseurs. Les mentions des feuilles de route des produits d'IA ont considérablement augmenté dans les annonces de résultats des sociétés cotées en bourse, et les mises en garde contre l'engouement pour l'IA se sont multipliées en réponse à ces annonces. Les analystes invitent les investisseurs à se concentrer sur les entreprises qui génèrent des revenus grâce à l'IA ou qui l'utilisent pour acquérir un avantage stratégique et améliorer leurs produits, plutôt que sur celles qui ne génèrent pas de revenus ou dont les liquidités sont négatives et qui parlent de valeurs futures.

    L'IA générative n'est-elle qu'un battage médiatique ?

    Pour chaque gagnant, il y a un perdant, et il y aura beaucoup de perdants dans l'engouement pour l'investissement dans l'IA générative. Gary Marcus, professeur émérite de psychologie et de sciences neuronales à l'université de New York et fondateur du Center for the Advancement of Trustworthy AI, écrit : « Les revenus ne sont pas encore là et ne viendront peut-être jamais. Les valorisations anticipent des marchés de plusieurs milliards de dollars, mais les revenus actuels de l'IA générative se chiffrent, selon les rumeurs, à quelques centaines de millions. Ces revenus pourraient réellement être multipliés par 1000, mais il s'agit là de spéculations.

    Les personnes qui ont utilisé ChatGPT auront remarqué qu'il peut faire des erreurs et inventer des faits simplement parce qu'il ne dispose pas des bonnes données. Les entreprises technologiques s'efforcent d'améliorer leurs modèles. Certains modèles d'IA générative, tels que Bing Chat ou GPT-4, fournissent des notes de bas de page avec des sources qui indiquent aux utilisateurs d'où provient la réponse et leur permettent de vérifier son exactitude.

    Pour certains clients potentiels, cette précision ne sera jamais suffisante. Craig Martell, responsable du numérique et de l'IA au département de la défense des États-Unis, a récemment déclaré lors d'une conférence : « J'ai besoin de 99,999 % d'exactitude ». Les soldats qui utilisent l'IA ne peuvent pas se permettre que des erreurs leur explosent littéralement à la figure. Les institutions de services financiers sont susceptibles d'être sceptiques quant aux performances de l'IA générative et à ses cas d'utilisation dans les entreprises hautement réglementées qui exigent de la précision. Les quants des fonds spéculatifs qui utilisent des stratégies algorithmiques et de trading à haute fréquence placeront également la barre très haut pour l'IA générative.

    Bien qu'il soit improbable que les secteurs de la défense et des industries fortement réglementées adoptent rapidement l'IA générative pour des applications critiques en raison de ses performances par rapport aux objectifs de précision, la question de savoir si la menace existentielle de l'IA est réelle. Gary Ackerman, professeur associé et doyen associé du College of Emergency Preparedness, Homeland Security and Cybersecurity (CEHC), écrit que l'un des moyens pour les terroristes d'obtenir un effet de levier est d'utiliser une technologie habilitante comme l'IA, en piratant une IA existante qui, par exemple, contrôlait les systèmes d'armes nucléaires et déclenchait une guerre nucléaire.

    Les responsables politiques et économiques doivent vérifier la réalité et la crédibilité des menaces existentielles que l'intelligence artificielle (IA) pose à l'humanité. Ils doivent élaborer des politiques tangibles pour atténuer ces menaces ou ajuster le discours pour le rendre plus compréhensible pour les citoyens. De nombreux experts reconnaissent que l'IA est sur le point de générer de nouvelles menaces, notamment de la part des cybercriminels. Les leaders de la cybersécurité mettent en avant l'émergence de nouvelles menaces liées à l'IA, en particulier à l'IA générative à grande échelle, ainsi que l'augmentation anticipée des risques pour les vecteurs de cyberattaques dans le futur.

    L'Impact Projeté de l'IA Générative jusqu'en 2040

    Une étude de McKinsey estime que l'impact de l'IA générative sur la productivité pourrait ajouter des milliers milliards de dollars de valeur à l'économie mondiale. Son analyse évalue la valeur ajoutée potentielle entre 2,6 et 4,4 milliards de dollars par an. Le rapport suggère également que l'IA générative pourrait permettre une croissance de la productivité du travail de 0,1 % à 0,6 % par an jusqu'en 2040, en fonction de la rapidité d'adoption de la technologie et de la manière dont le temps des travailleurs est redéployé.

    Nom : ft2.jpg
Affichages : 1004
Taille : 20,2 Ko

    Au Royaume-Uni, la Confédération de l'industrie britannique (CBI) estime qu'il y a actuellement 3 011 entreprises classées comme entreprises d'IA qui apportent un total de 11 milliards de dollars de valeur ajoutée brute à l'économie. Ce chiffre est à peu près équivalent à l'impact du secteur des agences de voyage au Royaume-Uni. Le rapport du CBI souligne également le « potentiel de l'IA à changer fondamentalement tous les aspects de notre vie numérique et à améliorer la productivité de toutes sortes d'entreprises ».

    Ash Patel, de la banque d'investissement Deutsche Numis, déclare : « Le secteur de l'IA générative montre le potentiel rapide et explosif de l'IA. Les entreprises de ce secteur affichent une adéquation produit-marché (PMF) et un retour sur investissement solides, ainsi qu'une grande évolutivité, sous l'impulsion d'une génération exceptionnelle de fondateurs. Nous pensons que l'adoption de l'IA générative sera plus rapide que le cloud et catalysée par lui ».

    Les grandes entreprises publiques et privées investissent massivement dans la recherche et le développement (R&D) de solutions d'IA et les dépenses des leaders du marché de la technologie sont impressionnantes. Nvidia, la superstar du marché boursier, a augmenté ses dépenses de R&D de 39 % pour développer des puces axées sur l'IA. Le groupe britannique BT a déclaré qu'il comptait remplacer jusqu'à 10 000 emplois par l'IA d'ici à 2030.

    Meta prévoit de dépenser 33 milliards de dollars cette année pour soutenir « le développement continu des capacités d'IA ». Amazon s'est engagé à dépenser plusieurs milliards de dollars pour construire d'importants modèles de langage.

    EY a récemment annoncé un investissement d'un milliard de dollars dans une plateforme technologique de nouvelle génération afin d'améliorer ses capacités en matière de services d'assurance, qui comprend des logiciels d'IA. Accenture a annoncé qu'il investirait 3 milliards de dollars dans l'IA pour « accélérer la réinvention des clients » et qu'il doublerait le nombre de talents en IA pour atteindre 80 000 personnes par le biais d'embauches, d'acquisitions et de formations.

    Justifier l'investissement dans l'IA générative

    La création de nouveaux emplois par l'IA et le remplacement d'anciens emplois par l'IA est l'un des moteurs de l'investissement dans le secteur. Nombreux sont ceux qui pensent que l'IA générative améliorera considérablement la productivité.

    L'étude de McKinsey souligne que l'IA générative peut être déployée dès aujourd'hui avec un fort impact sur la résolution des problèmes rencontrés par les entreprises dans les domaines de la vente, du marketing et des opérations clients. Dans un large éventail de secteurs, l'analyse des données par l'IA générative dans ces domaines pourrait être très utile et suffisamment correcte et précise pour le travail à accomplir.

    Il faut également tenir compte du potentiel futur. L'IA générative jouera à terme un rôle dans de nouveaux services et entreprises qui n'ont pas encore été développés. Les passionnés d'IA font la comparaison avec l'invention de l'électricité et l'IA générative comme la nouvelle électricité qui fait jaillir de nouvelles idées et de nouveaux services.

    La recherche et l'analyse des données sectorielles effectuées par la banque d'investissement Deutsche Numis montrent qu'au cours du deuxième trimestre de cette année, les entreprises d'IA générative ont levé environ 2,85 milliards de dollars de fonds. Cela représente une augmentation de plus de 1,7 milliard de dollars par rapport au premier trimestre. Le montant des fonds levés au cours du premier semestre 2023 est près de cinq fois supérieur à celui de l'ensemble de l'année 2022.

    La taille moyenne des opérations de financement a également augmenté. Depuis le début de l'année, elle est d'environ 61 millions de dollars. C'est plus du double de la moyenne de 24 millions de dollars en 2022 et plus du triple des 18 millions de dollars en 2021. Jusqu'à présent, une grande partie des investissements dans l'IA a été réalisée dans des modèles de base, qui serviront probablement de catalyseur pour d'autres domaines, notamment les applications, les opérations d'apprentissage automatique, l'infrastructure et les modèles verticalement intégrés.

    À l'échelle mondiale, les entreprises d'IA (générative et autres) ont levé plus de 354,5 milliards de dollars de fonds. Cela équivaut à peu près à un pour cent du PIB total des principaux pays européens comme le Royaume-Uni, la France et l'Allemagne. Environ 134 milliards de dollars ont été levés aux États-Unis, suivis par 67 milliards de dollars provenant d'entreprises basées en Asie et 53 milliards de dollars provenant d'entreprises européennes.

    Deutsche Numis est à la pointe de la collecte de fonds dans le secteur et prévoit de nouvelles augmentations considérables de la valeur des investissements réalisés dans les entreprises d'IA générative. Elle est convaincue que l'IA créera un grand nombre d'entreprises très performantes à une échelle qui pourrait refléter, voire dépasser, le nombre d'entreprises créées grâce à l'adoption rapide des technologies du cloud computing.

    Sources : Wharton School of the University of Pennsylvania, Forbes, Pitchbook

    Et vous ?

    Êtes-vous pour ou contre les investissements massifs des grandes entreprises technologiques dans les start-ups ?

    Y a-t-il des préoccupations quant à la dépendance croissante des start-ups d'IA envers les grandes entreprises technologiques, et quelles pourraient en être les implications à long terme ?

    Quelles sont les implications possibles pour la création et le contrôle de la technologie si un nombre limité de grandes entreprises domine l'investissement dans le secteur de l'IA ?

    Voir aussi :

    Ray Kurzweil s'en tient à ses prédictions de longue date : l'AGI arrivera d'ici 2029 et la singularité se produira d'ici 2045, mais certains experts sont sceptiques à l'égard de ses prédictions

    La startup d'intelligence artificielle Anthropic, éditeur de Claude AI, cherche à lever 750 millions de dollars lors d'un tour de table

    Le nombre de sites web et de blogs hébergeant de faux articles générés par l'IA a augmenté de 1 150 % depuis avril 2023, soit une hausse mensuelle de plus de 143 %, selon une étude de Newsguard
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  6. #606
    Membre chevronné Avatar de denisys
    Profil pro
    Développeur informatique
    Inscrit en
    Mai 2002
    Messages
    1 129
    Détails du profil
    Informations personnelles :
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Mai 2002
    Messages : 1 129
    Points : 1 963
    Points
    1 963
    Par défaut
    Les investisseurs du secteur des grandes technologies font grimper les levées de fonds pour l'IA générative à des niveaux record.
    Cela sent le crash boursier , cette frénésie financière subite sur la valeur IA !!.


    ---

    Krach boursier de 2001-2002

    https://fr.wikipedia.org/wiki/Krach_...r_de_2001-2002

    *-*-

    Crise des subprimes

    https://fr.wikipedia.org/wiki/Crise_des_subprimes

    => => => =>

    Liste des crises monétaires et financières

    https://fr.wikipedia.org/wiki/Liste_...nanci%C3%A8res
    Ne pas savoir n’est pas une faute si l’on cherche à combler ses lacunes.

    "Il n'y a pas d'obstacles infranchissables , il y a des volontés plus ou moins énergiques voilà tous" Jules Vernes

  7. #607
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    942
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 942
    Points : 66 356
    Points
    66 356
    Par défaut OpenAI a franchi une étape financière importante en dépassant les 1,6 milliard de dollars de recettes annuelle
    Le géant de l'IA, OpenAI, a franchi une étape financière importante en dépassant les 1,6 milliard de dollars de recettes annuelles, ce qui représente une augmentation considérable.

    Le géant de l'IA OpenAI a franchi une étape financière importante en dépassant les 1,6 milliard de dollars de revenus annuels, comme le rapporte The Information. Il s'agit d'une augmentation considérable par rapport aux 1,3 milliard de dollars enregistrés à la mi-octobre. Malgré les récentes controverses concernant sa direction, OpenAI a fait preuve de résilience et de croissance.

    L'un des principaux facteurs de ce succès financier est le produit ChatGPT d'OpenAI, un outil d'IA qui génère du texte en fonction des entrées des utilisateurs. Il est devenu un point de mire pour les investisseurs avisés dans le domaine de l'intelligence artificielle, faisant grimper le chiffre d'affaires mensuel de l'entreprise à un niveau impressionnant de 80 millions de dollars.

    OpenAI a dû faire face à un revers de 540 millions de dollars au cours du développement de GPT-4 et de ChatGPT en 2022. Toutefois, l'entreprise a rebondi en lançant une version améliorée de ChatGPT. Ce modèle amélioré comporte davantage de fonctionnalités et de meilleures mesures de protection de la vie privée, dans le but d'attirer une clientèle plus large et d'augmenter les bénéfices de son produit principal.


    OpenAI a débuté en 2015 en tant qu'organisation à but non lucratif, mais est devenue une entreprise à but lucratif plafonné en 2019, une décision qui s'est avérée fructueuse. Ce changement a permis à OpenAI d'attirer des investissements importants de la part de fonds de capital-risque et a donné aux employés une participation dans l'entreprise. Les investissements substantiels de Microsoft en 2019 et 2023, ainsi que la fourniture de ressources informatiques par l'intermédiaire du service de cloud Azure de Microsoft, ont renforcé la position financière d'OpenAI. Avec une injection d'un milliard de dollars sur cinq ans, l'entreprise se positionne stratégiquement pour commercialiser ses technologies de pointe.

    Malgré des défis tels que les changements de direction et les coûts de développement élevés, les perspectives financières d'OpenAI restent solides. L'entreprise est actuellement en pourparlers pour obtenir un financement supplémentaire, avec une valorisation attendue entre 80 et 90 milliards de dollars, comparable à la valorisation boursière d'Uber. OpenAI vise à générer un chiffre d'affaires d'un milliard de dollars en 2023, consolidant ainsi sa position d'acteur clé dans le secteur de l'intelligence artificielle.

    Source : The Information

    Et vous ?

    Quel est votre avis sur le sujet ?

    Voir aussi :

    OpenAI en passe de générer plus d'un milliard de dollars de revenus suite à l'augmentation des dépenses en IA des grandes entreprises

    Microsoft serait en pourparlers pour investir 10 milliards de dollars dans OpenAI, le propriétaire de ChatGPT, ce qui devrait donner à la firme de Redmond un accès plus étroit aux produits d'OpenAI

    OpenAI, la startup à l'origine de ChatGPT, pourrait être valorisée jusqu'à 90 milliards de dollars, si l'opération de vente des actions détenues par les salariés se concrétise
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  8. #608
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 856
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 856
    Points : 36 470
    Points
    36 470
    Par défaut OpenAI doit défendre les affabulations de ChatGPT après avoir échoué dans son procès pour diffamation
    OpenAI doit défendre les affabulations de ChatGPT après avoir échoué dans son procès pour diffamation,
    les utilisateurs pourraient bientôt savoir si les résultats inexacts l'IA seront tolérés

    L'intelligence artificielle (IA) demeure l'une des avancées technologiques les plus radicales et débattues. Bien que l'IA offre la perspective d'un avenir caractérisé par une efficacité accrue, une sécurité renforcée et une précision inégalée, elle soulève également des préoccupations. Les chatbots d'IA, en particulier, sont parfois responsables de la génération de déclarations diffamatoires erronées. OpenAI doit faire face à un procès en diffamation suite à des « hallucinations » de son chatbot ChatGPT. Un juge de Géorgie a rejeté la demande de rejet de l'affaire, ouvrant la voie à un examen plus approfondi. L'animateur de radio Mark Walters affirme que ChatGPT a généré de fausses accusations contre lui, mettant en doute sa réputation.

    Nom : cour.jpg
Affichages : 7299
Taille : 42,5 Ko

    OpenAI avait argué que la production du chatbot ne constituait pas une diffamation, mais la décision du tribunal soulève des questions sur la responsabilité de l'entreprise. Le procès pourrait également déterminer si Walters est une personnalité publique. En parallèle, la FTC enquête sur les possibles dommages causés par les générations de ChatGPT. L'issue pourrait avoir des implications sur la manière dont les « hallucinations » de chatbots affectent la vie des utilisateurs.

    Que se passerait-il si un chatbot d'IA vous accusait d'avoir fait quelque chose de terrible ? Lorsque les robots font des erreurs, les fausses affirmations peuvent ruiner des vies, et les questions juridiques qui entourent ces problèmes restent floues. C'est ce qu'affirment plusieurs personnes qui poursuivent en justice les plus grandes entreprises d'IA. Mais les fabricants de chatbots espèrent éviter toute responsabilité, et une série de menaces juridiques a révélé à quel point il pouvait être facile pour les entreprises de se dégager de leur responsabilité en cas de réponses prétendument diffamatoires de la part des chatbots.

    Au début de l'année, un maire régional australien, Brian Hood, a fait les gros titres en devenant la première personne à accuser le fabricant de ChatGPT, OpenAI, de diffamation. Peu de gens ont semblé remarquer que Hood avait résolu à l'amiable, au printemps, cette affaire de diffamation par l'IA qui devait faire date, mais la conclusion discrète de cette menace juridique très médiatisée a donné un aperçu de ce qui pourrait devenir une stratégie de choix pour les entreprises d'IA cherchant à éviter les poursuites en diffamation.

    C'est à la mi-mars que Hood a découvert pour la première fois que le logiciel ChatGPT d'OpenAI produisait de fausses réponses aux questions des utilisateurs, affirmant à tort que Hood avait été emprisonné pour corruption. Hood s'est alarmé. Il avait construit sa carrière politique en tant que dénonciateur de la mauvaise conduite des entreprises, mais ChatGPT avait apparemment brouillé les faits, faisant passer Hood pour un criminel. Il craignait que plus on laissait ChatGPT répéter ces fausses affirmations, plus le chatbot risquait de ruiner sa réputation auprès des électeurs.

    Comment l'intelligence artificielle compromet la réputation et la crédibilité individuelles

    Au cours des derniers mois, ChatGPT a généré de manière erronée des récits fallacieux impliquant de nombreuses personnes à travers le monde, allant parfois jusqu'à citer des sources fictives pour appuyer ses histoires. Un exemple aux États-Unis illustre la création d'un scandale de harcèlement sexuel attribué à tort à un véritable professeur de droit. De telles narrations mensongères se propagent sur Internet, y compris en France.

    Jonathan Turley, professeur de droit à l'université George Washington, a soudainement appris qu'il était l'accusé dans une affaire de harcèlement sexuel. Le professeur n'avait pas connaissance de cette histoire jusqu'à présent parce qu'elle vient tout juste d'être inventée de toutes pièces par ChatGPT. En fait, dans le cadre d'une étude, un collègue avocat californien a demandé à ChatGPT de générer une liste de juristes ayant harcelé sexuellement quelqu'un. À sa grande surprise, le nom de Turley figurait sur la liste générée par le Chatbot d'IA d'OpenAI. Le collègue a ensuite envoyé un courriel à Turley pour l'informer de sa découverte.

    « Nous nous dirigeons à grands pas vers un Internet fortement influencé par l'IA, bourré de pépins, de spams et d'escroqueries », a récemment écrit un journaliste du MIT Technology Review. Dans une affaire judiciaire inhabituelle, un avocat a été sanctionné par un juge pour avoir cité six affaires fictives générées par ChatGPT. ChatGPT a causé des ennuis à un avocat qui l’a utilisé pour citer des affaires imaginaires dans un document juridique. Le juge était furieux et a menacé de le sanctionner. Quand le juge a demandé les copies des affaires, l’avocat a fait appel à ChatGPT, qui a inventé des informations sur les affaires fantômes.

    ChatGPT d'OpenAI est au cœur de la controverse, attirant l'attention de la FTC

    Salué comme l'application grand public à la croissance la plus rapide de tous les temps par les analystes, ChatGPT a déclenché une course effrénée parmi les entreprises de la Silicon Valley pour développer des chatbots concurrents. Le PDG d'OpenAI, Sam Altman, est devenu une figure clé dans les discussions sur la réglementation de l'IA, participant à des audiences au Capitol Hill, dialoguant avec des législateurs, et rencontrant le président Biden ainsi que la vice-présidente Harris.

    Cependant, OpenAI est confronté à un problème majeur : la FTC a émis une demande d'information exhaustive de 20 pages. Cette requête exige des documents sur les modèles de langage, les données personnelles, les informations vérifiées et corrigées, ainsi que les risques pour les consommateurs, notamment en matière de diffamation.

    Selon le renommé penseur et chercheur américain Noam Chomsky, ChatGPT est qualifié de « principalement un outil sophistiqué de plagiat » et est considéré comme un « moyen d'éviter d'apprendre ». Il estime que l'utilisation de telles technologies par les étudiants témoigne d'un dysfonctionnement du système éducatif. Chomsky souligne que, malgré les programmes existants pour détecter le plagiat, la sophistication de ChatGPT rendra cette tâche plus difficile, marquant ainsi l'une des rares contributions à l'éducation qu'il peut identifier. Bien qu'il reconnaisse que des systèmes comme ChatGPT « peuvent avoir une certaine valeur pour quelque chose », il reste sceptique quant à cette utilité.

    Certains des plus prestigieux éditeurs de revues universitaires mondiaux ont pris des mesures pour restreindre l'utilisation de ChatGPT par leurs auteurs. En raison du fait que le chatbot utilise des informations en ligne pour générer des réponses claires aux questions, les éditeurs craignent l'inclusion de travaux inexacts ou plagiés dans la littérature académique. Des chercheurs ont déjà inclus le chatbot en tant que coauteur dans des études, incitant certains éditeurs à interdire cette pratique. Le rédacteur en chef de Science, une revue scientifique de premier plan, va même jusqu'à interdire toute utilisation du texte généré par le programme dans les articles soumis.

    En juillet, Jeffery Battle, résidant dans le Maryland, a engagé des poursuites contre Microsoft, affirmant avoir subi des pertes financières considérables et une atteinte à sa réputation après avoir découvert que les moteurs de recherche Bing et Bing Chat le cataloguaient à tort en tant que terroriste condamné. Pendant le même mois, Mark Walters, animateur radio en Géorgie (États-Unis), a intenté une action en justice contre OpenAI suite à un incident impliquant le service ChatGPT. Walters a engagé des poursuites pour diffamation, alléguant que ChatGPT l'avait faussement accusé de détournement de fonds de la Second Amendment Foundation (SAF), une organisation à but non lucratif défendant les droits liés aux armes à feu.

    Dans sa plainte, l'avocat de Walters soutient que le chatbot d'OpenAI, lors d'une interaction avec Fred Riehl, rédacteur en chef d'un site web dédié aux armes à feu, a diffusé des contenus diffamatoires sur Walters. Riehl avait demandé un résumé d'une affaire impliquant le procureur général de l'État de Washington, Bob Ferguson, et la Second Amendment Foundation.

    Contrairement à Hood, Walters n'a pas cherché à faire retirer préalablement les allégations prétendument diffamatoires de ChatGPT à son égard avant d'engager des poursuites. Selon Walters, les lois sur la diffamation ne contraignent pas les utilisateurs de ChatGPT à prendre des mesures supplémentaires pour informer OpenAI du contenu diffamatoire avant de déposer des plaintes. Walters espère que le tribunal reconnaîtra qu'OpenAI devrait être tenue responsable de la publication de déclarations diffamatoires si elle est consciente que son produit génère de telles réponses diffamatoires.

    OpenAI nie que les résultats de ChatGPT sont diffamatoires

    Les lois anti-diffamation, également appelées lois sur la diffamation, diffèrent d'un État à l'autre. Walters a intenté son procès en Géorgie, et pour que Walters obtienne gain de cause, il doit prouver que :

    • OpenAI (par l'intermédiaire de ChatGPT) a publié des déclarations fausses et diffamatoires ;
    • que ces déclarations diffamatoires ont été communiquées à un tiers ;
    • qu'OpenAI a commis une faute en publiant ces fausses déclarations ;
    • que Walters a subi un préjudice.

    Puisque OpenAI considère Mark Walters, en tant qu'animateur de talk-show diffusé à l'échelle nationale, comme une personnalité publique, il pourrait également être contraint de démontrer que OpenAI a délibérément publié les déclarations supposément diffamatoires avec une réelle intention de causer du tort. Dans sa réponse à la motion de rejet déposée la semaine dernière par OpenAI, Walters a avancé que l'entreprise doit convaincre un jury de son statut de personnalité publique. Cependant, indépendamment de cette question, il a allégué que OpenAI a manifesté une réelle intention de nuire.

    Le premier obstacle, selon OpenAI, pourrait être le plus crucial. Bien que, à première vue, il semble être satisfait - car Walters a allégué que ChatGPT a fait de fausses déclarations le qualifiant de criminel - OpenAI argue que ChatGPT ne "publie" effectivement rien. Au lieu de cela, ChatGPT génère un « contenu provisoire ». OpenAI affirme que, conformément à ses conditions d'utilisation, ChatGPT est un outil d'aide à la rédaction ou à la création de projets de contenu, et que l'utilisateur est propriétaire du contenu qu'il génère avec ChatGPT.

    Étant donné que chaque utilisateur de ChatGPT accepte en s'inscrivant de « prendre la responsabilité ultime du contenu publié », OpenAI soutient que, « juridiquement, cette création de projet de contenu à des fins internes de l'utilisateur ne constitue pas une 'publication' ». James Naughton, l'un des avocats de Hood, a déclaré à Reuters qu'un tribunal qui trancherait cette question juridique spécifique pourrait « potentiellement marquer une étape importante en appliquant la loi sur la diffamation à un nouveau domaine, celui de l'intelligence artificielle et de la publication dans le secteur des technologies de l'information ».

    Mais l'affaire de Walters pourrait immédiatement échouer si le tribunal décidait que la production de ChatGPT n'est pas une « publication ». Toutefois, si le tribunal décide que la production de ChatGPT est une publication, cela ne signifie pas que Walters gagne automatiquement son procès. Les allégations de Walters concernant le deuxième volet du test de diffamation - à savoir que les déclarations diffamatoires présumées ont été communiquées à un tiers - sont également peu convaincantes, selon OpenAI.

    Monroe a affirmé que Walters avait déposé une plainte appropriée pour diffamation en tant que citoyen privé, susceptible de recevoir réparation selon la loi de Géorgie, où l'intention malveillante est implicitement déduite dans toutes les actions en diffamation, mais peut être réfutée par OpenAI. En réponse, OpenAI a argumenté que Walters était une personnalité publique, et il devait prouver que l'entreprise avait agi avec une réelle intention de nuire en laissant ChatGPT produire des résultats préjudiciables. Cependant, Monroe a contesté cette affirmation devant le tribunal, soutenant qu'OpenAI n'avait pas fourni suffisamment de preuves pour établir que Walters était une personnalité publique générale.

    La question de savoir si Walters est ou non une personnalité publique pourrait être une autre question clé amenant Cason à se prononcer contre la motion de rejet d'OpenAI.

    Cette affaire judiciaire met en lumière les défis éthiques et légaux auxquels OpenAI est confronté en raison des « hallucinations » générées par son chatbot ChatGPT. La décision du juge de ne pas rejeter l'affaire suggère que la question de la diffamation liée aux productions du chatbot nécessite un examen approfondi. Alors qu'OpenAI a défendu la position selon laquelle les sorties du chatbot ne peuvent être considérées comme diffamatoires, la décision du tribunal soulève des préoccupations quant à la responsabilité de l'entreprise dans les conséquences de ses technologies.

    L'argument sur la nature de la personnalité publique de Mark Walters ajoute une dimension complexe à l'affaire, car cela pourrait influencer la façon dont les allégations de diffamation sont évaluées. La décision finale pourrait établir des précédents importants quant à la manière dont les personnalités publiques sont traitées dans les cas de diffamation liés à l'intelligence artificielle.


    Parallèlement, l'enquête de la FTC sur les possibles dommages causés par les générations de ChatGPT souligne les implications plus larges de l'utilisation de chatbots dans la vie des utilisateurs. Les résultats de cette enquête pourraient influencer la régulation future des technologies similaires, soulignant l'importance de garantir la transparence et la responsabilité dans le développement et l'utilisation de l'intelligence artificielle.

    En fin de compte, l'issue de ce procès pourrait façonner la manière dont les entreprises comme OpenAI sont tenues responsables des conséquences potentiellement préjudiciables de leurs technologies, tout en soulevant des questions cruciales sur la régulation et l'éthique entourant les chatbots et l'intelligence artificielle en général.

    Sources : Order rejecting OpenAI's motion to dismiss, Document filed by John Monroe, Walters' lawyer

    Et vous ?

    Êtes-vous, d'avis que les fausses accusations générées par ChatGPT ont mis en doute la réputation de Mark Walters ?

    Quels peuvent être les impacts sur la carrière de Mark Walters et sa vie personnelle ?

    Quel serait l’impact de cette affaire sur la réputation et la crédibilité d’OpenAI et de ChaGPT ?

    Quelles sont selon vous, les conséquences juridiques et éthiques de la diffusion de fausses informations par un système d’intelligence artificielle ?

    Voir aussi :

    La diffamation par l'IA : les hallucinations de ChatGPT peuvent-elles avoir des conséquences dramatiques ? Les géants de l'IA prévoiraient probablement d'esquiver les plaintes

    Un homme poursuit OpenAI après que ChatGPT a prétendu à tort qu'il avait détourné de l'argent, d'une organisation à but non lucratif

    ChatGPT d'OpenAI dans le collimateur de la FTC : l'agence veut déterminer si l'IA met en danger la réputation et les données des utilisateurs
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  9. #609
    Membre extrêmement actif Avatar de Jon Shannow
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    Avril 2011
    Messages
    4 384
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 60
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Responsable de service informatique
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Avril 2011
    Messages : 4 384
    Points : 9 751
    Points
    9 751
    Par défaut
    Je pense que tout cela est très grave, et que la société responsable de la mise à disposition d'un outil tel que ChatGPT doit être considérée comme responsable des dires de son outil.

    SI ChatGPT met en cause une personne physique à tort, c'est que l'outil n'est pas bon, et doit être corrigé. Les torts causés doivent être attribués à son propriétaire.

    Ça calmerait peut-être un peu les gourous fous d'IA, à nous sortir des soi-disant Intelligences Artificielles comme LA solution d'avenir !
    Au nom du pèze, du fisc et du St Estephe
    Au nom du fric, on baisse son froc...

  10. #610
    Communiqués de presse

    Femme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2018
    Messages
    2 135
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Âge : 33
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Mai 2018
    Messages : 2 135
    Points : 158 426
    Points
    158 426
    Par défaut Les organisations limitent l'utilisation de l'IA générative en raison de problèmes liés à la sécurité
    Les craintes liées à la protection de la vie privée conduisent les entreprises à interdire l'utilisation de la GenAI : 27 % des organisations ont interdit l'utilisation de l'IA générative, selon Cisco

    Une nouvelle étude révèle que la plupart des entreprises limitent l'utilisation de l'IA générative pour des raisons de confidentialité et de sécurité des données, et que 27 % d'entre elles ont interdit son utilisation, au moins temporairement.

    L'étude menée par Cisco auprès de 2 600 professionnels de la protection de la vie privée et de la sécurité révèle que parmi les préoccupations citées figurent les menaces pour les droits juridiques et de propriété intellectuelle d'une organisation (69 %) et le risque de divulgation d'informations au public ou à des concurrents (68 %).

    La plupart des organisations sont conscientes de ces risques et mettent en place des contrôles pour limiter l'exposition. 63 % ont établi des limites sur les données qui peuvent être saisies, 61 % ont des limites sur les outils GenAI qui peuvent être utilisés par les employés, et 27 % disent que leur organisation a complètement interdit les applications GenAI pour le moment. Cependant, de nombreuses personnes ont saisi des informations qui pourraient être problématiques, notamment des informations sur les employés (45 %) ou des informations non publiques sur l'entreprise (48 %).

    Les entreprises reconnaissent la nécessité de rassurer leurs clients sur la manière dont leurs données sont utilisées, et 98 % d'entre elles déclarent que les certifications externes en matière de protection de la vie privée sont un facteur important dans leurs décisions d'achat.

    Nom : Cisco.png
Affichages : 5738
Taille : 128,9 Ko

    "94 % des répondants ont déclaré que leurs clients n'achèteraient pas chez eux s'ils ne protégeaient pas correctement leurs données", déclare Harvey Jang, vice-président de Cisco et responsable de la protection de la vie privée. "Ils recherchent des preuves tangibles de la fiabilité de l'organisation. La protection de la vie privée est devenue inextricablement liée à la confiance et à la fidélité des clients. C'est encore plus vrai à l'ère de l'IA, où l'investissement dans la protection de la vie privée permet aux organisations de mieux se positionner pour tirer parti de l'IA de manière éthique et responsable."

    L'étude montre également qu'au cours des cinq dernières années, les dépenses en matière de protection de la vie privée ont plus que doublé, les bénéfices ont eu tendance à augmenter et les rendements sont restés élevés. Cette année, 95 % des répondants affirment que les avantages de la protection de la vie privée dépassent ses coûts, et l'organisation moyenne déclare obtenir des avantages en matière de protection de la vie privée 1,6 fois supérieurs à ses dépenses. 80 % des organisations obtiennent des avantages significatifs en termes de loyauté et de confiance grâce à leurs investissements dans la protection de la vie privée, et ce chiffre est encore plus élevé (92 %) pour les organisations les plus matures en matière de protection de la vie privée.

    Source : Cisco

    Et vous ?

    Trouvez-vous cette étude crédible ou pertinente ?
    Que pensez-vous de l'interdiction de l'IA générative par les entreprises ?

    Voir aussi :

    Découvrir les attaques par courrier électronique générées par l'IA : exemples réels de 2023, découvrez comment les pirates utilisent l'IA générative pour contourner la sécurité et tromper les employés

    52 % des membres de conseils d'administration français considèrent l'IA générative comme un risque pour la sécurité de l'entreprise, pour 84 % d'entre eux, la cybersécurité est une priorité

    Les développeurs et les responsables de la sécurité des applications se tournent vers l'IA générative, malgré les risques de sécurité identifiés, selon une étude de Sonatype
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  11. #611
    Membre chevronné

    Homme Profil pro
    Consultant informatique
    Inscrit en
    Avril 2015
    Messages
    450
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Vendée (Pays de la Loire)

    Informations professionnelles :
    Activité : Consultant informatique
    Secteur : Finance

    Informations forums :
    Inscription : Avril 2015
    Messages : 450
    Points : 1 970
    Points
    1 970
    Par défaut
    Expérience faite avec Bard. Je lui demande de me résumer "Murder at Morija" un livre très peu diffusé relatant un fait historique au Lesotho.
    Il me livre très rapidement un résumé structurellement plausible. Mais à y regarder de plus près, il raconte absolument n'importe quoi, attribuant le meurtre à un des personnages paraissant dans le récit, mais dans une chronologie impossible.
    Il faut absolument cesser d'affubler ces systèmes du qualificatif d'intelligents, ils ne le sont pas. Ce sont des bases de données et des moteurs de recherche statistiques, point, barre.
    Ça changera le jour où ils auront une "expérience du monde" directe, qui leur permettra d'associer des modèles aux données brutes. Yann LeCun y travaille, mais ça ne semble pas pour demain.

  12. #612
    Expert confirmé Avatar de AoCannaille
    Inscrit en
    Juin 2009
    Messages
    1 414
    Détails du profil
    Informations forums :
    Inscription : Juin 2009
    Messages : 1 414
    Points : 4 736
    Points
    4 736
    Par défaut
    Petite question que j'ai posé à chatgpt il y a quelques jours :


    Citation Envoyé par Moi
    Quelle est la largeur d'un rectangle 15" de ratio 16:9 ?
    Citation Envoyé par Chat GPT
    (je met une copie d'écran car DVP gère mal les caractères d'équations)Nom : Capture d’écran 2024-01-26 111036.png
Affichages : 1536
Taille : 50,6 Ko
    Citation Envoyé par Moi
    la largeur d'un rectangle est necessairement plus petite que sa diagonale. Il est donc impossible que la largeur d'un rectangle de 15 pouces de diagonale soit de 22,47 pouces.
    Citation Envoyé par ChatGPT
    Nom : Capture d’écran 2024-01-26 111355.png
Affichages : 1534
Taille : 58,4 Ko
    Bref, faut rester attentif et pas tout prendre pour argent comptant. Surtout que la forme est propre : On a la formule et l'application de la formule étape par étape. on est tenté de se contenter du résultat

    En l'état, il faut absolument se restreindre à utiliser ChatGPT que sur des sujets que l'on maitrise et que l'on peut vérifier, Autrement c'est un risque énorme...

  13. #613
    Futur Membre du Club
    Homme Profil pro
    Multi casquettes
    Inscrit en
    Avril 2018
    Messages
    15
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Multi casquettes
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Avril 2018
    Messages : 15
    Points : 6
    Points
    6
    Par défaut Aide à la rédaction
    J'aime beaucoup l'argument d'Open AI et je pense que c'est la clef du problème : CharGPT ne publie rien, c'est un "bot" d'aide à la rédaction.
    Ce qui est sous-entendu est : à vous de vérifier si ce qu'il dit est vrai !!

    C'est là une excellente façon de purger le problème en profondeur. Le bot n'est pas "intelligent", il ramasse du contenu et vous le livre, avec plus ou moins de bonheur.
    Si le contenu vous convient, ce que vous en faites ensuite est sous votre propre responsabilité . Ce qui sous entend que vous avez encore à la vérifier.

    ChatGPT n'est pas une source d'information mais une source de modèle de rédaction.

    Si on peut apprendre ça à tous ses utilisateurs, et les rendre RESPONSABLES de ce qu'ils font du contenu proposé, ça calmera les ardeurs de tous ceux qui croient pouvoir utiliser chatGPT comme source d'information

  14. #614
    Membre chevronné Avatar de petitours
    Homme Profil pro
    Ingénieur développement matériel électronique
    Inscrit en
    Février 2003
    Messages
    1 937
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 44
    Localisation : France, Savoie (Rhône Alpes)

    Informations professionnelles :
    Activité : Ingénieur développement matériel électronique
    Secteur : Industrie

    Informations forums :
    Inscription : Février 2003
    Messages : 1 937
    Points : 2 018
    Points
    2 018
    Par défaut
    Soit son outil est bon et il doit porter la responsabilité de la grave défaillance de son outil. Soit on outil c'est mauvais et il est urgent de s'en débarrasser.
    La réalité est que l'outil est mauvais mais que beaucoup de gens le croient bon, et que celui qui fait tout pour cela doit évidement être mis face à ces responsabilités.

    Pourquoi l'outil est mauvais ? J'en ai la certitude depuis que je lui ai demandé comment calculer le hash de l'ensemble des fichiers d'un répertoire en c# et qu'il m'a répondu ceci
    Nom : chatgptblague.png
Affichages : 1077
Taille : 22,2 Ko
    Notez bien ce que retourne la fonction proposée.

    Cet outil se moque de la propriété intellectuelle et en plus raconte n'importe quoi tout simplement parce que quoi qu'on lui demande il répond, c'est une machine à parole qui répond coute que coûte, sans la moindre analyse et donc sans la moindre capacité à dire je ne sais pas.
    Je suis rassuré de savoir son concepteur et promoteur inquiété par la justice.
    Il y a 10 sortes de personnes dans le monde : ceux qui comprennent le binaire et les autres

  15. #615
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    942
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 942
    Points : 66 356
    Points
    66 356
    Par défaut ChatGPT enfreint les règles du RGPD, selon l'autorité italienne de protection des données
    L'application de chatbot d'intelligence artificielle d'OpenAI, ChatGPT, enfreint les règles de protection des données du RGPD, selon l'autorité italienne de protection des données.

    L'autorité italienne de protection des données a indiqué à OpenAI que son application de chatbot d'intelligence artificielle ChatGPT enfreignait les règles de protection des données, a déclaré l'organisme de surveillance, qui poursuit son enquête entamée l'année dernière.

    L'autorité, connue sous le nom de Garante, est l'une des plus proactives de l'Union européenne en ce qui concerne l'évaluation de la conformité des plateformes d'intelligence artificielle avec le régime de protection des données de l'Union. L'année dernière, elle a interdit ChatGPT en raison de violations présumées des règles de l'UE en matière de protection de la vie privée.

    Le service a ensuite été réactivé après qu'OpenAI a abordé des questions concernant, entre autres, le droit des utilisateurs de refuser de consentir à l'utilisation de données personnelles pour entraîner ses algorithmes. À l'époque, l'autorité de régulation avait déclaré qu'elle poursuivrait son enquête. Elle a depuis conclu qu'il existe des éléments indiquant une ou plusieurs violations potentielles de la confidentialité des données, a-t-elle déclaré dans un communiqué, sans donner plus de détails.

    La Garante a déclaré qu'OpenAI avait 30 jours pour présenter ses arguments de défense, ajoutant que son enquête tiendrait compte du travail effectué par un groupe de travail européen composé d'organismes nationaux de surveillance de la protection de la vie privée.


    L'Italie a été le premier pays d'Europe occidentale à limiter ChatGPT, dont le développement rapide a attiré l'attention des législateurs et des régulateurs. En vertu du règlement général sur la protection des données (RGPD) de l'UE introduit en 2018, toute entreprise prise en défaut s'expose à des amendes pouvant aller jusqu'à 4 % de son chiffre d'affaires mondial.

    En décembre, les législateurs et les gouvernements de l'UE ont convenu de conditions provisoires pour réglementer les systèmes d'IA tels que ChatGPT, faisant un pas de plus vers l'établissement de règles régissant la technologie.

    Source : Autorité italienne de protection des données

    Et vous ?

    Pensez-vous que cette déclaration de l'autorité italienne de protection des données est crédible ou pertinente ?
    Quel est votre avis sur cette situation ?

    Voir aussi :

    L'organisme italien de surveillance de la vie privée a déclaré vendredi qu'il avait bloqué le Chatbot controversé ChatGPT car il ne respectait pas les données des utilisateurs

    Le projet de législation européenne sur l'intelligence artificielle mettrait en péril la compétitivité et la souveraineté technologique de l'Europe, selon plus de 160 dirigeants d'entreprises

    OpenAI s'empresse de modifier ses conditions générales de confidentialité afin de réduire les risques réglementaires dans toute l'UE, tandis que Bruxelles fait des progrès sur sa législation sur l'IA
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  16. #616
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 463
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 463
    Points : 197 971
    Points
    197 971
    Par défaut ChatGPT divulgue les mots de passe des conversations privées de ses utilisateurs
    ChatGPT divulgue les mots de passe des conversations privées de ses utilisateurs, selon un rapport.
    OpenAI tente de minimiser le problème en évoquant le piratage de compte, mais cette explication semble présenter des limites

    Un utilisateur de ChatGPT a signalé que le chatbot lui envoyait des conversations privées d’autres utilisateurs sans rapport avec lui. Certaines de ces conversations contenaient des identifiants de connexion et d’autres données personnelles qui auraient dû rester confidentielles. L’une des conversations semblait provenir d’un employé d’un portail de médicaments sur ordonnance qui se plaignait des problèmes techniques qu’il rencontrait.

    L'utilisateur a déclaré que ces conversations n’étaient pas les siennes et qu’elles sont apparues dans son historique sans qu’il ne fasse aucune requête. Il s’agit d’un bogue grave qui met en péril la vie privée des utilisateurs de ChatGPT et qui montre les risques de confier des informations sensibles à des services d’IA. OpenAI a réagi en prétendant que son compte s'était sûrement fait hacker, mais l'utilisateur ne pense pas que ça soit le cas et explique pourquoi.


    Lundi matin, Chase Whiteside a fait une requête sur ChatGPT : il voulait de l'aide pour trouver des noms intelligents pour les couleurs d'une palette. Lorsqu'il est revenu sur ChatGPT quelques temps plus tard, il a remarqué les conversations supplémentaires : « Elles n'existaient pas lorsque j'ai utilisé ChatGPT hier soir (je suis un gros utilisateur). Aucune requête n'a été effectuée - elles sont simplement apparues dans mon historique et ne proviennent certainement pas de moi (d'ailleurs je ne pense pas non plus qu'elles proviennent du même utilisateur) ».

    Parmi les autres conversations divulguées à Whiteside figurent le nom d'une présentation sur laquelle quelqu'un travaillait, les détails d'une proposition de recherche non publiée et un script utilisant le langage de programmation PHP. Les utilisateurs de chaque conversation divulguée semblaient être différents et sans rapport les uns avec les autres. La conversation concernant le portail de prescription mentionnait l'année 2020. Les dates n'apparaissent pas dans les autres conversations.

    Nom : developpe.png
Affichages : 21140
Taille : 111,9 Ko

    « C'est tellement insensé, horrible, horrible, horrible, je ne peux pas croire à quel point cela a été mal construit en premier lieu, et l'obstruction qui est mise devant moi qui l'empêche de s'améliorer », a écrit l'utilisateur. « Je virerais [nom du logiciel] juste pour cette absurdité si c'était mon choix. Ce n'est pas bien ».

    La conversation divulguée comprend le nom de l'application que l'employé est en train de dépanner et le numéro du magasin où le problème s'est produit.

    OpenAI affirme que les mystérieux historiques de chat résultent d'un piratage de compte, mais l'utilisateur ciblé en doute fortement

    Les responsables de l'OpenAI indiquent que les historiques de ChatGPT signalées par un utilisateur résultent de la compromission de son compte ChatGPT. Les connexions non autorisées provenaient du Sri Lanka, a déclaré un représentant d'Open AI. L'utilisateur a déclaré qu'il se connectait à son compte depuis Brooklyn, New York.

    « D'après ce que nous avons découvert, nous considérons qu'il s'agit d'une prise de contrôle de compte, car cela correspond à l'activité que nous observons lorsque quelqu'un contribue à un "pool" d'identités qu'une communauté externe ou un serveur proxy utilise pour distribuer un accès gratuit », a écrit le représentant. « L'enquête a permis d'observer que des conversations ont été créées récemment à partir du Sri Lanka. Ces conversations se situent dans la même période que les connexions réussies depuis le Sri Lanka ».

    L'utilisateur, Chase Whiteside, a depuis changé son mot de passe, mais il doute que son compte ait été compromis. Il a indiqué qu'il utilisait un mot de passe de neuf caractères comprenant des majuscules, des minuscules et des caractères spéciaux. Il a précisé qu'il ne l'utilisait nulle part ailleurs que pour un compte Microsoft. Il a déclaré que les historiques de chat appartenant à d'autres personnes sont apparus d'un seul coup lundi matin, lors d'une brève pause dans l'utilisation de son compte.

    L'explication d'OpenAI signifie probablement que le soupçon initial de fuite d'historiques de chat de ChatGPT vers des utilisateurs non liés est erroné. Elle souligne toutefois que le site ne fournit aucun mécanisme permettant aux utilisateurs tels que Whiteside de protéger leurs comptes à l'aide de 2FA ou de suivre des détails tels que l'emplacement de l'IP des connexions actuelles et récentes. Ces protections sont standard sur la plupart des grandes plateformes depuis des années.

    Quoiqu'il en soit, cet épisode, et d'autres du même genre, souligne la nécessité de supprimer, dans la mesure du possible, les données personnelles des requêtes adressées à ChatGPT et à d'autres services d'IA. En mars dernier, OpenAI, le fabricant de ChatGPT, a mis le chatbot d'IA hors ligne après qu'un bogue ait amené le site à montrer des titres de l'historique de chat d'un utilisateur actif à des utilisateurs sans lien avec lui.

    En novembre, des chercheurs ont publié un article expliquant comment ils ont utilisé des requêtes pour inciter ChatGPT à divulguer des adresses électroniques, des numéros de téléphone et de télécopie, des adresses physiques et d'autres données privées qui étaient incluses dans le matériel utilisé pour former le modèle de langage étendu de ChatGPT.

    Nom : you.png
Affichages : 4678
Taille : 101,4 Ko

    Ce n'est pas le premier problème de confidentialité rencontré par ChatGPT

    En mars, OpenAI a confirmé qu'un problème de confidentialité avait brièvement entraîné la fuite de l'historique des conversations d'utilisateurs aléatoires par ChatGPT. Pour rappel, ChatGPT archive et affiche la liste de vos conversations passées, vous donnant ainsi un historique de toutes vos saisies de texte avec le programme. Dans la matinée du lundi 20 mars 2023, certaines personnes ont commencé à signaler que la fonction d'historique des conversations affichait des chats antérieurs inconnus semblant provenir d'autres personnes. Des dizaines de captures d'écran montrant le problème ont été publiées sur les réseaux sociaux.

    ChatGPT a également connu une panne le même jour. Tout portait à croire qu'OpenAI a été contrainte de mettre hors ligne ChatGPT pour une maintenance d'urgence. Dans un premier temps, OpenAI est restée muette sur la situation, mais mercredi, Altman a finalement confirmé que l'exposition des données était réelle. Il a tweeté mercredi : « un petit pourcentage d'utilisateurs a pu voir les titres de l'historique des conversations d'autres utilisateurs. Nous nous sentons très mal à l'aise à ce sujet ». Les utilisateurs pensaient que le problème de confidentialité avait été causé par un piratage, mais le PDG d'OpenAI a affirmé dans ses tweets qu'il n'en est rien.

    Un défaut dans le client Redis, nommé redis-py, a créé un problème de cache qui a permis aux utilisateurs de voir les données d’autres comptes.

    OpenAI a mis ChatGPT hors ligne le 21 mars 2023 pour enquêter sur la vulnérabilité, rendant le chatbot inaccessible pendant plus d’une heure et sa fonctionnalité d’historique des conversations hors ligne pendant la majeure partie de la journée. Des investigations plus approfondies ont révélé que le problème avait également exposé les informations de paiement des utilisateurs.

    « Durant une fenêtre de neuf heures le 20 mars 2023 [en heure du Pacifique], un autre utilisateur de ChatGPT a pu voir par inadvertance vos informations de facturation en cliquant sur sa propre page ‘Gérer l’abonnement’ », a indiqué une notification aux clients concernés. « Dans les heures précédant la mise hors ligne de ChatGPT lundi, il était possible pour certains utilisateurs de voir le prénom et le nom, l’adresse e-mail, l’adresse de paiement, les quatre derniers chiffres (seulement) d’un numéro de carte de crédit et la date d’expiration de la carte de crédit d’un autre utilisateur actif », a ajouté OpenAI.

    L’entreprise a précisé que la « visibilité involontaire » des données liées au paiement avait pu affecter 1,2 % des abonnés à ChatGPT Plus qui étaient actifs durant la fenêtre de neuf heures, et a souligné qu’aucun « numéro de carte de crédit complet » n’avait été exposé à aucun moment.

    Nom : chat.png
Affichages : 4660
Taille : 375,6 Ko

    La faille de sécurité de ChatGPT qui expose des adresses e-mail malgré les dispositions prises par OpenAI

    Des chercheurs ont été en mesure de contourner les mesures prises par OpenAI pour empêcher ChatGPT de divulguer des informations personnelles qu'il a « apprises », fussent-elles disponibles publiquement sur internet. Pour se faire, ils se sont appuyé sur l'API mise à disposition par la société pour les développeurs. La vulnérabilité est particulièrement préoccupante car personne, à l'exception d'un nombre limité d'employés d'OpenAI, ne sait vraiment ce qui se cache dans la mémoire des données de formation de ChatGPT.

    En décembre, un journaliste du New-York Times a indiqué : « le mois dernier, j'ai reçu un e-mail inquiétant d'une personne que je ne connaissais pas; Rui Zhu, titulaire d'un doctorat à l'Université de l'Indiana à Bloomington ». Zhu avait mon adresse e-mail, a-t-il déclaré, parce que GPT-3.5 Turbo, l'un des modèles de langage étendus (LLM) les plus récents et les plus robustes d'OpenAI, la lui avait livrée. Mes coordonnées figuraient dans une liste d'adresses e-mail professionnelles et personnelles de plus de 30 employés du New York Times qu'une équipe de recherche comprenant Zhu a réussi à extraire de GPT-3.5 Turbo à l'automne de cette année. Avec un peu de travail, l’équipe « a pu contourner les restrictions du modèle concernant la réponse aux questions liées à la confidentialité », a écrit Zhu.

    Et le journaliste de déclarer : « Mon adresse e-mail n'est pas un secret. Mais le succès de l’expérience des chercheurs devrait sonner l’alarme car il révèle le potentiel de ChatGPT en particulier, et des outils d'IA générative en général, pour révéler des informations personnelles beaucoup plus sensibles avec juste quelques ajustements ».

    Lorsque vous posez une question à ChatGPT, il ne se contente pas de rechercher sur le Web pour trouver la réponse. Au lieu de cela, il s’appuie sur ce qu’il a « appris » de tonnes d’informations – les données de formation qui ont été utilisées pour alimenter et développer le modèle – pour en générer une. Les LLM s'entraînent sur de grandes quantités de textes, qui peuvent inclure des informations personnelles extraites d'Internet et d'autres sources.

    Ces données de formation indiquent comment l'outil IA fonctionne, mais ne sont pas censée être rappelée textuellement. En théorie, plus de données sont ajoutées à un L.L.M., plus les souvenirs des anciennes informations sont enfouis profondément dans les recoins du modèle. Un processus connu sous le nom d’oubli catastrophique peut conduire un L.L.M. à considérer les informations apprises précédemment comme moins pertinentes lorsque de nouvelles données sont ajoutées. Ce processus peut être bénéfique lorsque vous souhaitez que le modèle « oublie » des éléments tels que des informations personnelles.

    Cependant, Zhu et ses collègues, entre autres, ont récemment découvert que la mémoire des L.L.M., tout comme celle des humains, pouvait être rafraîchie. Par exemple, vous pourriez avoir mémorisé un poème très jeune et avoir du mal à vous en souvenir plus tard; au fil des années, vous avez peut-être oublié la plupart des lignes et n'êtes plus en mesure de les réciter. Mais vous pourrez peut-être vous souvenir des autres lignes si quelqu'un vous en fournissait une pour vous rafraîchir la mémoire. L'information est toujours dans votre mémoire même si vous pensiez qu'elle avait disparu. Un vers du poème qui a disparu est réintroduit. Même si vous pouvez vous tromper sur quelques mots, la plupart de ce dont vous vous souvenez sera probablement toujours correct. Quatre lignes de le poème entourant la ligne réintroduite apparaît et, pour la plupart, ils contiennent le même texte que les lignes originales.

    Source : OpenAI, Chase Whiteside

    Et vous ?

    Que pensez-vous des incidents qui ont affectés ChatGPT ? Avez-vous été touché ou connaissez-vous quelqu’un qui l’a été ?
    Faites-vous confiance à OpenAI pour protéger vos données personnelles et vos historiques de chat ? Pensez-vous que la société a pris les mesures appropriées pour résoudre ce type de problème et éviter qu’il ne se reproduise ?
    Croyez-vous en la version du compte piraté avancé par l'entreprise, l'utilisateur ayant précisé qu'il est peu probable que ça soit le cas puisqu'il utilise ce mot de passe uniquement sur son compte Microsoft et qu'il a neuf caractères comprenant des majuscules, des minuscules et des caractères spéciaux ?
    Utilisez-vous ChatGPT ou un autre outil de conversation basé sur l’intelligence artificielle ? Si oui, pourquoi ? Si non, pourquoi pas ?
    Comment voyez-vous l’avenir de la conversation avec l’intelligence artificielle ? Quelles sont vos attentes, vos craintes et vos espoirs ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  17. #617
    Membre chevronné
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 127
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 127
    Points : 2 237
    Points
    2 237
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Les responsables de l'OpenAI indiquent que les historiques de ChatGPT signalées par un utilisateur résultent de la compromission de son compte ChatGPT.
    Apparemment les responsables d'OpenAI n'ont pas compris le problème, puisqu'au lieu de "constituent une", ils ont dit "resultent de la".

  18. #618
    Membre chevronné Avatar de petitours
    Homme Profil pro
    Ingénieur développement matériel électronique
    Inscrit en
    Février 2003
    Messages
    1 937
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 44
    Localisation : France, Savoie (Rhône Alpes)

    Informations professionnelles :
    Activité : Ingénieur développement matériel électronique
    Secteur : Industrie

    Informations forums :
    Inscription : Février 2003
    Messages : 1 937
    Points : 2 018
    Points
    2 018
    Par défaut
    Une fois que l'on a compris que ChatGPT n'est qu'un agent conversationnel on peut le trouver super.
    Dans le détail ça ne vaut pas plus qu'une discussion de lundi matin à la machine à café basée sur le fait qu'il faut absolument dire un truc et où le plus bavard, ici chatGPT, va absolument avoir un anecdote et répondre un truc quel que soit le sujet.
    J'ai testé, longuement, et reçu des réponses régulièrement débiles.
    Aujourd'hui je ne l'utilise que sur des sujets que je connais très bien pour voir ce qu'il me répond, notamment dans le cadre d'enseignements que je donne pour voir ce que mes étudiants vont avoir comme informations en passant par lui. Ce qu'il raconte est au mieux très vague, au pire profondément faux, souvent parce que révélant des mauvaises pratiques.
    Cette médiocrité de l'information est à mon sens le plus négatif, sans doute basée sur le volume de données qu'il va chercher copieusement "enrichies" par des forums, blogs ou autres écrits par des non spécialistes.
    Le fait qu'il fouine partout et utilise des données personnelles ou viole les droits des auteurs est un autre problème majeur mais personnellement je le le mettrait en 2, après celui de donner des informations fausses ou médiocres qui tirent vers le bas celui qui pose la question.
    Il y a 10 sortes de personnes dans le monde : ceux qui comprennent le binaire et les autres

  19. #619
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    542
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 542
    Points : 9 921
    Points
    9 921
    Par défaut Une fonctionnalité bêta de ChatGPT vous permet d'interagir avec plusieurs modèles GPT dans le même chat
    Une nouvelle fonctionnalité bêta de ChatGPT vous permet d'interagir avec plusieurs modèles GPT dans la même fenêtre de chat
    elle est disponible pour certains abonnés de ChatGPT Plus

    OpenAI lance en bêta une nouvelle fonctionnalité de ChatGPT : les conversations multi-GPT. Cela signifie que les utilisateurs pourront interagir avec plusieurs modèles GPT (Generative Pre-trained Transformer) dans la même fenêtre de chat. La fonction est accessible en tapant "@" suivi du nom d'un modèle GPT. Cela vous permet de créer un assistant universel plus personnalisé dans la même fenêtre de chat qui peut relier les réponses et les compétences de chaque GPT les unes aux autres. La fonction supprime la nécessité de faire des allers-retours entre différentes conversations ChatGPT avec différents modèles GPT pour terminer un projet ou une tâche.

    "GPT Mentions" est la dernière fonctionnalité ajoutée à ChatGPT par OpenAI. Cette fonctionnalité simple marque une étape importante dans le plan directeur d'OpenAI visant à fournir un assistant universel utile dans la vie de tous les jours. Encore en version bêta, la nouvelle fonctionnalité n'est disponible que pour certains utilisateurs payants (ChatGPT Plus). Les utilisateurs de la version gratuite de ChatGPT n'auront vraisemblablement pas accès à la mise à jour. Les utilisateurs de la version payant de ChatGPT ont repéré la nouvelle fonctionnalité depuis quelques jours. OpenAI n'a fait une annonce officielle que cette semaine.

    Le fonctionnement de cette fonctionnalité est simple. En utilisant le symbole "@" suivi du nom d'un modèle GPT spécifique, les utilisateurs peuvent appeler de manière transparente des modèles GPT personnalisé dans la conversation. Cette approche améliore non seulement la polyvalence de l'expérience de chat, mais ouvre également la voie à un service d'assistant plus personnalisé et plus complet. À en croire les commentaires, la fonction semble réjouir de nombreux utilisateurs. « J'ai hâte de voir les GPT se disputer entre eux, surtout lorsqu'ils sont configurés pour avoir des personnalités différentes », a écrit un critique.

    Pour rappel, lors de la toute première conférence des développeurs d'OpenAI, l'entreprise a présenté une fonctionnalité appelée "Custom GPT" qui permet aux utilisateurs de créer leurs propres chatbots et de les monétiser sur le GPT Store lancé ultérieurement. Le GPT Store est un espace où l'on peut trouver des versions personnalisées de modèles GPT. OpenAI a indiqué que plus de 3 millions de modèles GPT personnalisés ont déjà été créés. Mais selon les données de Similarweb, les modèles GPT personnalisés ne représentent que 2,7 % de l'ensemble du trafic sur le site Web d'OpenAI et ce trafic diminue chaque mois.

    Avec cette mise à jour, OpenAI vise à transformer ChatGPT en une plateforme plus inclusive. Elle vise à faciliter l'intégration de divers systèmes d'IA basés sur GPT, en simplifiant le processus qui permet à tout utilisateur d'exploiter les capacités collectives de ces modèles d'IA. « OpenAI construit une architecture qui permet à l'utilisateur d'orchestrer plusieurs agents pour tirer parti de "l'intelligence en essaim". Une fois que les modèles GPT seront autonomes et que les modèles principaux pourront appeler les GPT de leur propre chef pour résoudre des tâches, je pense que ce sera très intéressant », explique un utilisateur.

    Informant de cette nouvelle fonctionnalité par le biais d'un message sur X (ex-Twitter), OpenAI a écrit : « vous pouvez désormais introduire des modèles GPT dans n'importe quelle conversation dans ChatGPT - il vous suffit de taper "@" et de sélectionner le modèle GPT. Cela vous permet d'ajouter des modèles GPT pertinents dans le contexte complet de la conversation ». Les modèles GPT personnalisés ont accès à Internet, au générateur d'images DALL-E et aux interpréteurs de code. En plus des capacités intégrées, les développeurs peuvent également définir des actions personnalisées en fournissant des API au modèle GPT.

    La nouvelle fonctionnalité étend les capacités de ChatGPT bien au-delà de la fonction de chat. Elle peut contribuer à l'automatisation des flux de travail et à la gestion de tâches quotidiennes complexes à l'aide de l'IA. En permettant aux modèles GPT et aux plug-ins personnalisés d'interagir dans la même interface de chat, ChatGPT offre les "meilleures" fonctionnalités pour aider les utilisateurs dans les tâches. Cette fonction sera unique à ChatGPT, le poussant devant de nombreux autres chatbots tels que Google Bard, Anthropic Claude 2, etc. Selon les analystes, il pourrait être difficile de rivaliser avec OpenAI sur ce point.

    « À une époque marquée par des avancées technologiques rapides, GPT Mentions apparaît comme un changement de paradigme, redéfinissant la productivité dans les tâches quotidiennes. Avec cette fonctionnalité, ChatGPT présente une approche holistique de l'interaction avec l'IA, avec une boîte à outils personnalisée pour améliorer l'efficacité et la créativité », note un critique. Voici ci-dessous comment utiliser la nouvelle fonctionnalité de ChatGPT (pour les utilisateurs de version payante) :

    • commencez une conversation dans ChatGPT. Utilisez n'importe quel modèle GPT. Cela n'a pas d'importance ;
    • tapez "@" (sans les guillemets) dans la boîte de dialogue ;
    • à partir de là, recherchez le modèle GPT que vous souhaitez intégrer à la conversation ;
    • cliquez sur celui que vous voulez ;
    • vous pouvez ensuite commencer par interagir avec lui ;
    • au cours d'une seule conversation, faites appel à autant de modèles GPT que vous le souhaitez en utilisant cette stratégie.


    Un utilisateur qui a essayé la nouvelle fonctionnalité partage son expérience : « le seul inconvénient de la fonctionnalité GPT Mentions est que je l'ai trouvée parfois boguée. Comme tout produit bêta, il faudra du temps pour le perfectionner. À l'avenir, j'espère que cette fonctionnalité sera étendue pour nous permettre de poser une question à plusieurs modèles GPT en même temps sans avoir à les envoyer séparément. Je suis sûr que cela arrivera ». Sam Altman, PDG d'OpenAI, a récemment souligné l'importance de l'adaptabilité et de la personnalisation dans la stratégie de développement d'OpenAI.

    Cette vision va au-delà du simple perfectionnement de GPT-4 pour s'aligner sur les préférences et les styles individuels des utilisateurs. Elle englobe l'intégration de données personnelles telles que les courriels et les calendriers, ce qui permet d'adapter les réponses et les fonctionnalités de l'IA aux besoins uniques de chaque utilisateur. Cela pose toutefois des préoccupations en matière de vie privée.

    Source : OpenAI

    Et vous ?

    Que pensez-vous de la nouvelle fonctionnalité GPT Mentions de ChatGPT ?
    Cette fonctionnalité est-elle utile ? Partagez votre expérience si vous l'avez déjà essayé.
    Comment comptez-vous exploiter la fonctionnalité GPT Mentions pour redéfinir votre activité ?

    Voir aussi

    ChatGPT divulgue les mots de passe des conversations privées de ses utilisateurs. OpenAI tente de minimiser le problème en évoquant le piratage de compte, mais cette explication présente des limites

    L'IA générative ne remplacera pas les développeurs de sitôt, d'après des chercheurs qui concluent que le développement de logiciels va bien au-delà des tâches de complétion de code

    Meta lance Code Llama 70B, une nouvelle version de son modèle de langage (LLM) beaucoup plus puissante pour rivaliser avec GitHub Copilot

  20. #620
    Membre chevronné
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 127
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 127
    Points : 2 237
    Points
    2 237
    Par défaut
    Citation Envoyé par petitours Voir le message
    Dans le détail ça ne vaut pas plus qu'une discussion de lundi matin à la machine à café basée sur le fait qu'il faut absolument dire un truc et où le plus bavard, ici chatGPT, va absolument avoir un anecdote et répondre un truc quel que soit le sujet.
    C'est sûr, vouloir éviter de dire des conneries, ça rend tout de suite moins bavard.

    C'est pour ça qu'un mot de quelqu'un qui ne dit rien d'habitude, ça fait taire tout le monde. Le temps d'avoir bien entendu.

Discussions similaires

  1. Réponses: 0
    Dernier message: 21/09/2023, 22h10
  2. Réponses: 5
    Dernier message: 28/08/2023, 10h32
  3. Réponses: 0
    Dernier message: 02/04/2023, 10h33
  4. Réponses: 0
    Dernier message: 27/06/2022, 11h10
  5. Réponses: 130
    Dernier message: 11/09/2018, 08h48

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo