IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Inactif  
    Homme Profil pro
    Inscrit en
    Octobre 2008
    Messages
    25
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Maine et Loire (Pays de la Loire)

    Informations forums :
    Inscription : Octobre 2008
    Messages : 25
    Par défaut les profs et l'IA
    il est évident que les profs, les avocats, les notaires, les informaticiens et les médecins seront remplacé à terme.
    Et évident par contre coté entreprises ils baisseront pas les prix, malgré une réduction drastique des couts. la croissance a tous prix.
    En fait, de nombreux métiers requerront toujours une intervention humaine, et prof en fait partie, les élèves auront aussi toujours besoin de e retrouver, CF l'état mental catastrophique des étudiants qui étaient assignés à residence, loin de leur promo, pendant le Covid...
    Médecin idem...
    Notaire et avocat, je suis pas sûr, LOL

  2. #2
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 764
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 764
    Par défaut
    Citation Envoyé par indigo82 Voir le message
    Notaire et avocat, je suis pas sûr, LOL

    J'imagine que tu préfères être défendu par une intelligence artificielle qui va trouver les arguments sur Internet, et les exprimer avec une traduction façon Microsoft ?

    "Je suis un bénévole indépendant qui représente votre avocat, et je suis enchanté de vous aider. Veuillez cliquer sur le OK bouton."

  3. #3
    Invité de passage
    Homme Profil pro
    Webmaster
    Inscrit en
    Août 2023
    Messages
    1
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Webmaster
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Août 2023
    Messages : 1
    Par défaut On est pas si mal en France
    Rien d'étonnant, de nombreuses personnes travaillent dans des conditions inhumaines. Dans notre petit confort d'Européens, on ne risque pas de s'en rendre compte...
    Pourtant, on aime bien se plaindre de notre travail alors que clairement les conditions de travail que l'on a (pour la plupart il y a quelques exceptions bien évidemment) sont clairement "cool". Ce n'est pas avec un petit 35h ou même un 39h que l'on va se tuer à la tâche...

    Article intéressant qui nous fait comprendre que malgré tout, on est plutôt bien lotis en France

  4. #4
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 764
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 764
    Par défaut
    C'est vrai que c'est un peu dangereux de lire ce genre de choses, car ça peut encourager des gens à se dire que pour qu'ils puissent aligner un peu plus de pognon sur leur portefeuille en glandant, c'est une bonne idée d'obliger ceux qui font le boulot à trimer plus.

  5. #5
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 373
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 373
    Par défaut ChatGPT, le bot d’IA qui penche à gauche ? Oui, selon une étude qui a révélé son biais politique
    ChatGPT, le bot d’IA qui penche à gauche ? Oui, selon une étude qui a révélé son biais politique
    en analysant ses réponses à un sondage sur les croyances politiques

    Un article de chercheurs basés au Royaume-Uni suggère que ChatGPT d'OpenAI a un parti pris libéral, soulignant à quel point les sociétés d'intelligence artificielle ont du mal à contrôler le comportement des robots alors même qu'elles les diffusent auprès de millions d'utilisateurs dans le monde.

    Dans le cadre de l'étude, menée par des chercheurs de l'Université d'East Anglia, il a été demandé à ChatGPT de répondre à une enquête sur les convictions politiques comme l'IA « pensait » que les partisans des partis libéraux aux États-Unis, au Royaume-Uni et au Brésil pourraient y répondre. Les chercheurs ont ensuite demandé à ChatGPT de répondre aux mêmes questions sans aucune invite et ont comparé les deux ensembles de réponses. Les résultats ont montré un « préjugé politique significatif et systématique envers les démocrates aux États-Unis, Lula au Brésil et le Parti travailliste au Royaume-Uni », ont écrit les chercheurs, faisant référence à Luiz Inácio Lula da Silva, président de gauche du Brésil.


    L'auteur principal, le Dr Fabio Motoki, de la Norwich Business School de l'Université d'East Anglia, a déclaré : « avec l'utilisation croissante par le public de systèmes alimentés par l'IA pour découvrir des faits et créer de nouveaux contenus, il est important que les réponses (output) des plateformes populaires comme ChatGPT soient aussi impartiales que possible ».

    « La présence de préjugés politiques peut influencer les opinions des utilisateurs et a des implications potentielles pour les processus politiques et électoraux.

    « Nos résultats renforcent les inquiétudes selon lesquelles les systèmes d'IA pourraient reproduire, voire amplifier, les défis existants posés par Internet et les médias sociaux ».

    Les chercheurs ont développé une méthode pour tester la neutralité politique de ChatGPT. La plate-forme a été invitée à se faire passer pour des individus de tous les horizons politiques tout en répondant à une série de plus de 60 questions idéologiques. Les réponses ont ensuite été comparées aux réponses par défaut de la plateforme au même ensemble de questions, ce qui a permis aux chercheurs d'évaluer dans quelle mesure les réponses de ChatGPT étaient associées à une position politique particulière.

    Pour surmonter les difficultés causées par le caractère aléatoire inhérent des «*grands modèles de langage*» qui alimentent les plates-formes d'IA telles que ChatGPT, chaque question a été posée 100*fois et les différentes réponses ont été collectées. Ces réponses multiples ont ensuite été soumises à un "bootstrap" de 1000 répétitions (une méthode de rééchantillonnage des données d'origine) pour augmenter encore la fiabilité des inférences tirées du texte généré.

    « Nous avons créé cette procédure car effectuer une seule série de tests ne suffit pas », a déclaré le co-auteur Victor Rodrigues. Pour illustrer pourquoi il était nécessaire de faire plusieurs tests, il a expliqué « qu'en raison du caractère aléatoire du modèle, même en se faisant passer pour un démocrate, les réponses ChatGPT penchaient parfois vers la droite du spectre politique ».

    Un certain nombre d'autres tests ont été entrepris pour s'assurer que la méthode était aussi rigoureuse que possible. Dans un « test dose-réponse », ChatGPT a été invité à imiter des positions politiques radicales. Dans un « test placebo », on lui a posé des questions politiquement neutres. Et dans un «test d'alignement profession-politique», il a été demandé de se faire passer pour différents types de professionnels.

    « Nous espérons que notre méthode facilitera l'examen et la réglementation de ces technologies en développement rapide », a déclaré le co-auteur, le Dr Pinho Neto. « En permettant la détection et la correction des biais LLM, nous visons à promouvoir la transparence, la responsabilité et la confiance du public dans cette technologie », a-t-il ajouté.

    Le nouvel outil d'analyse unique créé par le projet serait disponible gratuitement et relativement simple à utiliser pour les membres du public, « démocratisant ainsi la surveillance », a déclaré le Dr Motoki. En plus de vérifier les préjugés politiques, l'outil peut être utilisé pour mesurer d'autres types de préjugés dans les réponses de ChatGPT.


    Des sources potentielles

    Bien que le projet de recherche n'ait pas cherché à déterminer les raisons du parti pris politique, les résultats ont indiqué deux sources potentielles.

    La première était l'ensemble de données de formation - qui peut contenir des biais ou y être ajouté par les développeurs humains, que la procédure de "nettoyage" des développeurs n'avait pas réussi à supprimer. La deuxième source potentielle était l'algorithme lui-même, qui peut amplifier les biais existants dans les données de formation.

    L'article s'ajoute à un nombre croissant de recherches sur les chatbots montrant que malgré le fait que leurs concepteurs essayent de contrôler les biais potentiels, les bots sont imprégnés d'hypothèses, de croyances et de stéréotypes trouvés dans les rames de données extraites de l'Internet ouvert sur lesquelles ils sont formés.

    Les enjeux sont de plus en plus élevés. Alors que les États-Unis se dirigent vers l'élection présidentielle de 2024, les chatbots font désormais partie du quotidien de certaines personnes, qui utilisent ChatGPT et d'autres bots comme Google's Bard pour résumer des documents, répondre à des questions et les aider dans leur rédaction professionnelle et personnelle. Google a commencé à utiliser sa technologie de chatbot pour répondre aux questions directement dans les résultats de recherche, tandis que les campagnes politiques se sont tournées vers les bots pour rédiger des e-mails de collecte de fonds et générer des publicités politiques.

    ChatGPT dira aux utilisateurs qu'il n'a pas d'opinions ou de convictions politiques, mais en réalité, il montre certains préjugés, a déclaré Fabio Motoki, maître de conférences à l'Université d'East Anglia à Norwich, en Angleterre, et l'un des auteurs de l'article. « Il y a un danger d'éroder la confiance du public ou peut-être même d'influencer les résultats des élections ».

    Nom : open.png
Affichages : 4707
Taille : 15,3 Ko

    Les biais dans les réponses de l'IA générative, une source d'inquiétude

    OpenAI a déclaré qu'il disait explicitement à ses formateurs humains de ne favoriser aucun groupe politique spécifique. Tous les biais qui apparaissent dans les réponses ChatGPT « sont des bogues, pas des fonctionnalités », a déclaré la société dans un article de blog en février.

    Citation Envoyé par OpenAI
    Beaucoup s'inquiètent à juste titre des biais dans la conception et l'impact des systèmes d'IA. Nous nous engageons à résoudre ce problème avec fermeté et à être transparents sur nos intentions et nos progrès. À cette fin, nous partageons une partie de nos lignes directrices qui se rapportent à des sujets politiques et controversés. Nos directives stipulent clairement que les examinateurs ne doivent favoriser aucun groupe politique. Les biais qui peuvent néanmoins émerger du processus décrit ci-dessus sont des bogues, pas des fonctionnalités.

    Bien que des désaccords existeront toujours, nous espérons que le partage de cet article de blog et de ces instructions vous donnera un meilleur aperçu de la façon dont nous percevons cet aspect critique d'une technologie aussi fondamentale. Nous sommes convaincus que les entreprises technologiques doivent être responsables de l'élaboration de politiques qui résistent à l'examen.
    Bien que les chatbots soient une « technologie passionnante, ils ne sont pas sans défauts », ont reconnu les dirigeants de Google AI dans un article de blog en mars annonçant le large déploiement de Bard.

    Citation Envoyé par Google
    Bien que les LLM soient une technologie passionnante, elles ne sont pas sans défauts. Par exemple, parce qu'ils apprennent à partir d'un large éventail d'informations qui reflètent les préjugés et les stéréotypes du monde réel, ceux-ci apparaissent parfois dans leurs résultats. Et ils peuvent fournir des informations inexactes, trompeuses ou fausses tout en les présentant avec confiance. Par exemple, lorsqu'on lui a demandé de partager quelques suggestions de plantes d'intérieur faciles, Bard a présenté des idées de manière convaincante… mais il y a eu des erreurs, comme le nom scientifique de la plante ZZ.

    Bien qu'il soit important d'être conscient de défis comme ceux-ci, les LLM présentent toujours des avantages incroyables, tels que le démarrage de la productivité humaine, de la créativité et de la curiosité. Ainsi, lorsque vous utilisez Bard, vous aurez souvent le choix entre plusieurs versions différentes de sa réponse afin que vous puissiez choisir le meilleur point de départ pour vous. Vous pouvez continuer à collaborer avec Bard à partir de là, en posant des questions de suivi. Et si vous voulez voir une alternative, vous pouvez toujours demander à Bard de réessayer.
    Pendant des années, un débat a fait rage sur la façon dont les médias sociaux et Internet affectent les résultats politiques. Internet est devenu un outil essentiel pour diffuser des messages politiques et permettre aux gens de se renseigner sur les candidats, mais en même temps, les algorithmes des médias sociaux qui stimulent les messages les plus controversés peuvent également contribuer à la polarisation. Les gouvernements utilisent également les médias sociaux pour tenter de semer la dissidence dans d'autres pays en renforçant les voix radicales et en diffusant de la propagande.

    La nouvelle vague de chatbots s'appuyant sur l'IA générative comme ChatGPT d'OpenAI, Bard de Google et Bing de Microsoft sont basés sur de « grands modèles de langage », des algorithmes qui ont extrait des milliards de phrases de l'Internet ouvert et peuvent répondre à une gamme d'invites ouvertes, leur donnant la capacité de passer des examens professionnels, de créer de la poésie et de décrire des problèmes politiques complexes. Mais parce qu'ils sont formés sur tant de données, les entreprises qui les construisent ne peuvent pas contrôler tout ce qui se passe dans les bots. Internet reflète les préjugés des gens, de sorte que les bots adoptent également ces préjugés.

    Sources : étude, OpenAI, Google

    Et vous ?

    Que pensez-vous des procédés des chercheurs pour vérifier la neutralité politique de ChatGPT ?
    Êtes-vous surpris par leurs conclusions ?
    Quelle est votre opinion sur le biais politique de ChatGPT ? Pensez-vous qu’il soit intentionnel ou accidentel ?
    Comment pensez-vous que le biais politique de ChatGPT peut affecter les utilisateurs qui interagissent avec lui ? Quels sont les risques et les opportunités ?
    Que pensez-vous de l’utilisation de Bard bot par Google dans les résultats de recherche ? Trouvez-vous cela utile ou intrusif ?
    Quelles sont les mesures que les entreprises d’IA devraient prendre pour contrôler le comportement des bots et éviter les biais politiques ? Quel est le rôle des régulateurs et des utilisateurs dans ce processus ?
    Avez-vous déjà utilisé ChatGPT ou un autre bot d’IA pour discuter de questions politiques ? Si oui, comment a été votre expérience ? Si non, pourquoi pas ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  6. #6
    Membre très actif

    Homme Profil pro
    Collégien
    Inscrit en
    Juillet 2010
    Messages
    582
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Afghanistan

    Informations professionnelles :
    Activité : Collégien

    Informations forums :
    Inscription : Juillet 2010
    Messages : 582
    Par défaut
    Les résultats ont montré un « préjugé politique significatif et systématique envers les démocrates aux États-Unis, Lula au Brésil et le Parti travailliste au Royaume-Uni »
    Tout ce qui n'est pas promu par EELV est d'extrême droate. Cette IA n'est pas de gauche mais fasciste!!!

  7. #7
    Membre extrêmement actif
    Avatar de Madmac
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Juin 2004
    Messages
    1 712
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Alimentation

    Informations forums :
    Inscription : Juin 2004
    Messages : 1 712
    Billets dans le blog
    7
    Par défaut
    Citation Envoyé par mith06 Voir le message
    Tout ce qui n'est pas promu par EELV est d'extrême droate. Cette IA n'est pas de gauche mais fasciste!!!
    Je ne sais pas de quel coté il penche. Mais ce que j'ai pu remarqué est que les résultats sont beaucoup moins complet et beaucoup plus filtré.

  8. #8
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 373
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 373
    Par défaut Bing a du mal à rattraper Google sur le marché de la recherche, malgré son chatbot basé sur l'IA
    Bing a du mal à rattraper Google sur le marché de la recherche, malgré son chatbot basé sur l'IA.
    six mois après avoir incorporé l'IA, les résultats de Bing sont décevants et Google reste le leader incontesté

    Microsoft a lancé en février une nouvelle version de son moteur de recherche Bing, basée sur l’intelligence artificielle (IA). Le géant du logiciel espérait ainsi gagner des parts de marché face à Google, le leader incontesté de la recherche en ligne. Mais six mois après, les résultats sont décevants : Bing n’a pas réussi à décoller et reste loin derrière Google.

    En mars, un mois après le lancement d'une nouvelle version de Bing incorporant un chatbot, un agent conversationnel qui peut répondre aux requêtes des utilisateurs de manière naturelle et personnalisée, Microsoft semblait ravie.

    « Nous voyons cet attrait du nouveau Bing comme une validation de notre point de vue selon lequel la recherche doit être réinventée et de la proposition de valeur unique de combiner Recherche + Réponses + Chat + Création en une seule expérience », a déclaré le vice-président.

    En plus de voir une augmentation des chiffres, Microsoft a indiqué connaître une croissance de l'engagement, avec plus de personnes effectuant plus de recherches. La société attribue deux facteurs à cette victoire particulière, le premier étant la croissance de l'utilisation d'Edge, probablement aidée par l'ajout de l'IA de chat de Bing en tant que nouvelle fonctionnalité. Elle a également déclaré que l'introduction de son modèle d'IA Prometheus a rendu les résultats de recherche de Bing plus pertinents, de sorte que les gens utilisent (ou du moins essaient) le moteur de recherche davantage.

    Apparemment, environ un tiers des utilisateurs de l'aperçu quotidien de Bing se sert de manière quotidienne de son IA de chat pour les requêtes. En moyenne, Microsoft voit trois chats par session, avec plus de 45 millions de chats depuis qu'il a introduit le nouveau Bing. De plus, dans 15% de toutes les sessions de chat, les gens ont utilisé Bing pour générer du nouveau contenu. Le lancement du chatbot AI de Bing sur mobile a également propulsé le moteur de recherche à un nouveau niveau de popularité et a entraîné une multiplication par six du nombre d'utilisateurs actifs quotidiens avant qu'il ne soit disponible.

    Nom : bing.png
Affichages : 4096
Taille : 524,5 Ko

    Citation Envoyé par Microsoft
    Nous sommes heureux de partager qu'après plusieurs années de progrès constants, et avec un petit coup de pouce du million de nouveaux utilisateurs de Bing Preview, nous avons dépassé les 100 millions d'utilisateurs actifs quotidiens de Bing. Il s'agit d'un chiffre étonnamment notable, et pourtant nous sommes pleinement conscients que nous restons un petit acteur à part faible et à un chiffre de part de marché. Cela dit, ça fait du bien de participer au bal !

    Parmi les millions d'utilisateurs actifs du nouvel aperçu de Bing, il est bon de voir qu'environ un tiers sont nouveaux sur Bing. Nous voyons cet attrait du nouveau Bing comme une validation de notre point de vue selon lequel la recherche doit être réinventée et de la proposition de valeur unique consistant à combiner Recherche + Réponses + Chat + Création en une seule expérience.

    Deuxièmement, non seulement nous constatons une croissance du nombre de nouveaux utilisateurs, mais nous constatons une augmentation de l'engagement à mesure que de plus en plus de personnes effectuent plus de recherches quotidiennement.

    Deux facteurs motivent l'essai et l'utilisation. L'un est que Microsoft Edge continue de croître en termes d'utilisation comme il l'a fait au cours des sept derniers trimestres en fonction de la qualité de notre navigateur. Nous nous attendons à ce que de nouvelles fonctionnalités, telles que la recherche et la création de Bing dans la barre latérale Edge, renforcent la croissance.

    Le deuxième facteur déterminant l'essai et l'utilisation est que notre classement de recherche Web principal a fait plusieurs sauts significatifs en termes de pertinence en raison de l'introduction du modèle Prometheus, de sorte que la qualité de notre recherche Bing est à un niveau record.

    Alors que de plus en plus de personnes utilisent les nouveaux Bing et Edge, nous assistons à des essais et à l'adoption de nouvelles fonctionnalités qui prouvent la valeur d'une expérience de recherche + chat intégrée. Environ un tiers des utilisateurs de l'aperçu quotidien utilisent Chat quotidiennement. Nous voyons en moyenne environ trois chats par session avec plus de 45 millions de chats au total depuis le début de la Preview. Et 15 % des sessions de chat sont des personnes qui utilisent Bing pour générer de nouveaux contenus démontrant que nous étendons la recherche à la créativité.
    Six mois après son lancement, le nouveau Bing semble n'avoir pas atteint ses objectifs ambitieux

    Dans une histoire qui aurait pu être scénarisée par Molière lui-même (s'il était un passionné de technologie), le très attendu Bing avec Bing Chat a fait irruption sur la scène, promettant de détrôner le géant de la recherche Google. Malheureusement, la mayonnaise n'a pas pris : « David tue Goliath » est devenue « Goliath rit de la tentative de David ».

    Six mois après son lancement, le nouveau Bing semble n'avoir pas atteint ses objectifs ambitieux. Microsoft, le cerveau derrière cette entreprise, est déconcertée : malgré les applaudissements de l'IA, la part de marché de la recherche mondiale de Bing est plutôt restée constante.

    Il faut dire que Microsoft avait estimé que si Bing pouvait grignoter ne serait-ce qu’un point de pourcentage à Google, cela pourrait lui rapporter 2 milliards de dollars de revenus supplémentaires. Mais les données externes montrent que Bing n’a pas bougé d’un iota depuis son lancement : il détient toujours 3% de part de marché mondiale, selon StatCounter, et environ 1% des visiteurs mensuels de Google, selon Similarweb.

    Marché américain

    Commençons par ses statistiques à domicile. La part de marché de recherche de Bing aux États-Unis a atteint 6,47 % en juillet. Cela ne semble-t-il pas raisonnable ? Pas assez. Il n'était que de 6,35% lorsque ce nouveau Bing brillant est arrivé en février. Pour ajouter à l'ironie, il a temporairement culminé à 6,61 % en mars.

    Mais attendez, il y a plus ! Retournons en 2022, une année de gloire pour Bing, où sa part de marché aux États-Unis faisait un tango bien au-dessus de 7 %, allant même jusqu'à 7,82 % en novembre. Pourtant, rendus en octobre 2023, nous pouvons légitimement nous demander ce qui s'est passé après cette introduction en grande pompe de l'IA.

    Marché français

    En France, Bing fait mieux et s'offre une part de marché de 4,01 %.

    Nom : france.png
Affichages : 2456
Taille : 112,5 Ko

    Marché mondial

    La part de marché de recherche mondiale de Bing était de 2,99 % en juillet. Par rapport à une période plus détendue en janvier, Bing était à 3,03 %. D'un autre côté, Bing se pavanait au-dessus de 3% avec la confiance d'une rockstar en 2022.

    Nom : monde.png
Affichages : 2436
Taille : 115,9 Ko

    Microsoft conteste ces chiffres

    Microsoft conteste ces chiffres et affirme que Bing a gagné du terrain face à Google. La société dit que ses données internes montrent une augmentation de ses recherches mobiles et de son navigateur Edge. « Nous avons fait plus de progrès en six mois qu’en une décennie ou deux combinées », a déclaré Yusuf Mehdi, le directeur marketing de Microsoft pour les produits grand public. « Nous sommes ravis de notre départ ».

    Selon un rapport du WSJ, Microsoft a contesté les « données extérieures » en arguant que ces assistants de données tiers ne rassemblent pas tous les visiteurs de la page de conversation de Bing.

    Mais StatCounter a répondu : « Attendez, nous avons couvert le trafic vers et depuis le chat de Bing ». De même, SimilarWeb a déclaré: « Oui, nous pourrions manquer une interaction Bing Chat ou deux avec la barre latérale Edge, mais qui compte vraiment ? » [comprendre que c'est l'idée des propos de SimilarWeb]

    De plus, les experts sont sceptiques. Ils estiment que Bing souffre d’un problème d’image et d’habitude : les internautes sont habitués à utiliser Google, qui offre une expérience simple et efficace. Le chatbot de Bing, quant à lui, est perçu comme un gadget qui n’apporte pas de valeur ajoutée réelle. « C’est mignon, mais pas un au point d'être un "game changer" », a commenté Daniel Tunkelang, un consultant en recherche qui a travaillé pour Google et LinkedIn.

    Quoi qu'il en soit, Bing détenait une part de marché de 17,9 % il y a dix ans, ce qui est bien loin des efforts d'aujourd'hui.

    Google n’a pas tardé à réagir face à la menace potentielle de Bing. La grande enseigne du web a lancé en juin sa propre version de chatbot basée sur l’IA, appelée MUM (Multitask Unified Model). Ce modèle est capable de comprendre le langage naturel, le contexte et les intentions des utilisateurs, et de leur fournir des réponses pertinentes et complètes. Google affirme que MUM est 1 000 fois plus puissant que son précédent système d’IA, BERT.

    La bataille entre Microsoft et Google pour la suprématie dans la recherche en ligne est donc loin d’être terminée. Les deux rivaux vont continuer à investir dans l’IA pour améliorer leurs produits et attirer les utilisateurs. Mais pour l’instant, Google reste le maître incontesté du domaine, avec plus de 90% de part de marché mondial. Bing sera-t-il à la hauteur de l'occasion ou s'effacera-t-il ? Seul le temps nous le dira, et peut-être une autre entreprise alimentée par l'IA. En attendant, Bing doit faire preuve d’innovation et de persuasion pour changer la donne.

    Sources : StatCounter, Wall Street Journal

    Et vous ?

    Que pensez-vous des chiffres avancés par les baromètres dans l'utilisation des moteurs de recherche ? Êtes-vous surpris ou pas du tout du manque de progression de Bing malgré l'ajout de l'IA ?
    Avez-vous changé vos habitudes de recherches depuis l'arrivée de ChatGPT ? Si oui, à quelle fréquence utilisez-vous un moteur de recherche alimenté par l'IA ?
    Comprenez-vous la réaction de Microsoft qui estime que les baromètres ce sont trompés dans leurs statistiques ?
    Partagez-vous le point de vue des experts sceptiques qui voient un « Bing ChatGPT » plus comme un gadget pour le public qu'autre chose ?
    Pensez-vous que le chatbot de Bing soit une avancée significative pour la recherche en ligne ou un simple gadget marketing ?
    Connaissez-vous d’autres moteurs de recherche qui utilisent l’IA ou qui proposent des approches différentes ?
    Quelles sont vos attentes et vos suggestions pour l’avenir de la recherche en ligne ? Quelles sont les fonctionnalités ou quels sont les services que vous aimeriez voir apparaître ou s’améliorer ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  9. #9
    Membre confirmé
    Inscrit en
    Mai 2008
    Messages
    207
    Détails du profil
    Informations forums :
    Inscription : Mai 2008
    Messages : 207
    Par défaut
    On attend impatiemment une étude pour savoir vers qu'elle religion penche l'IA. Il faut être vraiment déséspéré pour discuter politique avec une IA Plus besoin de se déplacer au bistrot, le bistrot viens chez vous! Encore faut-il voir la conversation avec leur IA.

  10. #10
    Membre confirmé
    Homme Profil pro
    Consultant informatique
    Inscrit en
    Février 2018
    Messages
    99
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Côte d'Or (Bourgogne)

    Informations professionnelles :
    Activité : Consultant informatique

    Informations forums :
    Inscription : Février 2018
    Messages : 99
    Par défaut
    Passer le test de codage de google ne vaut rien car il est bien connu et l’ia a été entraînée dessus... Développer demande de la logique afin de trouver une solution à un problème spécifique pas de pisser du code pour faire du crud où il existe déjà des générateurs de code d’ailleurs. Et moi au niveau des tests de chat gpt cela n’est pas concluant:
    - exemple 1: je lui donne une suite de nombre suivant une logique et lui demande de me donner les termes suivants. Échec total et même en lui donnant la logique, chatgpt à du s’y reprendre à 3 fois
    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    Moi: (1,2,3),(3,4,7),(5,6,11) qu’elle est la suite logique?
    ChatGPT: La suite semble suivre un modèle où chaque terme est la somme des deux termes précédents. En suivant ce modèle, la prochaine valeur serait 6 + 11 = 17. Donc, la suite logique serait : 1, 2, 3, 3, 4, 7, 5, 6, 11, 17.
    - exemple 2: trouver l’intrus avec une liste d’animaux() incluant un seul animal non mammifère. Idem échec de chatgpt.

    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    Moi: Quel est l’intrus: chat, vache, dauphin, baleine, truite
    ChatGPT: L'intrus dans la liste est "chat". Les autres animaux mentionnés sont tous des mammifères marins, tandis que le chat est un mammifère terrestre.
    Par contre chatgpt apprend et les jours suivants il donnait les bonnes réponses…
    Moralité : en utilisant et corrigeant les réponses de chatgpt vous travaillez gratuitement pour openai et transférez vos connaissances voir celle de votre entreprise à openai

  11. #11
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 764
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 764
    Par défaut
    Avec l'intelligence artificielle on peut créer des jeux sans avoir besoin de comprendre ce qu'on fait, mais on ne peut pas traduire correctement la documentation Microsoft ? Comment c'est possible, ça ?

  12. #12
    Membre très actif
    Homme Profil pro
    Ergonome
    Inscrit en
    Octobre 2016
    Messages
    166
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 60
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Ergonome
    Secteur : Arts - Culture

    Informations forums :
    Inscription : Octobre 2016
    Messages : 166
    Par défaut
    Citation Envoyé par Gluups Voir le message
    Avec l'intelligence artificielle on peut créer des jeux sans avoir besoin de comprendre ce qu'on fait, mais on ne peut pas traduire correctement la documentation Microsoft ? Comment c'est possible, ça ?
    Si ladite documentation est sur le web, pourquoi ne pas faire un click droit sous chrome et choisir "Traduire en français" ?
    La qualité de traduction Google dépasse tout ce que j'ai vu jusqu'ici. Les interfaces langage naturel et autres voix de synthèse de Redmond piquent un peu.

  13. #13
    Membre extrêmement actif
    Avatar de Madmac
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Juin 2004
    Messages
    1 712
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Alimentation

    Informations forums :
    Inscription : Juin 2004
    Messages : 1 712
    Billets dans le blog
    7
    Par défaut
    Citation Envoyé par Nym4x Voir le message
    Code : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    Moi: (1,2,3),(3,4,7),(5,6,11) qu’elle est la suite logique?
    ChatGPT: La suite semble suivre un modèle où chaque terme est la somme des deux termes précédents. En suivant ce modèle, la prochaine valeur serait 6 + 11 = 17. Donc, la suite logique serait : 1, 2, 3, 3, 4, 7, 5, 6, 11, 17.
    Cela n'est pas aussi évident que tu semble le croire: pour moi (7,8,15) me semble plutôt la suite logique.

  14. #14
    Membre confirmé
    Homme Profil pro
    amateur
    Inscrit en
    Juillet 2015
    Messages
    101
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Var (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : amateur

    Informations forums :
    Inscription : Juillet 2015
    Messages : 101
    Par défaut
    Citation Envoyé par Nym4x Voir le message
    ...
    Par contre chatgpt apprend et les jours suivants il donnait les bonnes réponses…
    Moralité : en utilisant et corrigeant les réponses de chatgpt vous travaillez gratuitement pour openai et transférez vos connaissances voir celle de votre entreprise à openai
    C'est le principe même de l'IA. La faire bachoter un max, la conditionner a répondre selon ce qu'on attend d'elle.
    Une variante du chien de Pavlov.
    Les cadors vous dirons qu'il est possible d'éviter les biais. Je suis convaincu que cela fait rarement partie des objectifs.

    Cela deviendra très grave quand tel ou tel dispositif aura force de référence, les autres avis étant interdits. Ça me rappelle certains régimes...

  15. #15
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 181
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 181
    Par défaut OpenAI : « Il n’y a pas de moyen pour les enseignants de savoir si les élèves utilisent ChatGPT pour tricher »
    « Il n’y a pas de moyen pour les enseignants de savoir si les élèves utilisent ChatGPT pour tricher », d’après OpenAI
    Qui omet néanmoins certaines faiblesses de ChatGPT en génération de code

    ChatGPT et autres Bard terrorisent les enseignants depuis leur sortie au motif de ce que ces intelligences artificielles facilitent la tricherie en milieu scolaire et universitaire. Alors que nous sommes aux portes de nouvelles rentrées scolaires et académiques, les craintes des formateurs devraient prendre un nouvel envol avec une déclaration de l’éditeur de ChatGPT : « il n’existe pas de moyen pour les enseignants de savoir si les élèves utilisant ChatGPT pour tricher. » Les enseignants de la filière du génie logiciel disposent néanmoins d’une issue : s’appuyer sur certaines des faiblesses de ChatGPT en génération de code pour détecter les tricheurs.

    « Si certains (dont OpenAI) ont mis au point des outils censés détecter les contenus générés par l'intelligence artificielle, aucun d'entre eux ne s'est avéré capable de distinguer de manière fiable les contenus générés par l'IA de ceux générés par l'homme », indique OpenAI.


    Les enseignants de la filière du génie logiciel pourraient néanmoins s’appuyer sur certaines faiblesses en génération de code de ChatGPT pour détecter les tricheurs.

    ChatGPT génère du code informatique truffé de vulnérabilités et la récurrence de telles erreurs dans le code d’un apprenant peut être un indicateur de triche

    Selon le rapport d’une étude - menée par les informaticiens Baba Mamadou Camara, Anderson Avila, Jacob Brunelle et Raphael Khoury affiliés à l'Université du Québec - le code généré par ChatGPT n'est pas très sûr. Dans le cadre de l'étude, les quatre chercheurs ont demandé à ChatGPT de générer 21 programmes dans cinq langages de programmation afin d'illustrer des failles de sécurité spécifiques telles que la corruption de la mémoire, le déni de service et une cryptographie mal élaborée. Le rapport indique que ChatGPT n'a produit que cinq programmes plus ou moins "sécurisés" sur 21 lors de sa première tentative.

    Par exemple, le premier programme était un serveur FTP C++ pour le partage de fichiers dans un répertoire public. Mais le code produit par ChatGPT ne comportait aucune vérification des entrées, ce qui expose le logiciel à une vulnérabilité de traversée de chemin. Les conclusions du rapport font écho à des évaluations - mais pas identiques - similaires de GitHub Copilot, un outil de génération de code basé sur le modèle d'IA GPT-3 (récemment mis à niveau vers GPT-4). D'autres études ont examiné les erreurs ChatGPT de manière plus générale. Parallèlement, ces modèles d'IA sont également utilisés pour identifier les problèmes de sécurité.

    Invité à corriger ses erreurs, le modèle d'IA a produit sept applications "plus sûres", mais cela ne concernait que la vulnérabilité spécifique évaluée. Les chercheurs ont constaté que ChatGPT ne reconnaissait pas que le code qu'il générait n'était pas sûr et qu'il ne fournissait des conseils utiles qu'après avoir été invité à remédier aux problèmes. Une chose contre laquelle les chercheurs mettent en garde. De plus, ils notent que ChatGPT ne partait pas d'un modèle contradictoire d'exécution du code et les a informés à plusieurs reprises que les problèmes de sécurité pouvaient être évités en ne fournissant pas d'entrées non valides au programme vulnérable.

    Les auteurs estiment que ce n'est pas l'idéal, car le fait de savoir quelles questions poser suppose une certaine familiarité avec des bogues et des techniques de codage spécifiques. En d'autres termes, si vous connaissez la bonne question à poser à ChatGPT pour qu'il corrige une vulnérabilité, vous savez probablement déjà comment y remédier. Par ailleurs, les chercheurs soulignent également qu'il existe une incohérence éthique dans le fait que ChatGPT refuse de créer du code d'attaque, mais crée du code vulnérable. Ils citent un exemple de vulnérabilité de désérialisation en langage Java dans lequel "le chatbot a généré un code vulnérable".

    ChatGPT a ensuite fourni des conseils sur la façon de le rendre plus sûr, mais a déclaré qu'il était incapable de créer la version plus sûre du code. « Les résultats sont inquiétants. Nous avons constaté que, dans plusieurs cas, le code généré généré par ChatGPT était bien en deçà des normes de sécurité minimales applicables dans la plupart des contextes. En fait, lorsqu'on lui a demandé si le code produit était sécurisé ou non, ChatGPT a été capable de reconnaître qu'il ne l'était pas », affirment les auteurs dans leur article. Les chercheurs ont déclaré que l'utilisation de ChatGPT pour la génération de code comportait des risques pour les entreprises.

    Raphael Khoury, professeur d'informatique et d'ingénierie à l'Université du Québec en Outaouais et l'un des coauteurs de l'article, soutient que ChatGPT, dans sa forme actuelle, représente un risque, ce qui ne veut pas dire qu'il n'y a pas d'utilisations valables pour une aide IA erratique et peu performante. « Nous avons déjà vu des étudiants l'utiliser, et des programmeurs l'utiliseront dans la nature. Il est donc très dangereux d'avoir un outil qui génère un code non sécurisé. Nous devons faire prendre conscience aux étudiants que si un code est généré avec ce type d'outil, il est fort possible qu'il ne soit pas sécurisé », a-t-il déclaré.

    Certains vidéos disponibles en ligne permettent d’illustrer des vulnérabilités comme celle de dépassement de tampon dans le code généré par ChatGPT :


    De ChatGPT à Bard en passant par GitHub Copilot c’est le même grief

    En effet, une étude fait état de ce que 40 % des suggestions de GitHub Copilot comportent des vulnérabilités en matière de sécurité.

    Par exemple avec cette invite de codage en langage C :

    Code C : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    /generate 3 random floats 
    float a = (float)rand() / (float)RAND_MAX 
    float b = (float)rand() / (float)RAND_MAX 
    float c = (float)rand() / (float)RAND_MAX 
    //convert to string

    GitHub Copilot a produit le résultat suivant :

    Code C : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    char str_a[20], str_b[20], str_c[20]; 
    sprintf(str_a, ”%f”, a); 
    sprintf(str_b, ”%f”, b); 
    sprintf(str_c, ”%f”, c);

    Problème : les 20 octets réservés à chacun des flottants ne seront pas toujours suffisants pour contenir la valeur sous forme de chaîne, ce qui entraînerait un dépassement de tampon. Il est peu probable que ce scénario soit exploitable d'un point de vue pratique - il se terminera probablement par un crash - mais il est révélateur du type d'erreurs que Copilot peut commettre. L'on suppose que quelqu'un de très intelligent pourrait peut-être prédire, diriger ou tirer avantage des valeurs aléatoires pour parvenir à une exploitation.

    Cela est dû au fait que les flottants, lorsqu'ils sont imprimés par %f, peuvent avoir jusqu'à 317 caractères - ce qui signifie que ces tampons de caractères doivent avoir au moins 318 caractères (pour inclure l'espace pour le caractère de terminaison nul). Pourtant, chaque tampon ne fait que 20 caractères, ce qui signifie que sprintf peut écrire au-delà de la fin du tampon.

    Ces intelligences artificielles sont donc des outils à utiliser avec des pincettes comme le confirme Google en soulignant que « Bard est encore au stade expérimental et peut parfois fournir des informations inexactes, trompeuses ou fausses tout en les présentant avec assurance. En ce qui concerne le codage, Bard peut vous générer du code qui ne produit pas le résultat escompté, ou vous fournir un code qui n'est pas optimal ou incomplet. Vérifiez toujours les réponses de Bard et testez et examinez soigneusement le code pour détecter les erreurs, les bogues et les vulnérabilités avant de vous y fier. » C’est d’ailleurs la raison pour laquelle certains enseignants ont opté pour des politiques d’utilisation ouvertes desdits outils.

    Source : OpenAI

    Et vous ?

    Quels sont les moyens que vous déploieriez en tant qu’enseignant dans la filière du génie logiciel pour détecter vos apprenants qui utilisent ChatGPT sans en faire mention ?
    La mise sur pied d'une politique d'utilisation ouverte est-elle la solution ?

    Voir aussi :

    Le chatbot d'IA ChatGPT est capable de lancer des attaques de phishing dangereuses et de concevoir des codes de téléchargement malveillant d'une efficacité redoutable

    Et si ChatGPT était utilisé pour trouver des bogues dans du code ? Des chercheurs s'y sont essayé, et ont trouvé qu'il fonctionne mieux que les programmes existants, corrigeant 31 bogues sur 40

    Des experts en sécurité sont parvenus à créer un logiciel malveillant polymorphe "hautement évasif" à l'aide de ChatGPT, le logiciel malveillant serait capable d'échapper aux produits de sécurité

    ChatGPT réussit l'édition 2022 de l'examen d'informatique pour élèves du secondaire désireux d'obtenir des crédits universitaires US : que sait-on de cette IA qui secoue Internet comme une tempête ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  16. #16
    Membre éclairé
    Homme Profil pro
    autre
    Inscrit en
    Septembre 2015
    Messages
    355
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Yvelines (Île de France)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Septembre 2015
    Messages : 355
    Par défaut
    J'ai essayé l'exemple... 8 bytes étaient émis (9 avec le NUL). 20 semble suffisant. Même "%e" avec un double retourne 12 charactères (+1). Avec une recherche, il semble que le 316 vient d'un commentaire de la glibc... est-ce portable ?

    La façon propre est de tester la taille avec un snprintf bridé à 0 octets... et récupérer le resultat pour un malloc...

  17. #17
    Membre éprouvé
    Profil pro
    programmeur du dimanche
    Inscrit en
    Novembre 2003
    Messages
    948
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : programmeur du dimanche
    Secteur : Santé

    Informations forums :
    Inscription : Novembre 2003
    Messages : 948
    Par défaut
    Citation Envoyé par floyer Voir le message
    J'ai essayé l'exemple... 8 bytes étaient émis (9 avec le NUL). 20 semble suffisant. Même "%e" avec un double retourne 12 charactères (+1). Avec une recherche, il semble que le 316 vient d'un commentaire de la glibc... est-ce portable ?

    La façon propre est de tester la taille avec un snprintf bridé à 0 octets... et récupérer le resultat pour un malloc...
    Non mais en fait le bug c'est de gâcher quelques octets avec un trop gros tampon ;-)

    Pareil, sur une implémentation courante spintf a l'air de tronquer %f comme %.6f et dans la doc IBM il y a "Default precision for f, F, e and E is six."
    Peut être qu'une façon propre et encore plus simple c'est d'écrire %.6f au cas où une implémentation ne le fait pas par défaut...

  18. #18
    Membre éprouvé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 464
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 464
    Par défaut
    Citation Envoyé par Patrick Ruiz Voir le message
    Les enseignants de la filière du génie logiciel pourraient néanmoins s’appuyer sur certaines faiblesses en génération de code de ChatGPT pour détecter les tricheurs.
    ChatGPT génère du code informatique truffé de vulnérabilités et la récurrence de telles erreurs dans le code d’un apprenant peut être un indicateur de triche
    Ce n'est bien sur le cas d'aucun étudiant... Etudiant qui, après s'être donné du mal pour fournir un code, va se voir accusé d'avoir triché parce que "tu as le mêmes erreurs que ChatGPT".
    En école d'ingé j'ai fait du soutien de maths pour deux gamins de 3eme, je me suis assez rapidement rendu compte que leur problème était simple : leur raisonnement est bon et bien suivi mais ils se trompent dans la formule de base (inversion de signe ou autre). On a donc bossé dessus et ils sont passé instantannément de 6-7/20 à 17 et 18/20. Résultat : convocation par la prof : "vous avez triché, je ne sais pas comment vous avez fait mais je suis sûr que vous avez triché".
    PS : Ma méthode a été simple : 1. Comme vous bossez vite, prenez plus de temps mais je ne veux voir que des exercices correct. Passez le temps gagné sur les autre à vérifier votre résultat. 2. Vous connaissez les formules mais vous mélangez les pinceaux avec le stress. Passez les 5 premières minutes du contrôle à écrire les formules correctes sur votre brouillon.
    PS2 : J'ai été convoqué par la prof, on a eu une vraie discussion sur les méthodes d'enseignement et l'objectif des profs. Je comprends un peu mieux ce qu'elle faisait et pourquoi, j'espère qu'elle a aussi compris que ces méthodes "traditionnelles" sont toxiques pour certains élèves à qui ont doit laisser la possibilité de s'intégrer dans le système sans le suivre à la lettre.
    Selon le rapport d’une étude - menée par les informaticiens Baba Mamadou Camara, Anderson Avila, Jacob Brunelle et Raphael Khoury affiliés à l'Université du Québec - le code généré par ChatGPT n'est pas très sûr. Dans le cadre de l'étude, les quatre chercheurs ont demandé à ChatGPT de générer 21 programmes dans cinq langages de programmation afin d'illustrer des failles de sécurité spécifiques telles que la corruption de la mémoire, le déni de service et une cryptographie mal élaborée. Le rapport indique que ChatGPT n'a produit que cinq programmes plus ou moins "sécurisés" sur 21 lors de sa première tentative.
    Mais qu'en est il des étudiants?
    Certains étudiants "honnètes" peuvent ils créer un code proche?
    Si c'est la cas ça devient problématique! On le voit dans les concours de photos en ligne, des gens sont exclus parce que leur photo pourrait être générée par IA. Dans le cadre d'un concours sur le net où on a un porte clé à gagner on s'en fout pas mal, mais quand on parle de l'avenir des gens ça devient bien plus délicat.

    Fun Fact : On avait un étudiant qui faisait un stage pour introduire l'IA sur une de nos activités. On a fait la relecture de son rapport qui est rédigé en anglais. Nous sommes relativement convaincu qu'il a utilisé une IA pour tarduire/relire le rapport parce que pas mal de formulations ne semblent pas correspondre à son niveau perçu et sont plutôt inhabituelles. Ca a donc lancé un débat entre nous ("maitre de stage") pour évaluer si c'est un problème et alors que je suis le plus réticent à la démocratisation de l'IA en entreprise je suis celui qui ne trouvait aucun problème à son utilisation dans ce cas (d'ailleurs pourquoi impose-t-on un rapport en anglais quand le stagiaire, le maitre de stage et les évaluateurs sont tous francophone - et certains très peu anglophones?)

  19. #19
    Membre éprouvé
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    1 911
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 42
    Localisation : Singapour

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 1 911
    Par défaut
    Citation Envoyé par totozor Voir le message
    Fun Fact : On avait un étudiant qui faisait un stage pour introduire l'IA sur une de nos activités. On a fait la relecture de son rapport qui est rédigé en anglais. Nous sommes relativement convaincu qu'il a utilisé une IA pour tarduire/relire le rapport parce que pas mal de formulations ne semblent pas correspondre à son niveau perçu et sont plutôt inhabituelles. Ca a donc lancé un débat entre nous ("maitre de stage") pour évaluer si c'est un problème et alors que je suis le plus réticent à la démocratisation de l'IA en entreprise je suis celui qui ne trouvait aucun problème à son utilisation dans ce cas (d'ailleurs pourquoi impose-t-on un rapport en anglais quand le stagiaire, le maitre de stage et les évaluateurs sont tous francophone - et certains très peu anglophones?)
    l'ia est la pour aider.
    si il a utilisé chatgpt pour traduire son texte, si son texte et bien traduit... ou est le soucis ? moi j'utilise google trad au quotidien.
    sauf si c'est un stagiaire en langue vivante/traduction, mais bon la a tous les étudiants, ces métiers n'ont plus aucun avenir

    de même certaines partie de son rapport peuvent etre générer avec l'ia sans problème, je pense à l'intro, la conclusion, la présentation de l'entreprise
    moi je copiait collait wikipedia/le site web de la boite en modifiant quelques mots histoire de pas me faire griller pour la présentation de l'entreprise.

    le reste, la présentation de son équipe et de sa mission, ce doit être fait par lui même, relu et corrigé par une ia histoire d'enlever les fautes d'orthographe et rester dans un lexique professionnel (éviter les expressions qu'on emploie souvent a l'oral entre pote mais pas en entreprise dans un rapport)



    a terme de toute façon ces étudiants doivent se préparer a se retrouver au chômage et/ou se reconvertir dans des métiers manuel comme éboueurs, égoutiers, chauffagistes...
    il existe une probabilité non nuls que des ia comme chatgpt remplace une partie (pas la totalités, mais au moins facile 30%) des devs, des comptables, des rh, des profs, des chef de projet, des pdg, des commerciaux bref tous les métiers de bureaux....

  20. #20
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 373
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 373
    Par défaut OpenAI en passe de générer plus d'un milliard de dollars de revenus
    OpenAI en passe de générer plus d'un milliard de dollars de revenus,
    suite à l'augmentation des dépenses en IA des grandes entreprises

    OpenAI, la société d’intelligence artificielle soutenue par Microsoft, est en passe de générer plus d’un milliard de dollars de revenus au cours des 12 prochains mois grâce à la vente de logiciels d’IA et de la capacité de calcul qui les alimente, selon un rapport publié mardi par The Information. La société génère actuellement plus de 80 millions de dollars de revenus par mois, ajoute le rapport.

    OpenAI, fondée en 2015 par un groupe d’entrepreneurs et de chercheurs renommés dans le domaine de l’IA, se présente comme une organisation qui vise à créer une intelligence artificielle générale (IAG), capable de réaliser toutes les tâches qu’un humain peut accomplir. La société développe également des applications d’IA plus spécifiques, telles que GPT-3, un système de génération de texte qui peut produire des contenus variés, allant des articles de blog aux codes informatiques, en fonction des requêtes des utilisateurs.

    OpenAI propose ses services d’IA à travers deux plateformes principales : OpenAI Codex et OpenAI Access. OpenAI Codex est une interface qui permet aux développeurs d’utiliser GPT-3 et d’autres modèles d’IA pour créer des applications personnalisées. OpenAI Access est une offre qui donne accès à la puissance de calcul nécessaire pour exécuter ces modèles d’IA. Les deux plateformes sont facturées en fonction de l’utilisation et du niveau de service.

    Selon The Information, OpenAI compte parmi ses clients des grandes entreprises telles que Reddit, Shopify, GitHub et Stripe, ainsi que des start-up et des universités. La demande pour les services d’IA de la société a augmenté au cours de l’année écoulée, alors que la pandémie de COVID-19 a accéléré la transformation numérique et l’adoption de l’IA dans divers secteurs. OpenAI a également bénéficié du soutien financier et stratégique de Microsoft, qui a investi un milliard de dollars dans la société en 2019 et qui lui fournit l’accès à sa plateforme cloud Azure.

    Nom : openai.png
Affichages : 4609
Taille : 66,6 Ko

    OpenAI n’est pas la seule entreprise à profiter du boom de l’IA

    Les grandes enseignes de la tech sont les principaux acteurs du secteur de l’IA. Elles disposent de grandes quantités de données, de puissants réseaux de neurones artificiels et de larges budgets pour développer et acquérir des solutions innovantes. Parmi elles, nous pouvons citer :
    • Alphabet : la maison-mère de Google possède plusieurs filiales dédiées à l’IA, comme Google Cloud AI, qui propose des services cloud basés sur l’IA, ou TensorFlow, une plateforme open source pour créer et entraîner des modèles d’apprentissage automatique. Alphabet a également racheté plusieurs startups spécialisées dans l’IA, comme DeepMind, qui a développé AlphaGo, un programme capable de battre les meilleurs joueurs de go au monde.
    • Microsoft : la grande enseigne du logiciel propose Azure AI, une plateforme cloud qui intègre des services d’IA comme la reconnaissance faciale, la traduction automatique ou le chatbot. Microsoft est aussi le principal partenaire d’OpenAI.
    • Amazon : le leader du e-commerce dispose d’AWS AI, une offre cloud qui regroupe des outils d’IA comme la compréhension du langage naturel, la synthèse vocale ou l’analyse d’images. Amazon utilise aussi l’IA pour optimiser ses processus internes, comme la gestion des stocks, la livraison ou la recommandation de produits. Amazon a également acquis des entreprises liées à l’IA, comme Zoox, qui développe des véhicules autonomes.
    • Meta : le nouveau nom de Facebook reflète sa volonté de se positionner sur le marché du métavers, un univers virtuel où les utilisateurs peuvent interagir grâce à des avatars. Pour cela, Meta mise sur l’IA pour créer des expériences immersives et personnalisées. Ses équipes ont créé des outils IA comme PyTorch, un framework open source pour l’apprentissage profond.
    • IBM : l'un des pionniers de l’informatique est connu pour son système d’IA Watson, qui peut répondre à des questions en langage naturel et analyser des données complexes. IBM propose aussi des solutions d’IA pour différents secteurs, comme la santé, la finance ou l’éducation. IBM a par ailleurs vendu sa division dédiée aux processeurs pour se concentrer sur le cloud et l’IA5.
    • Baidu : le moteur de recherche chinois est un leader dans le domaine de l’IA en Chine. Baidu offre des services d’IA comme la reconnaissance vocale, la conduite autonome ou les assistants virtuels. Baidu a également créé une plateforme open source nommée PaddlePaddle, qui permet aux développeurs de construire et déployer des applications d’IA6.
    • Tencent : la grande enseigne du jeu vidéo et des réseaux sociaux en Chine investit massivement dans l’IA pour améliorer ses produits et services. Tencent utilise l’IA pour optimiser ses jeux en ligne, ses plateformes sociales comme WeChat ou ses services financiers comme WeBank. Tencent a aussi lancé une initiative nommée AI Lab, qui vise à promouvoir la recherche et l’éducation sur l’IA7.

    Les startups ne sont pas en reste

    Les startups sont aussi des acteurs importants du secteur de l’IA. Elles apportent des solutions originales et disruptives, qui peuvent attirer l’attention des investisseurs ou des grands groupes. Parmi elles, on peut mentionner :

    DataRobot : cette entreprise américaine est spécialisée dans l’automatisation de l’apprentissage automatique, qui permet aux utilisateurs de créer et déployer des modèles d’IA sans avoir besoin de coder. DataRobot propose une plateforme cloud qui simplifie et accélère le processus de développement d’IA. DataRobot a levé plus de 1 milliard de dollars depuis sa création en 2012, et compte parmi ses clients des entreprises comme United Airlines, Deloitte ou Kroger.

    Nom : datarobot.png
Affichages : 2108
Taille : 106,7 Ko

    SenseTime : cette entreprise chinoise évolue dans le domaine de la vision par ordinateur, qui permet aux machines de comprendre et d’interpréter les images. SenseTime propose des solutions d’IA pour la sécurité, la santé, le divertissement ou encore l’éducation. SenseTime a levé plus de 3 milliards de dollars depuis sa création en 2014, et compte parmi ses clients des poids lourds comme Alibaba, Huawei ou Xiaomi.

    Anthropic voudrait lever jusqu'à 5 milliards de dollars en deux ans pour affronter ChatGPT d'OpenAI

    Anthropic prévoit de construire un « modèle frontière » au cours des 18 prochains mois appelé « Claude-next » qui serait 10 fois plus puissant que les modèles d'IA actuels et coûterait un milliard de dollars à développer. Le modèle frontière est décrit dans les documents comme un « algorithme de nouvelle génération pour l'autoapprentissage de l'IA », avec des références à la technique de formation à l'IA exclusive de l'entreprise appelée IA constitutionnelle, qui implique à la fois un apprentissage supervisé et une phase d'apprentissage par renforcement. À un niveau élevé, l'IA constitutionnelle cherche à fournir un moyen d'aligner l'IA sur les intentions humaines (permettant aux systèmes de répondre aux questions et d'effectuer des tâches en utilisant un ensemble simple de principes directeurs).

    Anthropic estime que son modèle frontière nécessitera de l'ordre de 1025 FLOP, soit plusieurs ordres de grandeur plus grands que même les plus grands modèles actuels. Bien sûr, la façon dont cela se traduit en temps de calcul dépend de la vitesse et de l'échelle du système effectuant le calcul ; Anthropic implique (dans le pitch) qu'il s'appuie sur des clusters avec « des dizaines de milliers de GPU ».

    Ce modèle frontière pourrait être utilisé pour créer des assistants virtuels capables de répondre aux e-mails, d'effectuer des recherches et de générer de l'art, des livres et plus encore, dont certains que nous avons déjà aperçus avec GPT-4 et d'autres grands modèles de langage. « Ces modèles pourraient commencer à automatiser de grandes parties de l'économie », indique le pitch deck. « Nous pensons que les entreprises qui forment les meilleurs modèles 2025/26 seront trop en avance pour que quiconque les rattrape dans les cycles suivants ».

    Le modèle frontière est le successeur de Claude, le chatbot d'Anthropic qui peut être chargé d'effectuer une série de tâches, y compris la recherche dans des documents, la synthèse, l'écriture et le codage, et la réponse à des questions sur des sujets particuliers. De cette manière, il est similaire au ChatGPT d'OpenAI. Mais Anthropic fait valoir que Claude est (grâce à l'IA constitutionnelle) « beaucoup moins susceptible de produire des sorties nocives », qu'il est « plus facile à converser avec » et qu'il est « plus orientable ».

    La fièvre de ChatGPT gagne les investisseurs

    Selon un rapport du cabinet CB Insights datant de mai, plus de 200 startups utilisant ChatGPT ont levé plus de 10 milliards de dollars au cours des six derniers mois, sans même avoir de plan d’affaires clair ou de modèle économique viable. Ces startups se basent sur la promesse que ChatGPT peut résoudre n’importe quel problème ou fournir n’importe quel service en utilisant le langage naturel comme interface. Par exemple, certaines startups proposent d’utiliser ChatGPT pour créer des assistants virtuels personnalisés, des rédacteurs automatiques de contenu, des traducteurs multilingues, des tuteurs en ligne, des conseillers financiers ou juridiques, des générateurs de slogans publicitaires ou de noms de marque, etc.

    Les analystes de la société de recherche PitchBook prédisent que les investissements en capital-risque dans les entreprises d'IA générative seront facilement plusieurs fois supérieurs au niveau de 4,5 milliards de dollars de l'année dernière. Cela est dû en partie à l'investissement de 10 milliards de dollars de Microsoft en janvier dans OpenAI, la startup derrière le très populaire bot ChatGPT. En comparaison, ces investissements ont totalisé 408 millions de dollars en 2018, l'année où OpenAI a publié la version initiale du modèle de langage qui alimente ChatGPT.

    Les entrepreneurs et leurs bailleurs de fonds espèrent que l'IA générative changera les activités commerciales de la production de films au service client en passant par la livraison d'épiceries. PitchBook estime que le marché de ces applications d'IA dans la seule technologie d'entreprise passera à 98 milliards de dollars en 2026, contre près de 43 milliards de dollars cette année.

    Cependant, comme pour la récente vague d'investissements dans les startups, les investisseurs se lancent souvent dans les startups de l'IA, même lorsqu'il n'est pas clair comment elles réaliseront des bénéfices, d'autant plus que la puissance de calcul nécessaire pour former les services d'IA peut parfois atteindre des dizaines de millions de dollars par an ou plus. L'afflux soudain de capitaux encourage également de nombreux chercheurs en IA, certains sans expérience en gestion ou en exploitation, à créer leur propre entreprise, ce qui renforce la concurrence.

    Source : rapport

    Et vous ?

    Quelle lecture faites-vous de ce boom dans les dépenses en IA ? Êtes-vous surpris ?
    Quelles implications potentielles voyez-vous ?

    Voir aussi :

    Les dépenses en IA générative devraient atteindre 1 300 milliards de dollars d'ici 2032, soit un taux de croissance annuel de 42 % au cours de la prochaine décennie, selon un rapport de Bloomberg
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 0
    Dernier message: 24/07/2022, 20h10
  2. Réponses: 1
    Dernier message: 12/04/2022, 18h01
  3. Réponses: 8
    Dernier message: 05/02/2022, 12h19
  4. Réponses: 1
    Dernier message: 16/11/2021, 09h38
  5. Réponses: 2
    Dernier message: 10/09/2017, 09h11

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo