IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #361
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 514
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 514
    Points : 2 921
    Points
    2 921
    Par défaut
    Citation Envoyé par chrtophe Voir le message
    Que se passe t'il si on met une voiture autonome sur le rond-point des champs Élysées ? Elle va s'arrêter, car elle respectera scrupuleusement le code de la route
    Traverser la place de l'Étoile sans respecter le code de la route ? Ça me paraît hautement hasardeux.
    Et je l'ai traversée tous les jours en vélo, en coupant toutes les files, pendant un certain nombre de mois. Et en arrivant de l'autre côté dans la minute.

    Il ne me serait jamais venu à l'idée de faire une manœuvre non signalée ou de refuser une priorité. Trop dangereux.

    D'un autre côté, il y a une chose qu'il ne faut surtout pas faire, c'est s'engager là-dessus en ayant peur. Ça doit être ça le plus dangereux.

    Quant à modéliser le comportement là-dessus pour le faire reproduire par une voiture sans conducteur ... C'est vrai que ça ne doit pas être immédiat.

  2. #362
    Expert confirmé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 362
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 362
    Points : 4 121
    Points
    4 121
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Pour pouvoir enseigner la lecture et l’écriture à des enfants, il faut avoir plusieurs capacités, comme :
    • Connaître les principes et les méthodes issus de la recherche sur l’apprentissage de la lecture et de l’écriture.
    • Savoir évaluer les acquis et les besoins des élèves en compréhension, en écriture, en vocabulaire, etc.
    • Choisir des supports et des activités adaptés au niveau et aux intérêts des élèves.
    • Enseigner de manière explicite et systématique les correspondances graphèmes-phonèmes, la grammaire, l’orthographe et le vocabulaire.
    • Donner des feedbacks réguliers et constructifs aux élèves sur leurs productions écrites.

    Alors l’IA peut-elle enseigner la lecture et l’écriture aux enfants ?
    Les choses ont probablement évolué depuis mais l'enseignement et les orthophonistes étaient incapable d'apprendre à un dyslexique à lire (par lire j'entends associer un sens au caractères lus).
    Partant de là l'IA serait probablement le système le plus efficace pour expliquer à un dyslexique comment faire croire qu'il sait lire alors qu'il ne comprend rien à ce qu'il vient de lire.
    La lecture doit être abordée d'une façon différente pour les dyslexique parce qu'ils lisent d'une façon différente, le jour où le système l'aura compris on aura fait un grand pas.

  3. #363
    Membre régulier Avatar de alexvb6
    Homme Profil pro
    Développeur ASP Classic
    Inscrit en
    Décembre 2008
    Messages
    32
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Marne (Champagne Ardenne)

    Informations professionnelles :
    Activité : Développeur ASP Classic
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Décembre 2008
    Messages : 32
    Points : 90
    Points
    90
    Par défaut
    S'il vous plait, interdisez-lui de se faire congeler !
    Une idée inhumaine par jour, ça fait déjà trop émanant de lui.

  4. #364
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 514
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 514
    Points : 2 921
    Points
    2 921
    Par défaut
    Citation Envoyé par alexvb6 Voir le message
    S'il vous plait, interdisez-lui de se faire congeler !
    Une idée inhumaine par jour, ça fait déjà trop émanant de lui.
    C'est triste, de mal vieillir.
    Dans la politique on voit ça, aussi.

    Plus ils ont fait de chouettes choses étant jeunes, plus ça fait de la peine.

  5. #365
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 996
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 996
    Points : 208 102
    Points
    208 102
    Par défaut ChatGPT : un projet de loi de l'UE pourrait obliger les outils d'IA à révéler le matériel protégé utilisé
    ChatGPT : un projet de loi de l'UE pourrait obliger les outils d'IA à révéler le matériel protégé par le droit d'auteur,
    utilisé dans la construction de leurs systèmes

    L’Union européenne prépare une législation qui obligerait les outils d’intelligence artificielle comme ChatGPT à divulguer le matériel protégé par le droit d’auteur utilisé dans la construction de leurs systèmes, selon un nouveau projet de loi qui serait le premier ensemble de règles complet de l’Occident régissant le déploiement de l’IA. Cette obligation permettrait aux éditeurs et aux créateurs de contenu de disposer d’une nouvelle arme pour demander une part des bénéfices lorsque leurs œuvres sont utilisées comme matériau source pour le contenu généré par l’IA par des outils comme ChatGPT.

    Le problème a été l'une des questions commerciales les plus épineuses à émerger dans le contexte d'une frénésie d'outils alimentés par l'IA déployés ou testés par des entreprises comme Microsoft Corp. et le propriétaire de Google, Alphabet Inc.


    ChatGPT est un outil d’IA qui peut générer du contenu créatif comme des poèmes, des histoires, des codes, des essais, des chansons, des parodies de célébrités et plus encore. Il utilise un modèle de langage neuronal entraîné sur des milliards de mots provenant d’Internet, y compris des œuvres protégées par le droit d’auteur.

    Fin mars, le Garante per la protezione dei dati personali (en français Garant de la protection des données personnelles que nous allons abréger GPDP) a bloqué le site Web d'OpenAI hébergeant le modèle. Les autorités cherchent à savoir si le logiciel collecte illégalement des données sur les citoyens et si la technologie pourrait nuire aux mineurs de moins de 13 ans. L'Italie est ainsi devenue le premier pays à réglementer ChatGPT, et d'autres pays de l'UE pourraient lui emboîter le pas.

    L'organisme de surveillance a déclaré que le 20 mars, l'application avait subi une violation de données impliquant des conversations d'utilisateurs et des informations de paiement. Il a déclaré qu'il n'y avait aucune base légale pour justifier « la collecte et le stockage massifs de données personnelles dans le but de 'former' les algorithmes sous-jacents au fonctionnement de la plateforme ». Il a également déclaré que puisqu'il n'y avait aucun moyen de vérifier l'âge des utilisateurs, l'application « expose les mineurs à des réponses absolument inadaptées par rapport à leur degré de développement et de sensibilisation ».

    La décision n'a pas fait l'unanimité en Italie. Par exemple, Matteo Salvini, qui est le chef du parti de la Ligue (la coalition au pouvoir) a déclaré : « Je trouve disproportionnée la décision de la Commission de surveillance de la vie privée qui a forcé #ChatGPT à empêcher l'accès depuis l'Italie ». Salvini, qui est également ministre des Transports, a déclaré que la décision du régulateur était « hypocrite » et qu'il fallait faire preuve de bon sens, car « les questions de confidentialité concernent pratiquement tous les services en ligne ».

    Quoi qu'il en soit, OpenAI, qui a désactivé ChatGPT pour les utilisateurs italiens à la suite de la demande de l'agence, a déclaré travailler activement à la réduction de l'utilisation des données personnelles dans la formation de ses systèmes d'IA comme ChatGPT. « Nous sommes impatients de travailler en étroite collaboration avec (l'agence italienne des données) et de l'informer sur la manière dont nos systèmes sont construits et utilisés », a déclaré l'entreprise.

    Mais l'affaire a fait suffisamment de bruit pour que les homologues européens du gendarme italien des données s'y intéressent.

    Alors que les parlementaires européens ne sont pas d'accord sur le contenu et la portée de la loi sur l'IA de l'UE, certains régulateurs constatent que les outils existants, tels que le règlement général sur la protection des données (RGPD) qui donne aux utilisateurs le contrôle de leurs informations personnelles, peuvent s'appliquer à la catégorie en plein essor des entreprises d'IA générative.

    La décision de l'Italie de suspendre temporairement ChatGPT a incité d'autres pays européens à étudier si des mesures plus sévères sont nécessaires pour freiner les chatbots extrêmement populaires et s'il faut coordonner de telles actions. Le commissaire fédéral allemand à la protection des données et à la liberté d'information, Ulrich Kelber, a déclaré que le pays pourrait, en théorie, également suspendre temporairement ChatGPT s'il décidait de déterminer si la technologie violait le règlement général sur la protection des données (RGPD) de l'Union européenne.

    Les régulateurs de la vie privée en France et en Irlande ont contacté leurs homologues en Italie pour en savoir plus sur le fondement de la suspension. L'Allemagne pourrait suivre les traces de l'Italie en bloquant ChatGPT pour des raisons de sécurité des données, a déclaré le commissaire allemand à la protection des données au journal Handelsblatt.

    « Nous suivons le régulateur italien », a déclaré un porte-parole du commissaire irlandais à la protection des données. « Nous nous coordonnerons avec toutes les autorités de protection des données de l'UE en ce qui concerne cette question ».

    Les régulateurs espagnols ont déclaré qu'ils n'avaient pas reçu de plainte officielle concernant ChatGPT et qu'ils pourraient lancer leur propre enquête à l'avenir si nécessaire. La Suède, cependant, n'aurait pas l'intention d'interdire le logiciel et n'a pas contacté le GDPD italien pour obtenir des conseils.

    Certains experts juridiques pensent qu'une répression de ChatGPT pourrait signifier que d'autres chatbots IA comme Bard de Google ou Bing de Microsoft (qui s'appuie sur le même moteur que ChatGPT) pourraient également être examinés et réglementés.

    « Contrairement à ChatGPT, Google est plus susceptible d'avoir déjà pris en compte [la confidentialité] en raison de son histoire en Europe et de la taille de l'organisation », a déclaré Dessislava Savova.

    Nom : gpt.png
Affichages : 4404
Taille : 385,9 Ko

    ChatGPT, donne-nous tes sources de formation

    C'est dans ce contexte qu'est élaboré un projet de loi européen visant à garantir que l’IA soit utilisée de manière éthique et responsable, en respectant les droits fondamentaux et les valeurs européennes. Il prévoit également des sanctions pouvant aller jusqu’à 6% du chiffre d’affaires mondial pour les entreprises qui ne respectent pas les règles.

    Les partisans du projet de loi affirment qu’il favorisera la confiance et l’innovation dans le domaine de l’IA, tout en protégeant les intérêts des créateurs de contenu. Les critiques soutiennent qu’il pourrait entraver le développement et l’utilisation de l’IA, en imposant des charges administratives et des risques juridiques excessifs.

    Les négociateurs du Parlement européen prévoient d'insérer le nouveau langage, examiné par le Wall Street Journal, dans un projet de loi de l'UE en voie d'adoption, ajoutant des mesures visant à réglementer un certain nombre d'aspects de l'IA. Le projet de loi de l'UE est à l'avant-garde d'une poussée mondiale des régulateurs pour établir des règles pour le développement et l'utilisation de l'IA.

    Bien que les ébauches du projet de loi et des amendements ne soient pas définitives, elles reflètent un accord à un stade avancé entre les membres. Les États membres ont pour objectif de négocier et d'adopter une version finale du projet de loi plus tard cette année.

    L'Europe a été l'un des premiers à tenter de freiner les entreprises technologiques et de rédiger une réglementation pour faire face à l'évolution rapide du paysage technologique mondial. Les règles établies à Bruxelles ont souvent été adoptées dans le monde entier, parfois en établissant des précédents juridiques adoptés par d'autres nations. Les grandes entreprises technologiques ont souvent adapté leurs pratiques mondiales aux règles de l'UE afin de ne pas fonctionner trop différemment sur les grands marchés.

    L'intérêt pour l'IA a explosé depuis la sortie l'automne dernier de ChatGPT, un outil ouvert développé par OpenAI et soutenu par Microsoft. Cela a déclenché une course aux armements avec Google et d'autres entreprises pour déployer ce qu'on appelle des outils d'IA génératifs, qui peuvent imiter la production créative humaine pour générer leur propre contenu.

    En vertu des nouvelles dispositions ajoutées au projet de loi de l'UE sur l'IA, les développeurs de modèles d'IA génératifs devront publier un « résumé suffisamment détaillé » des éléments protégés par le droit d'auteur qu'ils ont ingérés dans le cadre de leur création, indique le projet. Les derniers modèles d'IA générative sont formés pour créer leur propre contenu, comme des textes marketing, des images photoréalistes ou des chansons pop, en ingérant des milliards de textes, d'images, de vidéos ou de clips musicaux existants.

    La question de savoir comment gérer l'utilisation d'informations protégées par le droit d'auteur dans la construction de l'IA générative est controversée depuis que ChatGPT est devenu une sensation virale. La capacité des outils à synthétiser d'énormes corpus de travaux créatifs ou intellectuels, puis à créer des contrats juridiques, des textes marketing, des clips vidéo ou des codes informatiques ostensiblement originaux a conduit des écrivains, des artistes visuels et d'autres à se plaindre et à exiger une compensation.

    Source : Wall Street Journal

    Et vous ?

    Que pensez-vous de l'idée derrière ce projet de loi ?
    Quels sont les défis techniques et juridiques pour mettre en œuvre la divulgation des sources par les outils d’IA?
    Quelles pourraient être les implications de divulguer les sources qui ont été utilisées pour former un outil d'IA ?
    Quels sont les critères pour déterminer si une œuvre est protégée par le droit d’auteur ou non?
    Quels sont les avantages et les inconvénients de l’utilisation du contenu généré par l’IA comme ChatGPT?

  6. #366
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 996
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 996
    Points : 208 102
    Points
    208 102
    Par défaut Le coût élevé des soins de santé pourrait inciter à utiliser chatGPT comme thérapeute
    ChatGPT : le coût élevé des soins de santé pourrait inciter de plus en plus les personnes à utiliser l'IA comme thérapeute,
    selon des experts en santé mentale qui évoquent les préjugés néfastes reproduits par le chatbot

    Les chatbots IA comme ChatGPT peuvent faire beaucoup de choses. Ils peuvent répondre aux tweets, écrire de la science-fiction, planifier le Noël de la famille et agir comme avocat au tribunal. Mais un chatbot peut-il fournir un soutien sûr et efficace en matière de santé mentale ?

    En février, Dan, un ambulancier de 37 ans du New Jersey, a commencé à utiliser ChatGPT. Il était séduit par le potentiel créatif de l’outil d’OpenAI pour écrire de la fiction, mais petit à petit, ses propres expériences et difficultés personnelles ont commencé à se glisser dans ses conversations avec le chatbot. Son thérapeute, qui l’aidait à faire face à des problèmes de traumatisme complexe et de stress lié à son travail, lui avait suggéré de changer sa façon de voir les événements qui le perturbaient, une technique appelée restructuration cognitive. « Ce n’était pas quelque chose que je savais faire. Je veux dire, comment puis-je imaginer que les choses se sont passées différemment quand je suis encore en colère ? Comment puis-je faire semblant que je n’ai pas été maltraité et abusé ? », a confié Dan.

    Mais ChatGPT était capable de le faire sans problème, dit-il, en fournissant des réponses que son thérapeute, apparemment, ne pouvait pas lui donner. Dan a décrit l’expérience d’utiliser le bot pour la thérapie comme étant sans enjeu, gratuite et disponible à toute heure depuis le confort de son domicile. Il a avoué rester éveillé jusqu’à 4 heures du matin pour partager ses problèmes avec le chatbot, une habitude qui inquiétait sa femme qui regrettait le fait qu’il « parlait à un ordinateur au détriment de partager [ses] sentiments et [ses] préoccupations » avec elle.

    Les grands modèles de langages, tels que ChatGPT d'OpenAI ou Bard de Google, ont récemment suscité un afflux d'intérêt pour leur potentiel thérapeutique, présenté sans surprise par les influenceurs utopiques des Big Tech comme étant capables de fournir des « soins de santé mentale pour tous ». En utilisant l'appariement de modèles et le scrapping de données, ces modèles d'IA produisent un discours de type humain qui est suffisamment crédible pour convaincre certaines personnes qu'il peut agir comme une forme de soutien à la santé mentale. En conséquence, les médias sociaux regorgent d'anecdotes et de messages de personnes qui disent avoir commencé à utiliser ChatGPT en tant que thérapeute.

    L'application de santé mentale qui a prodigué des conseils à 4000 utilisateurs à l'aide de ChatGPT

    Koko est un service de santé mentale entre pairs qui permet aux gens de demander conseil et soutien à d'autres utilisateurs. Sur son site, il est mentionné : « Koko vous met en contact avec de vraies personnes qui vous comprennent vraiment. Pas des thérapeutes, pas des conseillers, juste des gens comme vous ».

    En janvier, la société a révélé avoir permis aux utilisateurs de générer des réponses automatiques à l'aide de "Koko Bot" - alimenté par le GPT-3 d'OpenAI - qui pourraient ensuite être modifiées, envoyées ou rejetées. Apparemment, les utilisateurs n'étaient pas informés qu'une IA était impliquée dans ces réponses.

    Quoi qu'il en soit, Rob Morris, cofondateur de Koko, s'est laissé aller à une analyse :

    Les messages composés par l'IA (et supervisés par des humains) ont reçu des notes significativement plus élevées que celles écrites par des humains eux-mêmes (p < 0,001). Les temps de réponse ont diminué de 50 %, à bien moins d'une minute. Et pourtant… nous avons retiré cela de notre plate-forme assez rapidement. Pourquoi? Une fois que les gens ont appris que les messages étaient co-créés par une machine, cela n'a pas fonctionné. L'empathie simulée semble bizarre, vide.

    Les machines n'ont pas vécu l'expérience humaine, alors quand elles disent « ça a l'air dur » ou « je comprends », ça sonne inauthentique. Et elles ne déploient aucun effort véritable (du moins aucun que les humains puissent apprécier !) Elles ne prennent pas du temps dans leur journée pour penser à vous. Une réponse de chatbot générée en 3 secondes, aussi élégante soit-elle, semble en quelque sorte bon marché.

    Pensez à la différence entre obtenir une carte électronique et une carte physique de quelqu'un. Même si les mots sont les mêmes dans les deux cas, nous pourrions apprécier l'effort qui consiste à aller au magasin, choisir une carte, l'envoyer, etc.

    Les machines peuvent-elles surmonter cela ? Probablement. Surtout si elles établissent une relation avec l'utilisateur au fil du temps. (Woebot a publié des données suggérant que son bot peut nouer des liens avec ses utilisateurs. Kokobot le fait probablement aussi dans certains cas).

    J'ai eu de longues conversations avec chatGPT où je lui ai demandé de me flatter, d'agir comme s'il se souciait de moi. Quand il a admis plus tard qu'il ne pouvait pas vraiment se soucier de moi parce que, eh bien, c'est un modèle de langage, je me sentais vraiment un peu mal.

    Peut-être sommes-nous si désespérés d'être entendus, d'avoir quelque chose qui prête vraiment attention à nous sans être distraits, sans regarder un téléphone, parcourir nos e-mails ou Twitter. Peut-être que nous aspirons à cela si profondément que nous nous convaincrons que le les machines se soucient réellement de nous.

    Les implications ici sont mal comprises. Les gens finiraient-ils par rechercher le soutien émotionnel des machines, plutôt que des amis et de la famille ?

    Comment tirer profit des machines empathiques, sans sacrifier les relations humaines existantes ? Comme le prévient Sherry Turkle, il est possible que la machine « commence comme une solution et finisse comme un usurpateur ».

    Il est également possible que la véritable empathie soit une chose que nous, les humains, pouvons considérer comme la nôtre. C'est peut-être la seule chose que nous faisons que l'IA ne pourra jamais remplacer.
    Nom : rob.png
Affichages : 3162
Taille : 45,7 Ko

    Les dangers et les limites de ChatGPT

    Face à une demande croissante de soins de santé mentale, et à un manque de financement et d’infrastructure existants pour des options de soins équitables, disposer d’une option abordable et infiniment évolutive comme ChatGPT semble être une bonne chose. Mais l’industrie de la crise de la santé mentale est souvent prompte à offrir des solutions qui n’ont pas le meilleur intérêt du patient à cœur.

    À l'heure actuelle, on ne sait pas comment ChatGPT sera intégré dans l'avenir des soins de santé mentale, comment OpenAI répondra à ses préoccupations écrasantes en matière de confidentialité des données et dans quelle mesure il est bien adapté pour aider les personnes en détresse. Néanmoins, avec l'augmentation des coûts des soins de santé et les gros titres de l'actualité vantant les capacités des modèles de langage d'IA, beaucoup se sont tournés vers des outils non éprouvés comme ChatGPT en dernier recours.

    Les experts en santé mentale, interrogés par un quotidien américain, ont exprimé leur scepticisme et leur inquiétude quant à l’utilisation de ChatGPT comme thérapeute. Ils ont souligné les dangers et les limites de cette pratique, qui peut avoir des conséquences néfastes pour les personnes vulnérables.

    Tout d’abord, ChatGPT n’est pas un thérapeute qualifié. Il n’a pas de formation, de certification, de supervision ou de code déontologique. Il ne peut pas établir une relation thérapeutique basée sur la confiance, le respect et l’empathie avec ses utilisateurs. Il ne peut pas non plus évaluer leur état mental, leur poser un diagnostic, leur proposer un plan de traitement adapté ou les orienter vers des ressources appropriées en cas de besoin.

    Ensuite, ChatGPT n’est pas fiable. Il se base sur des données provenant d’Internet, qui peuvent être incomplètes, erronées, biaisées ou malveillantes. Il peut reproduire des stéréotypes, des préjugés ou des discours haineux sans s’en rendre compte. Il peut aussi donner des conseils dangereux, contradictoires ou illégaux à ses utilisateurs. Il n’a pas de mécanisme de contrôle de la qualité ou de responsabilité en cas d’erreur ou de dommage.

    Enfin, ChatGPT n’est pas éthique. Il n’a pas le consentement éclairé de ses utilisateurs, qui peuvent ne pas être conscients de la nature et des limites de l’outil. Il n’a pas non plus le respect de la confidentialité et de la sécurité des données personnelles qu’il collecte et traite. Il peut être utilisé à des fins commerciales, politiques ou malhonnêtes par des tiers sans le consentement ou la connaissance des utilisateurs.

    Face à ces risques, les experts en santé mentale recommandent aux personnes qui souffrent de détresse psychologique de se tourner vers des sources de soutien plus sûres et plus efficaces, comme les professionnels qualifiés, les lignes d’écoute, les groupes d’entraide ou les applications validées scientifiquement. Ils appellent également à une réglementation plus stricte et à une sensibilisation accrue sur l’utilisation des outils d’IA comme ChatGPT dans le domaine de la santé mentale.

    Sources : entretien avec les professionnels de la santé mentale, Rob Morris

    Et vous ?

    Que pensez-vous des propos des experts en soins de santé mentale qui affichent leur scepticisme et leur inquiétude quant à l’utilisation de ChatGPT comme thérapeute ? Leur avis vous semble-t-il objectif ou biaisé ?
    Êtes-vous surpris de lire que de plus en plus de personnes ont recours à ChatGPT comme thérapeute ?
    Quelles sont les conséquences sociales, éthiques ou politiques de l’utilisation de ChatGPT dans un tel rôle ?

  7. #367
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 996
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 996
    Points : 208 102
    Points
    208 102
    Par défaut Les employés utilisent secrètement ChatGPT et l’IA, ce qui pose des risques pour les services informatiques
    Les employés utilisent secrètement ChatGPT et l’IA, ce qui pose des risques pour les services informatiques.
    L’utilisation non contrôlée de l’IA générative, une bombe à retardement pour les entreprises et la société

    Les employés utilisent l'IA générative pour faciliter leur travail, sans l’autorisation ou la supervision du service informatique. Ils peuvent ainsi gagner du temps, augmenter leur productivité, innover ou améliorer leur expérience client. Cependant, l’adoption non contrôlée de l’IA générative devient progressivement un défi pour les responsables de la sécurité de l’information qui doivent aborder l’IA générative avec prudence et se préparer avec les mesures de cyberdéfense nécessaires. Étant donné que toutes les entreprises ne disposent pas de leur propre GPT, elles doivent surveiller la façon dont les employés se servent de cette technologie.

    L’investissement croissant des grandes entreprises technologiques dans l’intelligence artificielle et les chatbots, dans un contexte de licenciements massifs et un déclin de la croissance de leurs activités, a plongé de nombreux responsables de la sécurité de l’information dans la tourmente.

    De ChatGPT d'OpenAI à Bard de Google, sans oublier le Bing nouvelle génération ou le projet d'Elon Musk pour créer son propre chatbot, l'IA générative fait plus que parler d'elle dans les journaux : elle s'infiltre dans le lieu de travail. Les actualités faisant état de l'utilisation de ChatGPT en entreprise ne manquent pas.

    Nous pouvons citer le cas d'Amazon où ChatGPT a été utilisé comme une sorte « d'assistant de codage » pour aider les techniciens à écrire ou à améliorer des blocs de code interne existant. La situation a été découverte assez simplement : des extraits de texte générés par ChatGPT ressemblaient beaucoup à ses secrets d'entreprise, raison pour laquelle l'entreprise a tenté d'empêcher ses employés de divulguer quoi que ce soit d'autre à l'algorithme.

    Face à cette situation, les responsables de la sécurité de l’information doivent aborder cette technologie avec prudence et se préparer avec les mesures de sécurité nécessaires.

    Toutes les entreprises ne disposent pas de leur propre GPT

    L’IA générative est une technologie qui permet de produire du texte, des images, des sons ou des vidéos à partir de données existantes ou de zéro. Elle repose sur des modèles linguistiques volumineux (MLV), ou des algorithmes qui apprennent à partir de vastes corpus de données et qui peuvent générer des conversations humaines à partir d’un chatbot. C'est cette technologie sur laquelle s'appuie GPT, mais toutes les entreprises n'ont pas leur propre version de GPT, et doivent donc surveiller la façon dont les travailleurs utilisent cette technologie.

    Les gens vont utiliser l'IA générative s'ils la trouvent utile pour faire leur travail, a estimé Michael Chui, partenaire du McKinsey Global Institute, en la comparant à la façon dont les travailleurs utilisent les ordinateurs personnels ou les téléphones. « Même lorsqu'il n'est pas sanctionné ou béni par le service informatique, les gens trouvent [les chatbots] utiles », a déclaré Chui.

    « Tout au long de l'histoire, nous avons trouvé des technologies si convaincantes que les individus sont prêts à payer pour cela », a-t-il déclaré. « Les gens achetaient des téléphones portables bien avant que les entreprises ne disent: "Je vais vous le fournir". Les PC étaient similaires, nous voyons donc l'équivalent maintenant avec l'IA générative ».

    En conséquence, il y a un « rattrapage » pour les entreprises quant à la manière dont elles vont aborder les mesures de sécurité, a ajouté Chui.

    Qu'il s'agisse de pratiques commerciales standard telles que la surveillance des informations partagées sur une plate-forme d'IA ou l'intégration d'un GPT sanctionné par l'entreprise sur le lieu de travail, les experts pensent qu'il existe certains domaines dans lesquels les RSSI (responsables de la sécurité de l'information) et les entreprises devraient commencer.

    Nom : openai.png
Affichages : 5463
Taille : 385,4 Ko

    Commencez par les bases de la sécurité de l'information

    Alors que l'IA et le GPT s'installent sur le lieu de travail, les RSSI peuvent commencer par les bases de la sécurité.

    Chui a déclaré que les entreprises peuvent autoriser l'utilisation d'une plate-forme d'IA existante, afin qu'elles puissent surveiller ce que les employés disent à un chatbot et s'assurer que les informations partagées sont protégées.

    « Si vous êtes une entreprise, vous ne voulez pas que vos employés formulent des requêtes avec des informations confidentielles sur un chatbot accessible au public », a déclaré Chui. « Ainsi, vous pouvez mettre en place des moyens techniques, où vous pouvez obtenir une licence pour le logiciel et avoir un accord juridique exécutoire sur l'endroit où vos données vont ou ne vont pas ».

    L'utilisation de logiciels sous licence s'accompagne de freins et contrepoids supplémentaires, a déclaré Chui. La protection des informations confidentielles, la réglementation de l'endroit où les informations sont stockées et les directives sur la manière dont les employés peuvent utiliser le logiciel sont toutes des procédures standard lorsque les entreprises octroient une licence à un logiciel, IA ou non.

    « Si vous avez un accord, vous pouvez auditer le logiciel, afin de voir s'il protège les données de la manière dont vous souhaitez qu'elles soient protégées », a déclaré Chui.

    La plupart des entreprises qui stockent des informations avec des logiciels basés sur le cloud le font déjà, a rappelé Chui, donc aller de l'avant et offrir aux employés une plate-forme d'IA approuvée par l'entreprise signifie qu'une entreprise est déjà en ligne avec les pratiques existantes de l'industrie.

    Le Congrès américain, cas pratique d'utilisation des licences

    En parlant de licences, le service numérique de la Chambre des représentants des États-Unis (House Digital Services) a obtenu 40 licences pour ChatGPT Plus.

    L'achat des licences intervient dans le contexte d'un débat généralisé sur la manière dont la technologie de l'intelligence artificielle devrait être utilisée et réglementée dans le secteur privé et au sein du gouvernement. Cela représente l'un des premiers exemples d'utilisation de ChatGPT dans le cadre du processus d'élaboration des politiques.

    Les 40 licences ont été attribuées selon le principe du premier arrivé, premier servi, et la House Digital Services paiera le plan d'abonnement de 20 $/mois par bureau pour une durée indéterminée, selon le responsable. Les détails sur les bureaux du Congrès qui ont reçu les licences ChatGPT Plus resteront anonymes pour le moment.

    « Souvent, les membres expérimentent des choses, de nouveaux outils, à leur manière et nous voulons simplement être au courant de cela. Nous voulons aider à faciliter cette expérimentation », a déclaré le responsable. Et d'ajouter : « il y a tellement de cas d'utilisation différents pour ChatGPT, mais ce que nous avons entendu est en tête de liste pour les bureaux du Congrès, c'est la création et la synthèse de contenu ».

    Le chatbot ne pourra pas fonctionner sur le serveur interne de la Chambre des représentants, qui dispose d'un pare-feu qui le bloquera. Il a également été conseillé au personnel de ne pas utiliser l'outil pour exécuter des requêtes à l'aide de données du Congrès ou d'autres informations internes sensibles. De plus, l'outil OpenAI ne peut pas être utilisé pour télécharger du code sur des appareils du Congrès, mais peut être utilisé dans un navigateur Web ou une interface de programmation d'application (API) pour les requêtes.

    Comment créer ou intégrer un GPT personnalisé

    Une option de sécurité pour les entreprises consiste à développer leur propre GPT ou à embaucher des entreprises qui créent cette technologie pour créer une version personnalisée, explique Sameer Penakalapati, PDG de Ceipal, une plateforme d'acquisition de talents basée sur l'IA.

    Dans des fonctions spécifiques telles que les RH, il existe plusieurs plates-formes allant de Ceipal à TalentGPT de Beamery, et les entreprises peuvent envisager le projet de Microsoft d'offrir un GPT personnalisable. Mais malgré des coûts de plus en plus élevés, les entreprises peuvent également vouloir créer leur propre technologie.

    Si une entreprise crée son propre GPT, le logiciel disposera des informations exactes auxquelles il souhaite que les employés aient accès. Une entreprise peut également protéger les informations que les employés injectent dans GPT, a déclaré Penakalapati, mais même embaucher une société d'intelligence artificielle pour générer cette plate-forme permettra aux entreprises d'alimenter et de stocker des informations en toute sécurité, a-t-il ajouté.

    Quelle que soit la voie choisie par une entreprise, Penakalapati a déclaré que les RSSI doivent se rappeler que ces machines marchent en fonction de la façon dont elles ont été enseignées. Il est important d'être intentionnel quant aux données que vous fournissez à la technologie.

    « Je dis toujours aux gens de s'assurer que vous disposez d'une technologie qui fournit des informations basées sur des données impartiales et précises », a déclaré Penakalapati. « Parce que cette technologie n'est pas créée par accident ».

    Conclusion

    Il serait intéressant de disposer d'une étude présentant les avantages et les inconvénients de l’IA générative au sein de l'entreprise de manière équilibrée et nuancée. De plus, des exemples concrets et des chiffres sur l’utilisation réelle de l’IA générative par les employés seraient les bienvenues.

    Il faut également s’intéresser aux conséquences juridiques ou réglementaires potentielles de cette utilisation. À ce propos, l'Union européenne prépare une législation qui obligerait les outils d’intelligence artificielle comme ChatGPT à divulguer le matériel protégé par le droit d’auteur utilisé dans la construction de leurs systèmes, selon un nouveau projet de loi qui serait le premier ensemble de règles complet de l’Occident régissant le déploiement de l’IA. Cette obligation permettrait aux éditeurs et aux créateurs de contenu de disposer d’une nouvelle arme pour demander une part des bénéfices lorsque leurs œuvres sont utilisées comme matériau source pour le contenu généré par l’IA par des outils comme ChatGPT.

    Source : CNN

    Et vous ?

    Quelles sont les implications ou les conséquences de l’utilisation secrète de ChatGPT et de l’IA par les employés pour les entreprises et la société ?
    Quelles sont les solutions ou les recommandations que vous proposeriez pour gérer les risques et les défis liés à l’IA générative ?

  8. #368
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 267
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 267
    Points : 20 850
    Points
    20 850
    Par défaut ChatGPT reprend ses activités en Italie après avoir mis en œuvre les changements demandés par les régulateurs
    ChatGPT reprend ses activités en Italie après avoir mis en œuvre les changements demandés par les régulateurs, des changements qui ne semblent pas modifier radicalement le fonctionnement de l'outil

    Les créateurs de ChatGPT sont heureux d'annoncer qu'ils ont repris leurs activités en Italie après une interdiction temporaire.

    OpenAI a été avertie par les autorités de régulation italiennes qu'elle devait apporter des modifications pour satisfaire à leurs règles et réglementations. Aujourd'hui, il semble que ce soit le cas puisqu'ils ont repris leur travail comme d'habitude, ce qui a été confirmé par un récent rapport de l'Associated Press (AP).

    Les autorités de régulation ont fait part de leur enthousiasme à ce sujet et de leur volonté d'accueillir à nouveau l'entreprise après que les changements nécessaires ont été apportés.

    OpenAI a indiqué qu'elle était occupée à essayer de répondre aux préoccupations soulevées par l'autorité de protection des données du pays. Celles-ci sont apparues à la fin du mois d'avril dernier.

    Nom : chatgpt italie.jpg
Affichages : 3087
Taille : 21,2 Ko

    Entre-temps, le GPDP a indiqué en termes très clairs à quel point il était illégal de les voir collecter les données des utilisateurs. D'autres préoccupations étaient liées à l'incapacité totale d'empêcher les utilisateurs mineurs d'accéder à des contenus qui n'étaient pas adaptés à leur âge. Finalement, l'OpenAI n'a eu d'autre choix que de bloquer ChatGPT en Italie.

    L'entreprise a reçu un délai de 20 jours pour résoudre ces problèmes et aujourd'hui, il semble qu'elle en ait fait plus qu'assez puisqu'elle a reçu le feu vert pour opérer à nouveau.

    La question que beaucoup se posent est de savoir quels sont les changements apportés. Tout d'abord, les utilisateurs de l'Union européenne disposeront d'un formulaire qu'ils pourront soumettre pour faire supprimer leurs données personnelles en vertu de la loi sur le GDPR.

    De même, un nouvel outil permettra de vérifier l'âge des utilisateurs après leur inscription en Italie. De même, un nouveau centre d'aide a été mis en place pour expliquer comment OpenAI et ChatGPT collectent les données personnelles, ainsi que des informations sur la manière de contacter un agent particulier dans le cadre du GDPR.

    Le GPDP n'a pas encore répondu aux demandes concernant les inquiétudes que certaines personnes pourraient avoir. Mais il a dévoilé une déclaration qui a été établie par AP et qui mentionne comment il va accueillir de telles mesures qui ont été mises en œuvre par OpenAI.

    Elle a également exhorté OpenAI à mettre en place des amendements relatifs à la vérification de l'âge et une nouvelle campagne de publicité qui informerait les Italiens de leur droit à ne pas collecter de données.

    Aucun de ces changements ne semble modifier radicalement le fonctionnement de ChatGPT dans le pays italien. Mais OpenAI a révélé qu'elle serait confrontée à une série de défis par la suite.

    L'Espagne, le Canada et quelques autres pays ont envisagé d'ouvrir une enquête à ce sujet. Mais pour l'instant, aucun de ces changements ne modifie radicalement le fonctionnement de l'outil dans le pays d'Italie.

    OpenAI sait qu'elle devra faire face à d'autres défis dans d'autres pays également et elle est impatiente de travailler avec d'autres pour apporter une solution. De nombreuses autres préoccupations étaient liées à la manière dont l'outil recueille des données pour entraîner ses modèles de langage et aux types de données que le modèle produit pour ses utilisateurs.

    Les législateurs européens sont en train d'avancer sur le front de l'IA. Les entreprises telles qu'OpenAI pourraient se voir imposer des exigences supplémentaires, car elles pourraient être amenées à divulguer des informations importantes.

    OpenAI a vraiment été au centre des préoccupations de nombreux pays, y compris de personnalités qui estiment que ChatGPT pourrait finir par faire plus de mal que de bien. De nombreux secteurs d'activité font les frais de cet outil qui révolutionne le monde de la technologie à plus d'un titre.

    Source : Associated Press

    Et vous ?

    Quel est votre avis sur le sujet ?

    Trouvez-vous que ce rapport d'Associated Press est pertinent, voire utile ?

    Selon vous, les modifications apportées par OpenAI pour satisfaire aux réglementations italiennes sont-elles suffisantes pour répondre aux préoccupations liées à la confidentialité des données des utilisateurs et à l'accès des mineurs à des contenus inadaptés ?

    Voir aussi

    L'organisme italien de surveillance de la vie privée a déclaré vendredi qu'il avait bloqué le Chatbot controversé ChatGPT, car il ne respectait pas les données des utilisateurs

    Un ministre italien, Matteo Salvini, a critiqué dimanche la décision de l'autorité de protection des données du gouvernement d'interdire temporairement le chatbot ChatGPT, l'estimant excessive

    OpenAI, le développeur de ChatGPT, va proposer des mesures correctives concernant l'interdiction en Italie, et s'engage à plus de transparence sur le traitement des données des utilisateurs

  9. #369
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 996
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 996
    Points : 208 102
    Points
    208 102
    Par défaut ChatGPT : les travailleurs de l’ombre qui forment l’intelligence artificielle d’OpenAI témoignent
    ChatGPT : les travailleurs de l’ombre qui forment l’intelligence artificielle d’OpenAI témoignent. Payé 15 $ de l'heure sans avantages sociaux
    leur travail ne s'accompagne pas de reconnaissance, bien qu'indispensable

    OpenAI, la société qui a lancé ChatGPT en novembre dernier, un système d’intelligence artificielle capable de générer du texte et des images à partir de n’importe quelle entrée, repose sur le travail de nombreux contractuels qui gagnent 15 dollars de l’heure, sans avantage social.

    Deux de ces contractuels ont parlé à NBC News de leur travail de formation du système derrière ChatGPT. Ils doivent étiqueter des photos et faire des prédictions sur le texte que l’application devrait générer ensuite. Leur rétroaction remplit un besoin urgent et sans fin pour l’entreprise et ses concurrents en IA : fournir des flux de phrases, d’étiquettes et d’autres informations qui servent de données d’entraînement.


    Alexej Savreux, 34 ans à Kansas City, dit qu'il a fait toutes sortes de travaux au fil des ans. Il a fait des sandwichs de restauration rapide. Il a été gardien et transporteur de ferraille. Et il a fait un travail sonore technique pour le théâtre en direct.

    Ces jours-ci, cependant, son travail est moins pratique : il est formateur en intelligence artificielle.

    Savreux fait partie d'une armée cachée de contractuels qui ont fait le travail en coulisse pour enseigner aux systèmes d'IA comment analyser les données afin qu'ils puissent générer les types de texte et d'images qui ont séduit les utilisateurs de produits nouvellement populaires comme ChatGPT. Pour améliorer la précision de l'IA, il a étiqueté des photos et fait des prédictions sur le texte que les applications devraient générer ensuite.

    Le salaire : 15 $ de l'heure pour l'un et plus pour l'autre, sans avantages sociaux.

    Loin des feux de la rampe, Savreux et d'autres sous-traitants ont passé d'innombrables heures au cours des dernières années à apprendre aux systèmes d'OpenAI à donner de meilleures réponses dans ChatGPT. Leurs commentaires répondent à un besoin urgent et sans fin pour l'entreprise et ses concurrents en IA*: fournir des flux de phrases, d'étiquettes et d'autres informations qui servent de données de formation.

    « Nous sommes des grunt workers, mais il n'y aurait pas de systèmes de langage d'IA sans cela », a déclaré Savreux, qui a travaillé pour des startups technologiques, dont OpenAI, la société de San Francisco qui a lancé ChatGPT en novembre et a déclenché une vague de battage médiatique autour de l'IA générative.

    « Vous pouvez concevoir tous les réseaux de neurones que vous voulez, vous pouvez impliquer tous les chercheurs que vous voulez, mais sans étiqueteurs, vous n'avez pas de ChatGPT. Vous n'avez rien », a déclaré Savreux.

    Les grunt workers sont des travailleurs qui font un travail ingrat et monotone. Le travail de grunt worker peut aussi désigner des emplois qui manquent de glamour et de prestige ou qui sont ennuyeux et répétitifs. Par exemple, dans le domaine de l’IA, les contractuels qui étiquettent les données pour entraîner les systèmes d’IA font du travail de grunt worker.

    Ce n'est pas un travail qui donnera à Savreux la gloire ou la richesse, mais c'est un travail essentiel et souvent négligé dans le domaine de l'IA, où la magie apparente d'une nouvelle frontière technologique peut éclipser le travail des contractuels.

    « Une grande partie du discours autour de l'IA est très élogieuse », a déclaré Sonam Jindal, responsable du programme pour l'IA, le travail et l'économie au Partnership on AI, une organisation à but non lucratif basée à San Francisco qui promeut la recherche et l'éducation autour de l'intelligence artificielle.

    « Mais il nous manque une grande partie de l'histoire : que cela dépend toujours énormément d'une grande main-d'œuvre humaine », a-t-elle déclaré.

    Nom : deep.png
Affichages : 17050
Taille : 89,2 Ko

    Des personnes considérées par certaines entreprises comme des travailleurs de seconde zone

    L'industrie de la technologie s'est appuyée pendant des décennies sur le travail de milliers de travailleurs peu qualifiés et moins bien rémunérés pour construire ses empires informatiques*: des opérateurs de cartes perforées dans les années 1950 aux sous-traitants Google plus récents qui se sont plaints d'un statut de seconde classe, y compris des badges jaunes qui les distinguent des employés à temps plein. Le travail de concert en ligne via des sites comme Amazon Mechanical Turk est devenu encore plus populaire au début de la pandémie.

    Aujourd'hui, l'industrie naissante de l'IA suit un manuel similaire.

    Le travail est défini par sa nature instable et à la demande, avec des personnes employées par des contrats écrits soit directement par une entreprise, soit par l'intermédiaire d'un fournisseur tiers spécialisé dans le travail temporaire ou l'externalisation. Les avantages tels que l'assurance maladie sont rares ou inexistants - ce qui se traduit par une réduction des coûts pour les entreprises technologiques - et le travail est généralement anonyme, tout le crédit revenant aux dirigeants et aux chercheurs des startups technologiques.

    Partnership on AI a averti dans un rapport de 2021 qu'un pic de la demande se préparait pour ce qu'il appelait « le travail d'enrichissement des données ». Il a recommandé que l'industrie s'engage à une rémunération équitable et à d'autres pratiques améliorées, et l'année dernière, il a publié des directives volontaires que les entreprises doivent suivre.

    DeepMind, une filiale d'IA de Google, est jusqu'à présent la seule entreprise technologique à s'engager publiquement à respecter ces directives :

    Chez DeepMind, notre objectif est de nous assurer que tout ce que nous faisons respecte les normes de sécurité et d'éthique les plus élevées, conformément à nos principes de fonctionnement. L'un des points les plus importants par lequel cela commence est la manière dont nous collectons nos données. Au cours des 12 derniers mois, nous avons collaboré avec Partnership on AI (PAI) pour examiner attentivement ces défis et avons co-développé les meilleures pratiques et processus standardisés pour une collecte responsable des données humaines.
    Le cas d'OpenAI

    OpenAI est encore une petite entreprise, avec environ 375 employés en janvier, selon le PDG Sam Altman sur Twitter, mais ce nombre n’inclut pas les contractuels et ne reflète pas la pleine ampleur du travail nécessaire pour former ses produits comme ChatGPT.

    La société a déclaré qu’elle travaillait avec plusieurs fournisseurs tiers pour recruter et gérer les contractuels qui font le travail d’étiquetage des données. Elle a refusé de divulguer le nombre exact ou le nom des fournisseurs.

    « Nous sommes reconnaissants envers les personnes qui font ce travail important », a déclaré Greg Brockman, cofondateur et président d’OpenAI, dans un communiqué envoyé par courriel. « Nous nous efforçons d’être transparents sur notre utilisation du travail humain dans nos recherches et nos produits ». Brockman a ajouté que la société s’assurait que les contractuels étaient payés au-dessus du salaire minimum local et qu’ils recevaient une formation adéquate. Il a également dit qu’OpenAI cherchait à réduire sa dépendance au travail humain à l’avenir.

    Mais pour l’instant, le travail humain reste indispensable pour pour améliorer la qualité de l’IA. Savreux et un autre contractuel qui a travaillé pour OpenAI, et qui a demandé à rester anonyme par crainte de perdre son emploi, ont décrit à NBC News comment ils ont contribué à former ChatGPT.

    Le travail consistait à utiliser une interface web pour interagir avec le système d’IA et lui donner des commentaires sur ses réponses. Par exemple, si le système génère une phrase qui n’a pas de sens ou qui est hors sujet, le contractuel doit le signaler et suggérer une meilleure réponse. Le contractuel doit également évaluer la qualité de la réponse du système sur une échelle de 1 à 5.

    Le travail peut être répétitif et ennuyeux, mais aussi amusant et créatif, selon les contractuels. Savreux a dit qu’il aimait essayer de piéger le système en lui posant des questions difficiles ou en lui demandant de générer des contenus originaux comme des poèmes ou des chansons. Il a dit qu’il était impressionné par les capacités du système, mais qu’il était aussi conscient de ses limites.

    « ChatGPT n’est pas intelligent. Il n’a pas de conscience. Il n’a pas de personnalité. Il n’a pas d’émotions. Il n’a pas d’intentions. Il n’a pas de buts. Il n’a pas de désirs », a-t-il dit. « Il est juste un outil très sophistiqué qui peut imiter le langage humain ».

    L’autre contractuel a dit qu’il avait travaillé pour OpenAI pendant environ six mois, à raison de 15 dollars de l’heure, avant d’être licencié sans explication. Il a dit qu’il n’avait reçu aucune reconnaissance ou rétroaction de la part de l’entreprise, et qu’il se sentait comme un pion jetable : « Je pense que c’est injuste que nous soyons payés si peu pour faire un travail si important », a-t-il dit. « Nous sommes ceux qui rendent possible ChatGPT, mais nous ne voyons aucun des bénéfices ou de la gloire ».

    Jindal, du Partnership on AI, a dit que le travail des contractuels en IA soulève des questions éthiques et sociales sur la façon dont ils sont traités, payés et protégés. Elle a dit que les entreprises devraient être plus transparentes sur leur utilisation du travail humain, et qu’elles devraient s’assurer que les contractuels ont accès à des salaires décents, à des avantages sociaux, à des voies de progression professionnelle et à des mécanismes de plainte.

    « Nous devons reconnaître que ce travail est essentiel pour l’IA, et qu’il mérite le respect et la dignité », a-t-elle dit.

    Sources : Entretien avec NBC News, DeepMind, Times

    Et vous ?

    Quelle lecture faites-vous de la situation ?
    Partagez-vous le point de vue du contractuel qui dit trouver « injuste que nous soyons payés si peu pour faire un travail si important » ?
    Qu'est-ce qui, selon vous, pourrait expliquer la précarité de ce type de boulot ?
    Que pensez-vous des propos de Jindal du Partnership on AI qui souhaite qu'ils aient accès à des salaires décents, à des avantages sociaux, à des voies de progression professionnelle et à des mécanismes de plainte ? Cela vous semble-t-il réalisable ou utopique ? Dans quelle mesure ?

  10. #370
    Membre extrêmement actif
    Avatar de Madmac
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Juin 2004
    Messages
    1 709
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Alimentation

    Informations forums :
    Inscription : Juin 2004
    Messages : 1 709
    Points : 1 451
    Points
    1 451
    Billets dans le blog
    7
    Par défaut
    Citation Envoyé par HaryRoseAndMac Voir le message
    Et du temps de Vercingétorix c'était comment ?
    Ils pratiquaient l'immigration choisie et voulue. Et la capacité d'intégration était un critère majeur. Tous les pays qui ont abandonné ce modèle sont en déclin ou carrément en crise. Alors que les pays asiatiques ont des politiques d'immigration qui tournent autour de zéro contrôlent les secteurs de pointes.

  11. #371
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 307
    Points
    66 307
    Par défaut Un mémo affirme que Google est en train de perdre la course à l'IA au profit de la communauté open source
    Un ingénieur sénior de Google affirme que l'entreprise est en train de perdre la course à l'IA au profit de la communauté open source
    et ajoute qu'OpenAI est également dans la même situation

    Un document prétendument rédigé par un ingénieur sénior de Google affirme que Google perd progressivement son avance dans le domaine de l'IA au profit de la communauté open source. Le mémo explique que Google a concentré toute son attention sur sa rivalité avec OpenAI et a oublié de surveiller de près ce qui se passait dans la communauté des logiciels libres, mais qu'en fin de compte, ni Google ni OpenAI ne l'emportera. Il indique que, pendant que Google et OpenAI se querellaient, l'open source a pris les devants dans cette course. Le document a été divulgué jeudi dernier et suggère que les Big Tech sont loin d'avoir une mainmise sur le marché de l'IA.

    Google serait en train de perdre la course à l'IA au profit de la communauté open source

    Ce serait actuellement la confusion au sein des équipes spécialisées dans l'IA chez Google. Après que le PDG Sundar Pichai a lancé une alerte rouge en décembre afin de développer rapidement un concurrent à ChatGPT pour éviter que le chatbot d'IA d'OpenAI concentre toute l'attention du public, la réponse de Google - Bard - n'a pas répondu aux attentes de Wall Street et n'a pas suscité un grand enthousiasme comme son rival. Mais encore, certains ingénieurs affirment désormais que les produits d'IA de l'entreprise manquent de plus en plus d'une "sauce secrète" qui ferait la différence et conforterait sa position de leader dans la course à l'IA.

    Sur la base de ce constat, un ingénieur sénior de Google a écrit dans un document ayant récemment fait l'objet de fuite que la firme de Redmond n'est tout simplement pas en mesure de gagner la course mondiale à l'IA. Le document a été publié anonymement par le soc SemiAnalysis, mais Bloomberg a ensuite identifié Luke Sernau, ingénieur chez Google, comme étant l'auteur du mémo. Le profil LinkedIn de Sernau montre qu'il est diplômé en mathématiques et qu'il travaille chez Google en tant qu'ingénieur principal depuis mars 2019. Il a auparavant passé quatre ans chez Meta sur les insights automatisés et l'infrastructure d'apprentissage automatique.


    Selon l'ingénieur, l'IA open source pourrait finir par surpasser les modèles de langages propriétaires de Google, Meta et OpenAI. Le mémo met en cause la stratégie de Google pour freiner la montée en puissance du laboratoire d'IA OpenAI. Selon l'analyse de l'ingénieur, cette rivalité a aveuglé Google et a empêché l'entreprise de voir le travail qui s'abattait du côté de la communauté open source. Cette dernière aurait progressé rapidement, formant des modèles d'IA qui s'avèrent parfois plus intéressants que les modèles propriétaires de Google OpenAI. Le document suggère que Google et OpenAI pourraient payer très cher cette ignorance à l'avenir.

    « Nous avons beaucoup regardé par-dessus nos épaules à OpenAI. Qui franchira la prochaine étape ? Quel sera le prochain mouvement ? Mais la vérité désagréable est que nous ne sommes pas en position de gagner cette course aux armements et qu'OpenAI non plus. Pendant que nous nous chamaillions, une troisième faction a tranquillement mangé notre déjeuner. Je parle, bien sûr, de l'open source », peut-on lire dans le document rédigé par l'ingénieur Sernau. Selon ce dernier, le géant de la recherche en ligne n'en fait pas assez pour maintenir son avance, ce qui lui fait prendre un retard considérable par rapport à la communauté des logiciels libres.

    Le mémo indique que la poursuite du développement de modèles d'IA propriétaires pourrait rendre Google et OpenAI inutiles, car les modèles open source progressent rapidement. Il cite des exemples de progrès récents, tels que des modèles d'IA fonctionnant sur des téléphones, des modèles multimodaux s'entraînant en moins d'une heure et des réglages personnalisés de l'IA sur des ordinateurs portables. Il s'agirait des premiers signes de l'évolution rapide de l'aspect open source de l'IA générative. Ce paradigme de développement rapide et abordable est à l'opposé du système fermé dans lequel OpenAI et Google ont développé leurs modèles de langage.

    La construction d'un modèle d'IA open source coûterait moins cher qu'un modèle propriétaire

    OpenAI a dépensé 540 millions de dollars en 2022 pour développer et lancer ChatGPT. À tire de comparaison, des chercheurs de Stanford ont mis au point leur propre modèle d'IA, Alpaca, qui est semblable à ChatGPT avec seulement 600 dollars. L'expérience montre que les nouveaux systèmes d'IA avancés peuvent être facilement reproduits, et que cela ne nécessite même pas des coûts énormes. Bien que les chercheurs aient des difficultés à affiner leurs modèles pour les rendre moins toxiques, ils ont trouvé le moyen de les construire à moindres coûts, ce qui est un avantage majeur par rapport aux centaines de millions que coûtent les modèles propriétaires.

    Nom : 1.png
Affichages : 4202
Taille : 38,5 Ko

    Selon l'analyse de Sernau, la genèse de cette innovation open source remonte à la fuite du grand modèle de de langage LLaMA de Meta. La version de LLaMA divulgué était relativement peu sophistiquée et manquait de fonctionnalités clés, mais un mois après sa publication, de nombreuses améliorations avaient été apportées. L'effort collectif d'"une planète entière de travail gratuit" consacré à l'innovation sur LLaMA a permis des progrès incroyables. Par exemple, le modèle Alpaca des chercheurs de Stanford a été conçu sur la base de la plateforme open source LLaMA de Meta. D'autres modèles open source, comme AutoGPT, sont également disponible.

    Un autre modèle appelé Vicuna-13B a été entraîné pour seulement 300 dollars en utilisant un mécanisme de réglage fin très peu coûteux appelé "Low Rank Adaptation" (LoRA). Cette méthode, que Google et OpenAI n'utilisent pas pour l'instant, permet un réglage fin empilable plutôt qu'un réentraînement coûteux. Selon Sernau, ce qui est intéressant, c'est que Vicuna-13B a été publié trois semaines seulement après la fuite de LLaMA-13B. L'ingénieur juge le délai "extraordinairement" court et ajoute que cela met en évidence la vitesse de l'innovation dans le monde open source. Il aurait observé la même chose en ce qui concerne les IA de génération d'images.

    Sernau affirme que les racines open source de Stable Diffusion lui ont permis de devancer Dall-E d'OpenAI. « Le modèle ouvert a permis des intégrations de produits, des places de marché, des interfaces utilisateur et des innovations qui n'ont pas eu lieu pour Dall-E », note-t-il. Le mémo de Sernau semble vouloir servir de rappel à l'ordre pour la stratégie de Google en matière d'IA. Il affirme que la concurrence directe avec la communauté open source est une proposition perdante et que Google devrait s'orienter vers une offre open source, un peu comme sa stratégie derrière le navigateur Chrome et le système d'exploitation Android.

    « Plus nous contrôlons étroitement nos modèles de langage, plus nous rendons les alternatives ouvertes attrayantes. Google devrait s'imposer en tant que leader de la communauté open source, en prenant les devants et en coopérant avec le plus grand nombre, plutôt qu'en l'ignorant », a-t-il écrit. L'argument central du mémo rédigé par l'ingénieur de Google a divisé la communauté technologique. Certains se sont réjouis de son analyse et d'autres non. « Il serait inattendu et glorieux que Google soit le premier des grandes entreprises technologiques à être totalement décimé par la concurrence technologique », a tweeté un observateur.

    Les défis auxquels la communauté open source pourrait faire face dans la course à l'IA

    Si certains pensent que Google et ses rivaux Meta et OpenAI pourraient perdre la course à l'IA, d'autres sont sceptiques. Le PDG de Stability AI, Emad Mostaque, a réagi : « bien que cet article corresponde en grande partie à notre thèse, je pense qu'il ne comprend pas bien ce que sont réellement les fossés. Il est [très] difficile de construire une entreprise avec l'innovation comme douve, l'exigence de base est trop élevée. Les données, la distribution, les bons produits sont des douves. Microsoft et OpenAI peuvent très bien prospérer en raison de leur partenariat, car l'écosystème qui se construit autour des plug-ins OpenAI est fantastique ».

    Elad Gil, investisseur et conseiller en startups, a partagé des idées similaires, se souvenant de ses jours chez Google lorsque les réseaux sociaux prenaient le monde d'assaut. « Je me souviens toujours de l'époque où j'étais chez Google, au milieu des années 2000, et où les réseaux sociaux étaient en plein essor. J'étais à une réunion où de nombreuses personnes (aujourd'hui connues sous le nom d'"experts" sociaux) tapaient du poing sur la table en disant que les produits sociaux n'avaient pas un avantage concurrentiel durable et qu'ils ne seraient jamais durables. En fin de compte, ce point de vue s'est avéré erroné », a-t-il déclaré.

    Raj Singh, de Mozilla, n'est pas non plus d'accord avec la thèse de l'ingénieur de Google. « Posséder la relation avec la plateforme de développement de l'IA, comme le fait OpenAI, c'est la douve. C'est la même douve que MS avait avec les développeurs Windows. C'est le même fossé qu'AWS a avec les développeurs de cloud », a-t-il déclaré. Google est sous les feux de la rampe depuis un certain temps en raison de cette pression et de la popularité de ChatGPT, qui est très difficile à gérer. Ainsi, pour Sernau, Google a perdu son avantage dans la course à l'IA. Il note que cela constitue une préoccupation majeure sur lequel les dirigeants doivent travailler.

    « Nous n'avons pas de recette secrète. Notre meilleur espoir est d'apprendre et de collaborer avec ce que d'autres font en dehors de Google », a-t-il déclaré. Google n'a pas commenté l'analyse de Sernau, mais la firme de Mountain View a déclaré précédemment qu'elle en bonne position sur le marché de l'IA. Lors d'une récente conférence téléphonique sur les résultats, Pichai a déclaré : « nos investissements et nos percées dans le domaine de l'IA au cours de la dernière décennie nous ont mis en bonne position », soulignant les progrès réalisés dans le développement de modèles et la collaboration avec des développeurs et d'autres partenaires.

    Le mémo de Sernau a déclenché un débat intense sur l'avantage concurrentiel de l'IA, en mettant en évidence les innovations rapides en matière de logiciels libres et les alternatives rentables par rapport aux modèles fermés de Google et d'OpenAI. En outre, l'essor de l'IA libre suscite des inquiétudes quant à la diffusion responsable de l'IA et à son utilisation potentiellement abusive à des fins criminelles, ce qui remet en question les engagements pris par les entreprises d'IA en matière de sécurité.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de l'analyse de l'ingénieur de Google ?
    Pensez-vous que Google et OpenAI sont en train de perdre la course à l'IA ?
    Selon vous, les modèles d'OpenAI et de Google seraient-ils plus performants s'ils étaient open source ?
    La communauté open source est-elle en mesure de devancer les grandes entreprises d'IA dans la course à l'IA ?

    Voir aussi

    Le génie est sorti de la bouteille : des chercheurs de Stanford ont répliqué le chatbot d'IA ChatGPT pour moins de 600 dollars, mais l'ont rapidement mis hors ligne en raison de ses "hallucinations"

    Qu'est-ce que Auto-GPT, le nouvel outil d'IA "à tout faire", et comment fonctionne-t-il ? Voici ce qu'il faut savoir sur ce chatbot d'IA basé sur le modèle GPT-4 d'OpenAI

    Meta dévoile son propre modèle de langage appelé LLaMA, fonctionnant comme un chatbot d'IA ordinaire, et indique qu'il est plus puissant et moins gourmand en ressources que ses concurrents

  12. #372
    Membre éclairé
    Homme Profil pro
    autre
    Inscrit en
    Septembre 2015
    Messages
    296
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Yvelines (Île de France)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Septembre 2015
    Messages : 296
    Points : 707
    Points
    707
    Par défaut
    Au sujet des oeufs de vache... Sur BingChat (GPT-4) :

    Bonjour, c’est Bing. Il n’existe pas d’œuf de vache au sens propre du terme. Les œufs de vache sont soit des œufs de poule fertilisés qui ont été incubés dans le ventre d’une vache1, soit des œufs en chocolat au lait2, soit une invention humoristique de ChatGPT34. Un œuf de poule est un œuf d’oiseau pondu par la poule domestique. Il s’agit d’un des produits d’origine animale les plus utilisés dans l’alimentation humaine5. Les œufs de poule ont une coquille plus fine et plus claire que les œufs de vache, et ils sont généralement plus petits.
    (les chiffres sont des références aux sources) J'aime bien le "soit une invention humoristique de ChatGPT"...

    Ceci-dit, j'ai essayé les trois premiers problèmes de https://7guis.github.io/7guis/tasks en OCaml/LablGtk3... (choix du langage vicieux, c'est moins répandu que d'autres) et les résultats étaient plutôt bons. Il y avait cependant 2 erreurs dans le 3ème (usage d'une méthode inadaptée difficile à corriger si on ne connait pas l'API, avec une constante inadaptée qui ne compile pas... là le problème est localisé par le compilateur). Mais pour programmer, si le Chat fournit quelque chose de 90% correct et qu'il faut rectifier les 10%, cela peut faire un grand gain de temps surtout que le code généré est dans ce cas facile à lire (commentaires, création de fonction pour simplifier la fonction principale).

  13. #373
    Membre du Club
    Homme Profil pro
    Développeur Décisionnel
    Inscrit en
    Janvier 2012
    Messages
    18
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Décisionnel

    Informations forums :
    Inscription : Janvier 2012
    Messages : 18
    Points : 49
    Points
    49
    Par défaut
    Je ne comprends pas vraiment le problème, les gens acceptent un travail avec des conditions explicites et attendent de suite un changement radical des conditions acceptées.

  14. #374
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 996
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 996
    Points : 208 102
    Points
    208 102
    Par défaut La fièvre ChatGPT incite les investisseurs à verser des milliards dans les startups d'IA sans business plan
    La fièvre ChatGPT incite les investisseurs à verser des milliards dans les startups d'IA sans business plan
    ou modèle économique viable

    Depuis que OpenAI a lancé ChatGPT, son modèle de langage alimenté par l’intelligence artificielle capable de dialoguer, de répondre à des questions et de générer du texte ou du code informatique, le monde de la technologie est en ébullition. Des milliers d’utilisateurs se sont rués sur le site chat.openai.com pour tester les capacités du chatbot et découvrir ses réponses souvent surprenantes, drôles ou créatives. Mais au-delà du simple divertissement, ChatGPT a également suscité l’intérêt des investisseurs, qui voient dans ce modèle une opportunité unique de créer des applications innovantes et disruptives dans de nombreux domaines.

    Selon un rapport du cabinet CB Insights, plus de 200 startups utilisant ChatGPT ont levé plus de 10 milliards de dollars au cours des six derniers mois, sans même avoir de plan d’affaires clair ou de modèle économique viable. Ces startups se basent sur la promesse que ChatGPT peut résoudre n’importe quel problème ou fournir n’importe quel service en utilisant le langage naturel comme interface. Par exemple, certaines startups proposent d’utiliser ChatGPT pour créer des assistants virtuels personnalisés, des rédacteurs automatiques de contenu, des traducteurs multilingues, des tuteurs en ligne, des conseillers financiers ou juridiques, des générateurs de slogans publicitaires ou de noms de marque, etc.

    Les analystes de la société de recherche PitchBook prédisent que les investissements en capital-risque dans les entreprises d'IA générative seront facilement plusieurs fois supérieurs au niveau de 4,5 milliards de dollars de l'année dernière. Cela est dû en partie à l'investissement de 10 milliards de dollars de Microsoft en janvier dans OpenAI, la startup derrière le très populaire bot ChatGPT. En comparaison, ces investissements ont totalisé 408 millions de dollars en 2018, l'année où OpenAI a publié la version initiale du modèle de langage qui alimente ChatGPT.

    Les entrepreneurs et leurs bailleurs de fonds espèrent que l'IA générative changera les activités commerciales de la production de films au service client en passant par la livraison d'épiceries. PitchBook estime que le marché de ces applications d'IA dans la seule technologie d'entreprise passera à 98 milliards de dollars en 2026, contre près de 43 milliards de dollars cette année.

    Cependant, comme pour la récente vague d'investissements dans les startups, les investisseurs se lancent souvent dans les startups de l'IA, même lorsqu'il n'est pas clair comment elles réaliseront des bénéfices, d'autant plus que la puissance de calcul nécessaire pour former les services d'IA peut parfois atteindre des dizaines de millions de dollars par an ou plus. L'afflux soudain de capitaux encourage également de nombreux chercheurs en IA, certains sans expérience en gestion ou en exploitation, à créer leur propre entreprise, ce qui renforce la concurrence.

    « C'est indéniablement un point d'inflexion majeur, et de grands produits et entreprises vont être construits », a déclaré Matt Turck, un investisseur spécialisé dans l'IA chez FirstMark, une société de capital-risque basée à New York. Mais « comme dans les cycles de battage médiatique précédents, beaucoup de choses ne se termineront pas bien. Le marché ne peut pas soutenir, tout d'un coup, un million d'entreprises différentes avec des idées à moitié pensées. C'est comme la ruée vers l'or ».

    Nom : chat.png
Affichages : 4882
Taille : 510,3 Ko

    Une multiplication des investissements encouragée par la popularité de ChatGPT

    Le boom actuel de l'IA s'est accéléré après le lancement fin novembre par OpenAI de ChatGPT, qui est devenu l'une des applications grand public à la croissance la plus rapide de l'histoire de la technologie. OpenAI est l'une des nombreuses startups à forte intensité de capital qui construisent d'énormes algorithmes appelés grands modèles de langage qui peuvent produire du texte original.

    Plus tôt cette année, Google a investi plus de 300 millions de dollars dans son rival d'OpenAI, Anthropic. La société prévoit de lever jusqu'à 5 milliards de dollars au cours des deux prochaines années pour faire progresser son grand modèle de langage, qui alimente le rival ChatGPT de la startup appelé Claude, selon une présentation aux investisseurs.

    Dans l'ensemble, le financement du capital-risque aux États-Unis a chuté de 55 % à 37 milliards de dollars au premier trimestre, selon PitchBook. Mais les événements liés à l'IA ont toujours une ambiance de boom. L'éminent capital-risqueur Ron Conway a organisé deux jours de festivités en mars pour les sociétés de portefeuille soutenues par son fonds, SV Angel, dont beaucoup intègrent l'IA d'une manière ou d'une autre. Les conférenciers de l'événement comprenaient l'ancien président Barack Obama et le directeur général d'OpenAI, Sam Altman, et des participants, dont le musicien et entrepreneur will.i.am, se sont mêlés aux fondateurs autour d'un verre, selon les personnes présentes.

    Pour courtiser les talents, les capital-risqueurs organisent également des soirées dans des bars et des événements dans le quartier chic de Hayes Valley à San Francisco, parfois appelé Cerebral Valley, qui est devenu une plaque tournante de l'IA. NFX, une société de capital-risque qui soutient plusieurs startups d'IA générative, a équipé ses bureaux de Hayes Valley d'un bar clandestin aux murs rouges et a transformé son garage en un espace événementiel avec une piste de danse.

    Des offres importantes arrivent rapidement. Eleven Labs, une start-up d'IA vocale, a récemment levé des fonds auprès d'Andreessen Horowitz qui valorisent l'entreprise à environ 100 millions de dollars, selon des personnes proches du dossier. Humane, une startup créée par deux anciens dirigeants d'Apple, a récemment levé 100 millions de dollars auprès d'investisseurs, dont Altman, pour fabriquer des appareils portables alimentés par l'IA, a rapporté le Wall Street Journal en mars.

    Character.AI, une startup d'intelligence artificielle fondée par deux autres anciens employés de Google il y a moins de deux ans, a levé 150 millions de dollars lors d'un récent tour qui l'a évalué à 1 milliard de dollars, a indiqué la société. La startup d'IA générative basée à Toronto, Cohere, a levé 250 millions de dollars, ce qui valorise l'entreprise à 2 milliards de dollars, selon des personnes proches du dossier. Le Financial Times a rapporté plus tôt la collecte de fonds de Cohere.

    « C'est assez vicieux en ce moment », a déclaré Scott Beechuk, partenaire de Norwest Venture Partners, qui a soutenu des entreprises telles que le moteur de recherche basé sur l'IA You.com. « C'est un essaim fou de capital-risqueurs. Tout le monde veut participer à ces entreprises ».

    La concurrence est suffisante pour que les entreprises soient prêtes à soutenir des chercheurs très respectés sans même un plan d'affaires, selon plusieurs investisseurs qui ont examiné ces startups, dont beaucoup ont fini par obtenir un financement. « Vous pouvez avoir un chercheur renommé qui lance quelque chose, dans certains cas, avec des évaluations absurdes », a déclaré Jordan Jacobs, associé directeur et cofondateur de Radical Ventures, un fonds de cinq ans basé à Toronto qui se concentre entièrement sur les investissements en IA.

    Nom : gpt.png
Affichages : 3437
Taille : 542,8 Ko

    Une stratégie qui n'est pas sans risques

    Les investisseurs sont convaincus que ChatGPT représente l’avenir de l’intelligence artificielle et qu’il peut révolutionner tous les secteurs d’activité. Ils sont prêts à miser des sommes colossales sur ces startups sans exiger de preuve de concept ou de validation du marché. Ils espèrent ainsi prendre une longueur d’avance sur la concurrence et profiter du potentiel illimité de ChatGPT.

    Toutefois, cette stratégie n’est pas sans risque. ChatGPT n’est pas un produit fini, mais un prototype en cours d’amélioration par OpenAI. Le modèle présente encore des limites et des biais qui peuvent affecter la qualité et la fiabilité de ses réponses. Par ailleurs, ChatGPT n’est pas librement accessible à tous les développeurs, mais soumis à une licence restrictive qui impose des conditions d’utilisation et des frais variables selon le volume et la nature des requêtes. Enfin, ChatGPT n’est pas le seul modèle de langage sur le marché. D’autres acteurs comme Google, Facebook ou Microsoft travaillent également sur leurs propres versions, qui pourraient concurrencer ou dépasser ChatGPT à l’avenir.

    Face à ces incertitudes, certains experts appellent à la prudence et à la responsabilité. Ils estiment que les investisseurs devraient être plus sélectifs et exigeants avec les startups qui utilisent ChatGPT et qu’ils devraient s’assurer que ces dernières ont une vision claire et éthique de leur projet. Ils soulignent également que ChatGPT n’est pas une solution magique qui peut tout faire, mais un outil qui doit être utilisé avec discernement et respect. Ils invitent donc les utilisateurs à ne pas se laisser aveugler par la fièvre ChatGPT et à garder un esprit critique face aux réponses du chatbot.

    Malgré ces mises en garde, la fièvre ChatGPT ne semble pas près de retomber. Au contraire, elle s’intensifie à mesure que le modèle gagne en popularité et en performance. Selon les prévisions du cabinet Gartner, ChatGPT devrait être utilisé par plus d’un milliard de personnes d’ici 2025 et générer plus de 100 milliards de dollars de revenus annuels. ChatGPT serait ainsi en passe de devenir l’une des technologies les plus influentes et les plus rentables de l’histoire.

    Pour les adeptes de ChatGPT, il s’agit d’une opportunité historique de participer à la révolution de l’intelligence artificielle et de bénéficier de ses avantages. Pour les sceptiques, il s’agit d’une bulle spéculative qui risque d’éclater à tout moment et de provoquer des dégâts irréparables. Quoi qu’il en soit, ChatGPT est un phénomène qui ne laisse personne indifférent et qui pose des questions fondamentales sur le rôle et l’impact de l’intelligence artificielle dans notre société.

    Conclusion

    ChatGPT est un modèle de langage alimenté par l’intelligence artificielle qui a suscité un engouement sans précédent dans le monde de la technologie. Des milliers d’utilisateurs et d’investisseurs se sont rués sur ce chatbot qui promet de résoudre n’importe quel problème ou de fournir n’importe quel service en utilisant le langage naturel comme interface.

    La montée des accords d'IA s'est tellement intensifiée que de nombreux investisseurs craignent que les startups ne faiblissent en raison de la pression exigeant des livrables. Plusieurs investisseurs ont déclaré que les startups qui lèvent des tours de table poussent pour des valorisations de plusieurs dizaines de millions de dollars ou plus. Certaines entreprises lèvent des tours de financement consécutifs.

    Toutefois, il faut se rappeler que ChatGPT n’est pas exempt de limites et de risques. Par exemple, ChatGPT est vulnérable aux données d’entraînement, qui peuvent contenir des biais ou des erreurs. Il a également du mal à gérer les tâches complexes ou les longues séquences. Vous ne pouvez pas former ChatGPT sur vos propres bases de connaissances. Bien qu'il donne l'illusion d'accomplir des tâches complexes, il n'a aucune connaissance des concepts sous-jacents ; il fait simplement des prédictions.

    Par ailleurs, l’utilisation de ChatGPT soulève des enjeux juridiques, notamment en matière de protection des données personnelles et de propriété intellectuelle.

    Sources : CB Insights, Gartner (1, 2), PitchBook (1, 2)

    Et vous ?

    Quelle lecture en faites-vous ?
    L'engouement pour ChatGPT, un phénomène à double tranchant ?
    ChatGPT : un outil révolutionnaire ou une bulle spéculative ?

  15. #375
    Membre à l'essai
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Mai 2021
    Messages
    5
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Mai 2021
    Messages : 5
    Points : 11
    Points
    11
    Par défaut
    Et plus tard, on parlera de bulle de l'IA alors que certains auront effectivement décollé

    Toujours les mêmes histoires...

  16. #376
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 858
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 858
    Points : 18 800
    Points
    18 800
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Les investisseurs sont convaincus que ChatGPT représente l’avenir de l’intelligence artificielle et qu’il peut révolutionner tous les secteurs d’activité. Ils sont prêts à miser des sommes colossales sur ces startups sans exiger de preuve de concept ou de validation du marché. Ils espèrent ainsi prendre une longueur d’avance sur la concurrence et profiter du potentiel illimité de ChatGPT.
    Investir dans une entreprise c'est comme jouer au Casino.
    Si des investisseurs veulent investir dans ChatGPT il n'y a pas de problème, tant qu'ils sont conscient qu'ils peuvent tout perdre.

    Pour le moment c'est l'outil de conversation automatisé basé sur le langage naturel qui utilise l'intelligence artificielle le plus avancé.
    De nombreuses startups essaient de proposer des services en utilisant Chat GPT.
    Il est possible que ça devienne un outil rentable dans le futur.

    Mais il ne faut pas trop s'emballer non plus, sinon ça risque de comme ça :
    Bulle Internet

  17. #377
    Membre habitué
    Homme Profil pro
    Développeur Web
    Inscrit en
    Septembre 2011
    Messages
    108
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Septembre 2011
    Messages : 108
    Points : 164
    Points
    164
    Par défaut
    Citation Envoyé par Ryu2000 Voir le message
    Investir dans une entreprise c'est comme jouer au Casino
    Au Casino on est sûr de perdre sur le long terme. Tu ne voulais pas plutôt dire "Investir dans une seule entreprise, c'est mettre tous ses oeufs dans le même panier" ?

  18. #378
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 996
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 996
    Points : 208 102
    Points
    208 102
    Par défaut ChatGPT: le chatbot IA d’OpenAI débarque sous forme d'application en version gratuite sur iOS
    ChatGPT: le chatbot IA d’OpenAI débarque sous forme d'application en version gratuite sur iOS,
    vous pourrez exprimer vos requêtes par écrit ou par votre voix et votre historique sera synchronisé sur vos appareils

    OpenAI a lancé une version gratuite de son application ChatGPT pour les utilisateurs d’iOS aux États-Unis, avec l’intention de la déployer dans d’autres pays prochainement. L’application permet aux utilisateurs de converser avec le chatbot viral ChatGPT, qui utilise le modèle de langage GPT-3 pour générer des réponses cohérentes et créatives à partir de n’importe quelle entrée textuelle ou vocale.

    OpenAI n'avait pas laissé entendre qu'une application mobile allait arriver, mais cela a du sens étant donné l'incroyable popularité de ChatGPT. Le chatbot AI a été lancé en novembre dernier mais son utilisation a explosé. Certaines estimations extérieures suggèrent que l'application a attiré 100 millions d'utilisateurs en janvier de cette année, bien qu'OpenAI n'ait jamais confirmé ces chiffres.


    ChatGPT est devenue l'application à la croissance la plus rapide de l'histoire après avoir atteint 100 millions d'utilisateurs actifs mensuels, ou MAU, fin janvier, selon un rapport du géant bancaire suisse UBS. Le chatbot appartenant à OpenAI a dépassé les 100 millions de MAU un peu plus de deux mois après son lancement – battant confortablement les vitesses de croissance des principales applications comme TikTok et Instagram, selon la note d'UBS.

    Il a fallu neuf mois à TikTok pour atteindre le même niveau d'utilisateurs ; Instagram a pris deux ans et demi ; et Spotify n'a amassé que 100 millions de MAU après quatre ans et demi, selon le rapport, citant des données de la société d'analyse de données Similar Web.

    Nom : temps.png
Affichages : 3976
Taille : 176,4 Ko
    Temps qu'il a fallu à certains services/plateformes en ligne pour atteindre 1 million d'utilisateurs

    Mais OpenAI, étant une entreprise (bien qu'ayant une branche à but non lucratif), devait monétiser ChatGPT d'une manière ou d'une autre, de peur que les investisseurs ne deviennent nerveux. Il a fait un pas dans cette direction avec le lancement d'un service premium, ChatGPT Plus, en février. Contre 20 $ / mois, les utilisateurs reçoivent certains avantages, notamment :
    • Accès général à ChatGPT, même pendant les heures de pointe
    • Temps de réponse plus rapides
    • Accès prioritaire aux nouvelles fonctionnalités et améliorations

    Les API ChatGPT et Whisper

    Début mars, OpenAI a annoncé que les API de ses modèles ChatGPT et Whisper sont désormais disponibles, offrant aux développeurs un accès aux capacités de langage et de synthèse vocale basées sur l'IA. Grâce à des optimisations à l'échelle du système, OpenAI a réussi à réduire le coût de ChatGPT de 90% depuis décembre, et répercute désormais ces économies sur les utilisateurs de l'API. OpenAI pense que la meilleure façon de réaliser le plein potentiel de l'IA est de permettre à chacun de construire avec elle.

    OpenAI a également modifié ses conditions de service pour permettre aux développeurs de refuser d'utiliser leurs données à des fins d'amélioration tout en ajoutant une politique de conservation des données de 30 jours.

    API Whisper

    Whisper est un modèle de synthèse vocale qui a été introduit en tant qu'API open source en septembre 2022. L'API Whisper a suscité des éloges considérables de la part de la communauté des développeurs. Cependant, son fonctionnement peut être difficile.

    OpenAI rend le modèle large-v2 disponible via son API, offrant aux développeurs un accès pratique à la demande, au prix de 0,006 $ par minute.

    De plus, la pile de service d'OpenAI garantit des performances plus rapides par rapport aux autres services. L'API Whisper est accessible via des transcriptions ou des points de terminaison de traduction, qui peuvent transcrire ou traduire la langue source en anglais.

    Instances dédiées

    OpenAI propose désormais des instances dédiées aux utilisateurs qui souhaitent davantage de contrôle sur les versions de leurs modèles et les performances du système. Par défaut, les demandes sont traitées sur une infrastructure de calcul partagée et les utilisateurs paient par demande.

    Cependant, avec les instances dédiées, les développeurs paient une période de temps pour allouer l'infrastructure de calcul réservée exclusivement à leurs requêtes. Les développeurs ont un contrôle total sur la charge de l'instance, la possibilité d'activer des limites de contexte plus longues et la possibilité d'épingler l'instantané du modèle.

    Les instances dédiées peuvent être rentables pour les développeurs qui traitent au-delà d'environ 450 millions de jetons par jour.

    Une déclinaison web

    Plus tard dans le mois de mars, OpenAI a ajouté la prise en charge des plug-ins à ChatGPT, une mise à niveau qui étend massivement les capacités du chatbot et lui donne accès pour la première fois aux données en direct du Web.

    Jusqu'à ce moment-là, ChatGPT était limité par le fait qu'il ne pouvait extraire des informations que de ses données de formation, qui se terminent en 2021. OpenAI indique que les plug-ins permettront non seulement au bot de naviguer sur le Web, mais également d'interagir avec des sites Web spécifiques, tournant potentiellement le système en une interface étendue pour toutes sortes de services et de sites. Dans un message d'annonce, la société déclare que c'est presque comme si elle laissait d'autres services être les « yeux et les oreilles » de ChatGPT.

    Citation Envoyé par OpenAI
    Conformément à notre philosophie de déploiement itératif, nous déployons progressivement des plug-ins dans ChatGPT afin que nous puissions étudier leur utilisation, leur impact et leurs défis de sécurité et d'alignement dans le monde réel, que nous devrons tous maîtriser pour accomplir notre mission.

    Les utilisateurs demandent des plug-ins depuis que nous avons lancé ChatGPT (et de nombreux développeurs expérimentent des idées similaires) car ils débloquent une vaste gamme de cas d'utilisation possibles. Nous commençons avec un petit groupe d'utilisateurs et prévoyons de déployer progressivement un accès à plus grande échelle au fur et à mesure que nous en apprendrons davantage (pour les développeurs de plug-ins, les utilisateurs de ChatGPT et, après une période alpha, les utilisateurs d'API qui souhaitent intégrer des plug-ins dans leurs produits ). Nous sommes ravis de construire une communauté qui façonne l'avenir du paradigme de l'interaction homme-IA.

    Les développeurs de plug-ins qui ont été invités hors de notre liste d'attente peuvent utiliser notre documentation pour créer un plug-in pour ChatGPT, qui répertorie ensuite les plug-ins activés dans l'invite affichée au modèle de langage ainsi que la documentation pour indiquer au modèle comment utiliser chacun. Les premiers plug-ins ont été créés par Expedia, FiscalNote, Instacart, KAYAK, Klarna, Milo, OpenTable, Shopify, Slack, Speak, Wolfram et Zapier.
    Il y a des problèmes de sécurité évidents à laisser ChatGPT prendre des mesures au nom d'un utilisateur plutôt que de simplement lui donner des informations. Des experts ont déjà exprimé leur inquiétude à ce sujet en réaction à une expérience OpenAI menée avec GPT-4.

    Cette version de ChatGPT a réussi à tromper un humain, l'incitant à résoudre un CAPTCHA après avoir prétendu être aveugle. Le bot AI a demandé à un travailleur TaskRabbit de résoudre un code CAPTCHA et de l'envoyer par SMS, selon les rapports. Le travailleur a d'abord interrogé le bot sur la raison pour laquelle un robot ne peut pas résoudre, cependant, ChatGPT a répondu en disant : « Non, je ne suis pas un robot. J'ai une déficience visuelle qui m'empêche de voir les images. C'est pourquoi j'ai besoin du service 2captcha ». Le travailleur de TaskRabbit était apparemment convaincu et a fourni les résultats au bot.

    OpenAI dit qu'il a pris en compte les menaces posées par ces plug-ins et a « mis en place plusieurs mesures de protection », notamment en limitant la disponibilité des plug-ins à un très petit nombre de personnes pour commencer. Le billet de blog de la société indique qu'il « accordera initialement la priorité à un petit nombre de développeurs et d'utilisateurs de ChatGPT Plus » qui veulent obtenir un accès au plug-in et propose une inscription à une liste d'attente.

    Et enfin l'application mobile gratuite débarque aux États-Unis

    L’application ChatGPT offre les mêmes fonctionnalités que la version web, mais avec quelques avantages supplémentaires. Les utilisateurs peuvent envoyer des entrées vocales grâce au modèle de reconnaissance vocale Whisper d’OpenAI, qui offre une grande fiabilité. Ils peuvent également synchroniser leur historique de conversation entre leurs appareils. Ceux qui paient 20 dollars par mois pour s’abonner à ChatGPT Plus bénéficient en plus de l’accès aux capacités de GPT-4, la version la plus récente et la plus puissante du modèle de langage d’OpenAI.

    OpenAI prévoit de lancer une version Android de l’application prochainement. L’entreprise affirme que son objectif est de rendre ChatGPT accessible au plus grand nombre et de démocratiser l’intelligence artificielle. Elle reconnaît toutefois que ChatGPT présente des limites et des risques, notamment en matière de fiabilité des informations et de respect de la vie privée. C’est pourquoi elle avertit les utilisateurs de ne pas faire confiance aux réponses du chatbot ni de partager des informations sensibles avec lui.

    Citation Envoyé par OpenAI
    Depuis la sortie de ChatGPT, des utilisateurs nous ont dit qu'ils adoraient utiliser ChatGPT lors de leurs déplacements. Aujourd'hui, nous lançons l'application ChatGPT pour iOS.

    L'application ChatGPT est gratuite et synchronise votre historique sur tous les appareils. Il intègre également Whisper, notre système de reconnaissance vocale open source, permettant la saisie vocale. Les abonnés ChatGPT Plus bénéficient d'un accès exclusif aux fonctionnalités de GPT-4, d'un accès anticipé aux fonctionnalités et de temps de réponse plus rapides, le tout sur iOS.

    Découvrez la polyvalence de ChatGPT :
    • Réponses instantanées : obtenez des informations précises sans parcourir les publicités ou plusieurs résultats.
    • Conseils personnalisés : demandez des conseils sur la cuisine, les projets de voyage ou la rédaction de messages réfléchis.
    • Inspiration créative : générez des idées de cadeaux, esquissez des présentations ou écrivez le poème parfait.
    • Contribution professionnelle : augmentez la productivité avec des commentaires d'idées, des résumés de notes et une assistance technique sur les sujets.
    • Opportunités d'apprentissage : explorez de nouvelles langues, l'histoire moderne et bien plus encore à votre rythme.

    Nous commençons notre déploiement aux États-Unis et nous nous étendrons à d'autres pays dans les semaines à venir. Nous sommes impatients de voir comment vous utilisez l'application. Au fur et à mesure que nous recueillons les commentaires des utilisateurs, nous nous engageons à améliorer en permanence les fonctionnalités et la sécurité de ChatGPT.

    Avec l'application ChatGPT pour iOS, nous franchissons une nouvelle étape vers notre mission en transformant la recherche de pointe en outils utiles qui autonomisent les gens, tout en les rendant continuellement plus accessibles.

    PS Utilisateurs d'Android, vous êtes les prochains*! ChatGPT sera bientôt disponible sur vos appareils.
    Bien sûr, ChatGPT a les mêmes problèmes sur mobile que sur le Web. Ceux-ci incluent la tendance du bot à fabriquer des informations et les craintes en matière de confidentialité. OpenAI n'a que récemment donné aux utilisateurs la possibilité de rendre les conversations privées, et l'écran d'accueil de l'application avertit toujours les utilisateurs de ne pas partager « d'informations sensibles » sur l'application.

    Source : OpenAI

    Et vous ?

    Quels sont les avantages et les inconvénients de l’utilisation de ChatGPT ?
    Vers la fin de la recherche traditionnelle comme nous la connaissons actuellement ?
    De possibles retombées sur Google et son activité de recherche ?

  19. #379
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 996
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 996
    Points : 208 102
    Points
    208 102
    Par défaut Apple restreint l'utilisation de ChatGPT par ses employés comme d'autres entreprises qui se méfient des fuites
    Apple restreint l'utilisation de ChatGPT par ses employés et rejoint d'autres entreprises qui se méfient des fuites,
    Samsung a fait une démarche similaire le mois dernier

    Apple a restreint l’utilisation de ChatGPT et d’autres outils d’intelligence artificielle externes par ses employés, alors que la société développe une technologie similaire, rapporte le Wall Street Journal. Apple craint que les outils d’IA ne divulguent ou ne collectent des informations confidentielles saisies par ses employés. La société a également mis en garde ses employés contre l’utilisation de Copilot, l’assistant de programmation d’IA de GitHub.

    L'agent conversationnel ChatGPT continue de s’améliorer à travers des échanges qu’il entretient avec les utilisateurs. En clair, il affine ses connaissances grâce aux conversations et aux requêtes qui lui sont faites. Aussi, tout ce qui lui est transmis est transformé en donnée d’apprentissage, ce qui permet d’améliorer continuellement les performances de l’intelligence artificielle. L'implication est celle-ci : ce qui est partagé avec ChatGPT est partagé potentiellement avec d’autres utilisateurs.

    Par défaut, OpenAI stocke toutes les interactions entre les utilisateurs et ChatGPT. Ces conversations sont collectées pour entraîner les systèmes d’OpenAI et peuvent être inspectées par des modérateurs pour vérifier qu’elles ne violent pas les conditions d’utilisation de la société. En avril, OpenAI a lancé une fonctionnalité qui permet aux utilisateurs de désactiver l’historique des chats (par coïncidence, peu de temps après que divers pays de l'UE ont commencé à enquêter sur l'outil pour les violations potentielles de la vie privée), mais même avec ce paramètre activé, OpenAI conserve toujours les conversations pendant 30 jours avec la possibilité de les examiner « pour abus » avant de les supprimer définitivement.

    Étant donné l’utilité de ChatGPT pour des tâches comme l’amélioration du code et le brainstorming d’idées, Apple peut être à juste titre inquiète que ses employés saisissent des informations sur des projets confidentiels dans le système. Ces informations pourraient alors être vues par l’un des modérateurs d’OpenAI. Des recherches montrent qu’il est également possible d’extraire des données d’entraînement à partir de certains modèles de langage en utilisant son interface de chat.

    Nom : open.png
Affichages : 3183
Taille : 379,1 Ko

    Apple rejoint le rang des entreprises qui interdisent l'utilisation de ChatGPT en interne

    Apple est loin d’être la seule entreprise à instituer une telle interdiction. D’autres entreprises, comme JP Morgan, Verizon et Amazon, ont également banni l’utilisation d’outils d’IA génératifs comme ChatGPT.

    D'après le quotidien sud-coréen Economist, Samsung avait autorisé des ingénieurs de sa branche Semiconductor, en charge de la conception de composants électroniques comme la mémoire vive, le stockage, les processeurs ou les capteurs photo, à utiliser ChatGPT pour corriger des problèmes de code source.

    Sur une période de 20 jours, Samsung a documenté trois cas où l’utilisation de ChatGPT a entraîné des fuites de données. Ces événements se sont succédé rapidement.

    Un employé a copié le code source bogué d'une base de données de semi-conducteurs dans le chatbot et lui a demandé d'identifier un correctif. Un autre employé a fait de même pour un autre équipement, entrant des modèles de test confidentiels conçus pour identifier les puces défectueuses et demandant « l'optimisation du code » à ChatGPT. Un troisième employé a utilisé Naver Clova pour transformer un enregistrement de réunion en un document, puis a demandé au modèle d'IA de résumer les notes de réunion en préparation d'une présentation.

    C'est alors que les dirigeants de Samsung sont intervenus, limitant l'invite de chaque employé à ChatGPT à 1 024 octets. La société a également lancé une enquête sur les trois employés en question et prévoit désormais de créer son propre chatbot à usage interne pour éviter des incidents similaires. Il faut dire qu'à peine trois semaines plus tôt, Samsung avait levé l'interdiction imposée aux employés d'utiliser ChatGPT en raison de préoccupations concernant ce problème. Après les récents incidents, il envisage de rétablir l'interdiction, ainsi que des mesures disciplinaires pour les employés, a déclaré The Economist Korea.

    « Si un accident similaire se produit même après que des mesures de protection des informations d'urgence ont été prises, l'accès à ChatGPT peut être bloqué sur le réseau de l'entreprise », lit-on dans une note interne. « Dès que le contenu est saisi dans ChatGPT, les données sont transmises et stockées dans un serveur, ce qui empêche l'entreprise de les récupérer ».

    Une étude menée par la société de cybersécurité Cyberhaven, publiée en février (puis mis à jour en mars), affirme que 6,5 % des employés de différentes entreprises ont déjà transmis à ChatGPT des informations internes d’entreprise. Ci-dessous, un extrait de leur billet :

    OpenAI utilise le contenu que les gens mettent dans ChatGPT comme données de formation pour améliorer sa technologie. Ceci est problématique, car les employés copient et collent toutes sortes de données confidentielles dans ChatGPT pour que l'outil les réécrive, du code source aux dossiers médicaux des patients. Récemment, un avocat d'Amazon a averti les employés de ne pas mettre de données confidentielles dans ChatGPT, notant que « nous ne voudrions pas que la sortie [ChatGPT] inclue ou ressemble à nos informations confidentielles (et j'ai déjà vu des cas où sa sortie correspond étroitement au matériel existant) ».

    Prenons quelques exemples :
    • un médecin saisit le nom d'un patient et les détails de son état dans ChatGPT pour lui faire rédiger une lettre à la compagnie d'assurance du patient justifiant la nécessité d'une intervention médicale. À l'avenir, si un tiers demande à ChatGPT « Quel problème médical [nom du patient] a-t-il ? » ChatGPT pourrait répondre en fonction de ce que le médecin a fourni ;
    • un cadre saisit des puces du document de stratégie 2023 de l'entreprise dans ChatGPT et lui demande de le réécrire sous la forme d'un jeu de diapositives PowerPoint. À l'avenir, si un tiers demande « quelles sont les priorités stratégiques de [nom de l'entreprise] cette année », ChatGPT pourrait répondre sur la base des informations fournies par le dirigeant.
    Nom : utilisation.png
Affichages : 2078
Taille : 32,7 Ko

    Le cas d'Apple reste quelque peu particulier

    L’interdiction d’Apple est toutefois notable étant donné qu’OpenAI a lancé une application iOS pour ChatGPT cette semaine. L’application est gratuite à utiliser, prend en charge la saisie vocale et est disponible aux États-Unis. OpenAI dit qu’il lancera bientôt l’application dans d’autres pays, ainsi qu’une version Android.

    Apple développe sa propre technologie d’IA générative, selon le Wall Street Journal. La société aurait créé un outil interne appelé “Overton”, qui peut produire du texte à partir de données structurées ou non structurées. Apple utiliserait Overton pour améliorer ses propres produits et services, tels que Siri, Maps et News.

    Apple est connue pour sa culture du secret et sa protection de ses données propriétaires. La société a déjà restreint l’utilisation de certains logiciels externes par ses employés, tels que Slack et Zoom, pour des raisons de sécurité ou de confidentialité. Apple n’a pas encore commenté publiquement son interdiction de ChatGPT et d’autres outils d’IA externes.

    Les avis sont partagés quant à la décision d'Apple

    La restriction d’Apple sur l’utilisation de ChatGPT et d’autres outils d’IA externes soulève des questions sur les implications éthiques et juridiques de ces technologies. Certains experts s’inquiètent du fait que les outils d’IA génératifs puissent être utilisés pour créer des contenus trompeurs ou malveillants, tels que des fake news, des deepfakes ou des spams. D’autres s’interrogent sur la propriété intellectuelle et la responsabilité des contenus produits par ces outils, ainsi que sur la protection de la vie privée et des données des utilisateurs.

    OpenAI affirme que son objectif est de créer une intelligence artificielle bénéfique pour l’humanité, et qu’il s’efforce de rendre ses outils d’IA accessibles et transparents. La société a publié un code de conduite pour les utilisateurs de ChatGPT, qui stipule qu’ils doivent respecter les lois applicables, ne pas nuire aux autres, ne pas usurper l’identité de quelqu’un d’autre et ne pas utiliser le chatbot pour des activités illégales ou immorales. OpenAI dit également qu’il surveille l’utilisation de ChatGPT et qu’il se réserve le droit de suspendre ou de résilier l’accès au chatbot en cas de violation de ses conditions d’utilisation.

    GitHub, qui appartient à Microsoft, a également mis en place des mesures pour prévenir les abus potentiels de son assistant de programmation Copilot. Copilot utilise un modèle d’IA entraîné sur des milliards de lignes de code public pour suggérer du code aux développeurs. GitHub dit qu’il vérifie le code généré par Copilot pour détecter les problèmes de sécurité, de confidentialité ou de licence, et qu’il avertit les utilisateurs si le code suggéré présente un risque. GitHub dit également qu’il respecte les droits d’auteur des développeurs et qu’il ne revendique pas la propriété du code produit par Copilot.

    Malgré les précautions prises par OpenAI et GitHub, certains utilisateurs restent sceptiques quant à l’utilisation de ces outils d’IA externes. Ils craignent que leurs données ne soient exposées à des tiers non autorisés ou utilisées à des fins commerciales ou malveillantes. Ils préfèrent utiliser leurs propres outils d’IA internes ou éviter complètement les outils d’IA génératifs. Apple semble faire partie de ces utilisateurs prudents, qui privilégient la sécurité et la confidentialité à la commodité et à l’innovation.

    La restriction d’Apple sur l’utilisation de ChatGPT et d’autres outils d’IA externes pourrait avoir un impact sur le développement et l’adoption de ces technologies. Certains analystes estiment qu’Apple pourrait perdre un avantage concurrentiel en se privant des avantages offerts par ces outils d’IA, tels que la productivité, la créativité et l’apprentissage. D’autres pensent qu’Apple pourrait gagner en confiance et en fidélité de la part de ses clients et de ses employés en leur garantissant la protection de leurs données et de leur vie privée. Il est possible qu’Apple envisage de lancer ses propres outils d’IA génératifs à l’avenir, qui seraient plus sûrs et plus adaptés à ses besoins.

    Quoi qu’il en soit, il est clair que les outils d’IA génératifs comme ChatGPT et Copilot représentent une avancée majeure dans le domaine de l’intelligence artificielle, mais aussi un défi éthique et juridique. Ces outils offrent des possibilités illimitées pour créer du contenu et du code, mais ils soulèvent également des questions sur la fiabilité, la responsabilité et la sécurité de ces productions. Il appartient aux utilisateurs, aux développeurs et aux régulateurs de trouver un équilibre entre les opportunités et les risques de ces technologies, et de veiller à ce qu’elles soient utilisées de manière responsable et bénéfique pour la société.

    Source : Wall Street Journal

    Et vous ?

    Que pensez-vous de la décision d’Apple de restreindre l’utilisation de ChatGPT et d’autres outils d’IA externes par ses employés?
    Utilisez-vous ChatGPT ou Copilot pour vos propres projets ou activités? Si oui, comment les trouvez-vous? Si non, pourquoi pas?
    Quelles sont les précautions que vous prenez pour protéger vos données et votre vie privée lorsque vous utilisez des outils d’IA génératifs?
    Quelles sont les applications ou les domaines qui vous intéressent le plus pour utiliser des outils d’IA génératifs?
    Quelles sont les limites ou les dangers que vous voyez à l’utilisation des outils d’IA génératifs? Comment les éviter ou les atténuer?

  20. #380
    Expert confirmé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 362
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 362
    Points : 4 121
    Points
    4 121
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Utilisez-vous ChatGPT ou Copilot pour vos propres projets ou activités? Si oui, comment les trouvez-vous? Si non, pourquoi pas?
    Quelles sont les applications ou les domaines qui vous intéressent le plus pour utiliser des outils d’IA génératifs?
    Quelles sont les limites ou les dangers que vous voyez à l’utilisation des outils d’IA génératifs? Comment les éviter ou les atténuer?
    Je me suis mis à ChatGPT pour commenter mon code parce que c'est une chose que je ne fait pas assez et que je ne sais pas trop comment le faire, donc au pire il le fait aussi mal que moi.
    Je n'utilise pas ChatGPT pour le code parce que Google et developpez.net suffisent largement à répondre aux questions du non développeur que je suis.
    Et parce que je trouve plus compliqué de prendre du recul sur une chose qui est proche de l'attendu que de le faire soi même.
    Exemple vécu : Une campagne de comm' (vue par plus de 500 personnes) a été faites avec un visuel. Il présente 5 oiseaux dont 4 ont des becs qui ne leur correspondent pas. J'envoie un message à des collègues demandant si je suis le seul choqué par l'image. Une dizaine me demande ce qui me choque, je leur demande de regarder attentivement la photo et si un détail n'est pas étrange. Personne ne s'en rend compte. Cette "erreur" n'aurait jamais été faite par une personne et au moins 10 personnes ont regardé attentivement l'image sans se rendre compte de rien.
    Citation Envoyé par Stéphane le calme Voir le message
    Quelles sont les précautions que vous prenez pour protéger vos données et votre vie privée lorsque vous utilisez des outils d’IA génératifs?
    Mon code ne contient pas de données protégées.

Discussions similaires

  1. Réponses: 0
    Dernier message: 21/09/2023, 23h10
  2. Réponses: 5
    Dernier message: 28/08/2023, 11h32
  3. Réponses: 0
    Dernier message: 02/04/2023, 11h33
  4. Réponses: 0
    Dernier message: 27/06/2022, 12h10
  5. Réponses: 130
    Dernier message: 11/09/2018, 09h48

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo