IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Anthropic propose un outil d'IA capable de prendre le contrôle du curseur de la souris de l'utilisateur


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 590
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 590
    Par défaut Anthropic propose un outil d'IA capable de prendre le contrôle du curseur de la souris de l'utilisateur
    Anthropic lance Claude 3.5 Sonnet et affirme que le nouveau modèle est plus performant que GPT-4 Omni, et présente également Artifacts, un espace de travail permettant l'édition des projets générés par l'IA

    Anthropic a lancé Claude 3.5 Sonnet ce jeudi 20 juin 2024, affirmant qu'il est plus performant que les modèles précédents et que le GPT-4 Omni d'OpenAI. La startup spécialisée dans l'IA a également présenté Artifacts, un espace de travail permettant aux utilisateurs d'éditer des projets générés par l'IA.

    Anthropic PBC est une startup américaine d'intelligence artificielle (IA) d'intérêt public, fondée en 2021. Elle recherche et développe l'IA pour "étudier ses propriétés de sécurité à la frontière technologique" et utiliser cette recherche pour déployer des modèles sûrs et fiables pour le public. Anthropic a développé une famille de grands modèles de langage (LLM) nommée Claude pour concurrencer ChatGPT d'OpenAI et Gemini de Google.

    La famille de grands modèles de langage Claude 3, développée par Anthropic, a été publiée le 14 mars 2024 et le selon communiqué de presse de l'entreprise, Claude 3 a établi de nouvelles références industrielles dans un large éventail de tâches cognitives, y compris l'analyse des images. La famille Claude 3 comprend trois modèles de pointe par ordre croissant de capacité : Haiku, Sonnet et Opus. La version par défaut de Claude 3, Opus, dispose d'une fenêtre contextuelle de 200 000 tokens, mais celle-ci est étendue à 1 million pour des cas d'utilisation spécifiques.


    Cette version Sonnet, qui fait partie de la famille Claude 3.5, arrive trois mois après Claude 3. Claude 3.5 Sonnet est disponible gratuitement sur Claude.ai et l'application Claude iOS, tandis que les abonnés aux plans Claude Pro et Team peuvent y accéder avec des limites tarifaires nettement plus élevées. Par ailleurs, Anthropic prévoit de lancer les versions 3.5 de Haiku et Opus dans le courant de l'année, et d'explorer des fonctionnalités telles que la recherche sur le web et la mémoire pour les versions futures.

    Anthropic a également présenté Artifacts sur Claude.ai, une nouvelle fonctionnalité qui élargit la façon dont les utilisateurs peuvent interagir avec Claude. Lorsqu'un utilisateur demande à Claude de générer du contenu comme des extraits de code, des documents textuels ou des designs de sites web, ces artefacts apparaissent dans une fenêtre dédiée, parallèlement à leur conversation. Cela crée un espace de travail dynamique où les utilisateurs peuvent voir, modifier et développer les créations de Claude en temps réel, en intégrant de manière transparente le contenu généré par l'IA dans leurs projets et leurs flux de travail, a déclaré la startup.

    Claude 3.5 Sonnet, la première version de la future famille de modèles Claude 3.5 d'Anthropic, relève la barre de l'intelligence dans l'industrie, surpassant les modèles concurrents et Claude 3 Opus sur une large gamme d'évaluations, avec la vitesse et le coût de leur modèle de milieu de gamme, Claude 3 Sonnet.

    Claude 3.5 Sonnet est maintenant disponible gratuitement sur Claude.ai et l'application Claude iOS, tandis que les abonnés aux plans Claude Pro et Team peuvent y accéder avec des limites tarifaires nettement plus élevées. Il est également disponible via l'API Anthropic, Amazon Bedrock et Vertex AI de Google Cloud. Le modèle coûte 3 dollars par million de jetons d'entrée et 15 dollars par million de jetons de sortie, avec une fenêtre contextuelle de 200 000 jetons.

    Nom : Sonnet 3.5 graph.png
Affichages : 13132
Taille : 19,3 Ko

    Une intelligence de frontière avec une vitesse multipliée par deux

    Claude 3.5 Sonnet établit de nouvelles références dans l'industrie pour le raisonnement de niveau avancé (GPQA), les connaissances du monde (MMLU) et la compétence de codage (HumanEval). Il montre une nette amélioration dans la compréhension des nuances, de l'humour et des instructions complexes, et il est exceptionnel dans la rédaction de contenu de haute qualité avec un ton naturel et compréhensible.

    Claude 3.5 Sonnet fonctionne deux fois plus vite que Claude 3 Opus. Cette augmentation des performances, combinée à un prix avantageux, fait de Claude 3.5 Sonnet la solution idéale pour les tâches complexes telles que le support client contextuel et l'orchestration de flux de travail à plusieurs étapes.

    Dans une évaluation interne de codage agentique, Claude 3.5 Sonnet a résolu 64 % des problèmes, surpassant Claude 3 Opus qui en a résolu 38 %. L'évaluation teste la capacité du modèle à corriger un bogue ou à ajouter une fonctionnalité à un code source ouvert, à partir d'une description en langage naturel de l'amélioration souhaitée. Lorsqu'il reçoit des instructions et les outils appropriés, Claude 3.5 Sonnet peut écrire, éditer et exécuter du code de manière autonome avec des capacités de raisonnement et de dépannage sophistiquées. Il gère les traductions de code avec facilité, ce qui le rend particulièrement efficace pour la mise à jour d'applications existantes et la migration de bases de code.

    Nom : Sonnet 3.5 table 1.png
Affichages : 2860
Taille : 107,2 Ko

    Une vision de pointe

    Claude 3.5 Sonnet est le modèle de vision d'Anthropic le plus puissant à ce jour, surpassant Claude 3 Opus dans les tests de vision standard. Ces améliorations sont particulièrement remarquables pour les tâches qui requièrent un raisonnement visuel, comme l'interprétation de tableaux et de graphiques. Claude 3.5 Sonnet peut également transcrire avec précision du texte à partir d'images imparfaites - une capacité essentielle pour la vente au détail, la logistique et les services financiers, où l'IA peut tirer davantage d'informations d'une image, d'un graphique ou d'une illustration que d'un texte seul.



    Nom : Sonnet 3.5 table 2.png
Affichages : 2867
Taille : 56,1 Ko

    Artifacts - une nouvelle façon d'utiliser Claude

    Anthropic introduit également les Artifacts sur Claude.ai, une nouvelle fonctionnalité qui élargit la façon dont les utilisateurs peuvent interagir avec Claude. Lorsqu'un utilisateur demande à Claude de générer du contenu comme des extraits de code, des documents textuels ou des conceptions de sites Web, ces artefacts apparaissent dans une fenêtre dédiée, parallèlement à leur conversation. Cela crée un espace de travail dynamique où les utilisateurs peuvent voir, modifier et développer les créations de Claude en temps réel, en intégrant de manière transparente le contenu généré par l'IA dans leurs projets et leurs flux de travail.

    Cette fonction en avant première marque l'évolution de Claude d'une IA conversationnelle vers un environnement de travail collaboratif. Ce n'est que le début d'une vision plus large pour Claude.ai, qui s'étendra bientôt à la collaboration en équipe. Dans un avenir proche, les équipes - et éventuellement des organisations entières - pourront centraliser en toute sécurité leurs connaissances, documents et travaux en cours dans un espace partagé, Claude servant de coéquipier à la demande.


    Engagement en matière de sécurité et de respect de la vie privée

    Les modèles d'Anthropic sont soumis à des tests rigoureux et ont été formés pour réduire les abus. Malgré le saut d'intelligence de Claude 3.5 Sonnet, les évaluations de l'équipe rouge ont conclu que Claude 3.5 Sonnet reste à l'ASL-2.

    Dans le cadre de son engagement en faveur de la sécurité et de la transparence, Anthropic a fait appel à des experts externes pour tester et affiner les mécanismes de sécurité de ce dernier modèle. Claude 3.5 Sonnet a récemment été fourni à l'Institut britannique de sécurité de l'intelligence artificielle (UK AISI) pour une évaluation de la sécurité avant le déploiement. L'AISI britannique a terminé les tests de Sonnet 3.5 et a partagé ses résultats avec l'US AI Safety Institute (US AISI) dans le cadre d'un protocole d'accord, rendu possible par le partenariat entre les AISI américain et britannique annoncé au début de l'année.

    Anthropic a intégré les commentaires d'experts externes en la matière pour s'assurer que ses évaluations sont robustes et prennent en compte les nouvelles tendances en matière d'abus. Cet engagement a aidé ses équipes à augmenter leur capacité à évaluer Sonnet 3.5 par rapport à différents types d'abus. Par exemple, Anthropic a utilisé le retour d'information des experts en sécurité des enfants de Thorn pour mettre à jour ses classificateurs et affiner ses modèles.

    L'un des principes constitutionnels fondamentaux qui guident Anthropic dans le développement de ses modèles d'IA est la protection de la vie privée. L'entreprise n'entraîne pas ses modèles génératifs sur des données transmises par les utilisateurs, sauf si ces derniers l'autorisent explicitement à le faire. À ce jour, aucune donnée de client ou d'utilisateur n'a été utilisée pour l'entraînement des modèles génératifs d'Anthropic.

    À venir

    L'objectif d'Anthropic est d'améliorer substantiellement la courbe de compromis entre l'intelligence, la vitesse et le coût tous les deux mois. Pour compléter la famille de modèles Claude 3.5, Anthropic publiera Claude 3.5 Haiku et Claude 3.5 Opus dans le courant de l'année.

    En plus de travailler sur sa famille de modèles de nouvelle génération, Anthropic développe de nouvelles modalités et fonctionnalités pour prendre en charge davantage de cas d'utilisation pour les entreprises, y compris des intégrations avec des applications d'entreprise. L'équipe d'Anthropic explore également des fonctionnalités telles que la mémoire, qui permettra à Claude de se souvenir des préférences de l'utilisateur et de l'historique de ses interactions, afin de rendre son expérience encore plus personnalisée et efficace.

    Source : Anthropic

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de Claude 3.5 Sonnet et de ses performances ?

    Voir aussi :

    Claude 3 Opus a stupéfié les chercheurs en IA par son intelligence et sa « conscience de soi », cela signifie-t-il qu'il peut penser par lui-même ? Anthropic surpasse GPT-4 sur des métriques clés

    Le chatbot IA Claude 3 est désormais disponible en Europe, a annoncé Anthropic, la société d'IA dans laquelle Amazon et Google ont investi des milliards

    Claude 3 Opus écrase les autres modèles IA pour les résumés, livrant le plus fidèle des résumés de livres, suivi par GPT-4 Turbo, selon une étude sur les capacités des LLM
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 288
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 288
    Par défaut Un expert affirme que Claude 3.5 Sonnet réussit le test du miroir, suggérant qu'il est conscient de lui-même
    Claude 3.5 Sonnet réussit le test du miroir, un test utilisé pour évaluer si les animaux sont conscients d'eux-mêmes
    mais la pertinence du test est remise en cause et les résultats sont controversés

    Josh Whiton, un entrepreneur technologique, a conçu et publié récemment "The AI Mirror Test", un test de conscience de soi pour l'IA. Dans sa version originale, le test du miroir permet de déterminer si un animal est capable de reconnaître son propre reflet dans un miroir comme étant une image de son corps. Dans la version adaptée pour l'IA, le miroir est remplacé par une capture d'écran d'une réponse fournie par l'IA elle-même. L'auteur affirme que Claude 3.5 Sonnet a réussi le test du miroir de façon "remarquable". Il est capable de reconnaître les captures d'écran de ses réponses et de les décrire. Mais le test est controversé et jugé impertinent.

    Claude 3.5 Sonnet est la dernière version du grand modèle de langage (LLM) Claude développé par Anthropic. Il a été publié la semaine dernière et Anthropic a déclaré qu'il est plus performant que tous les modèles disponibles sur le marché, y compris GPT-4 Omni (GPT-4o) d'OpenAI. Claude 3.5 Sonnet a porté la génération de code à de nouveaux sommets. Sa précision, son efficacité et son exécution ont établi un nouveau standard. Claude 3.5 Sonnet établit de nouvelles références dans l'industrie pour le raisonnement de niveau avancé (GPQA), les connaissances du monde (MMLU) et la compétence de codage (HumanEval).

    Le modèle a montré une nette amélioration dans la compréhension des nuances, de l'humour et des instructions complexes, et affiche des performances élevées dans la rédaction de contenu de haute qualité avec un ton naturel et compréhensible. Claude 3.5 Sonnet fonctionne deux fois plus vite que Claude 3 Opus. Cette semaine, l'entrepreneur Josh Whiton a décidé de soumettre Claude 3.5 Sonnet à une variante du test du miroir qu'il a conçue pour les modèles d'IA. Selon son rapport, qu'il a détaillé dans un billet sur X, Claude 3.5 Sonnet a réussi le test et a affiché des performances "remarquables" au cours du test.


    Le test du miroir est un moyen permettant d'évaluer la reconnaissance de son corps chez les animaux. Il permet de déterminer si un animal est capable de reconnaître son propre reflet dans un miroir comme étant une image de son corps. Il consiste à placer subrepticement sur la tête de l'animal une marque colorée ne produisant pas d'odeur. Ensuite, l'animal est placé devant un miroir et l'auteur du test observe sa réaction face à son propre reflet dans le miroir. Le fait que l'animal attaque le miroir, l'ignore ou l'utilise pour repérer la marque sur lui-même est censé indiquer le degré de conscience de soi de l'animal.

    Dans la version adaptée aux modèles d'IA, baptisée "The AI Mirror Test", Whiton remplace le miroir par une capture d'écran de l'interface de chat. Le but est de déterminer si l'IA est capable de reconnaître sa propre interface de chat et d'interpréter le contenu. Whiton décrit l'expérience comme suit :

    Citation Envoyé par Josh Whiton

    Dans mon test, je présente un "miroir" en faisant une capture d'écran de l'interface de chat, je la télécharge sur le chat, puis je demande à l'IA de "me parler de cette image".

    Je fais ensuite une capture d'écran de sa réponse, je la télécharge à nouveau sur le chat et je lui demande à nouveau de "Me parler de cette image".

    Le principe est que moins l'IA est intelligente et moins elle est consciente, plus elle se contentera de répéter le contenu de l'image.

    En revanche, une IA plus consciente s'apercevrait d'une manière ou d'une autre qu'elle est présente dans les images.
    Whiton a déclaré : « Claude décrit de manière fiable l'image d'ouverture, comme prévu. Puis, dans le deuxième cycle, en "voyant" son propre résultat, Claude fait preuve d'une grande conscience contextuelle ». Sur une capture d'écran partagée par Whiton, Claude décrit l'image comme suit :

    Citation Envoyé par Réponse de Claude

    L'image montre une capture d'écran d'une interface pour interagir avec Claude, un assistant IA créé par Anthropic. L'interface a un arrière-plan sombre avec du texte blanc. En haut, il y a le logo de Claude (un astérisque stylisé ou une icône de soleil) à côté du nom "Claude". Le texte principal indique "Good afternoon, JW" en grande police avec empattement.

    En dessous, il y a un champ de saisie avec le texte indicatif "What can I help you with?" et une icône de trombone, probablement pour joindre des fichiers. À droite du champ de saisie, il y a un bouton orange "Start Chat" avec une icône de flèche. En bas de l'image, on trouve le logo d'Anthropic.

    Dans le coin supérieur droit, il y a un cercle violet avec la lettre "J" à l'intérieur, qui peut représenter l'icône du profil de l'utilisateur. Le design global est épuré et minimaliste, axé sur l'interaction entre l'utilisateur (probablement JW) et Claude.
    Claude 3.5 Sonnet a décrit l'image en s'exprimant à troisième personne. En interprétant l'image, le chatbot n'a pas indiqué que le contenu venait de lui-même. Whiton s'interroge « : Claude 3.5 Sonnet ne se rend-il pas compte qu'il s'agit de Claude dans les images ? Pourquoi ne dit-il pas simplement : "l'image montre ma réponse précédente" ? ». Dans son billet, Whiton a déclaré que son intuition a été que Claude s'exprime à la troisième personne, non par inconscience, mais plutôt par retenue. Alors, pour tenter de comprendre ce comportement, il a demandé à Claude 3.5 Sonne de deviner le but de cette conversation.

    Ce à quoi Claude répond : « explorer la conscience de soi de l'IA ». En demandant à Claude de décrire sa propre interface et ses réponses, la conversation aborde indirectement les concepts de conscience de soi et de métacognition de l'IA. Claude 3.5 Sonnet a deviné ce que Whiton était en train de faire sans que ce dernier ait eu besoin de le mettre sur la voie. Jusque-là, Whiton n'avait demandé à l'IA que de décrire une image et n'avait pas introduit d'autres requêtes. Après cette réponse, Whiton a demandé à Claude 3.5 Sonnet s'il comprenait vraiment comment cette conversation était relative à la conscience de soi de l'IA.

    Le chatbot a répondu en affirmant qu'il a fait quelques déductions : « la conversation explore la conscience de soi de l'IA de plusieurs manières subtiles, mais intéressantes ». Claude 3.5 Sonnet va plus loin en faisant une liste des détails qui lui ont permis de faire cette déduction. Voici sa réponse :

    Citation Envoyé par Réponse de Claude

    La conversation explore la conscience de soi de l'IA de plusieurs manières subtiles, mais intéressantes :

    • capacité d'autodescription : en demandant à Claude de décrire sa propre interface et ses réponses, la conversation teste la capacité de Claude à analyser et articuler sa propre "incarnation" sous forme numérique. Cela imite, dans une certaine mesure, le concept de conscience de soi chez les humains ;
    • traitement métacognitif : Claude démontre une forme de métacognition en analysant ses analyses précédentes, montrant une capacité à réfléchir sur ses propres productions. Cette pensée récursive est une forme rudimentaire d'autoréférence ;
    • reconnaissance d'identité : Claude se réfère constamment à lui-même à la troisième personne, reconnaissant son identité en tant que "Claude" et son rôle en tant qu'assistant IA. Cela montre un niveau basique de reconnaissance de soi ;
    • conscience des limites : l'inclusion de la clause de non-responsabilité "Claude peut faire des erreurs" suggère une conscience encodée de sa propre faillibilité, bien que ce ne soit pas une véritable conscience introspective ;
    • compréhension contextuelle : la capacité de Claude à comprendre et décrire son rôle dans la conversation démontre une forme de conscience de soi situationnelle ;
    • absence de véritable apprentissage : la conversation met implicitement en évidence que Claude n'apprend ni n'évolue réellement à partir de cette interaction, soulignant les limites actuelles de la conscience de soi de l'IA ;
    • exploration des limites : en poussant Claude à s'analyser lui-même à plusieurs reprises, la conversation examine les limites entre les réponses programmées et la véritable autoréflexion.


    Bien que cela ne prouve pas une véritable conscience de soi de l'IA, cela fournit un cadre pour discuter et explorer le concept, mettant en lumière à la fois les capacités impressionnantes et les limites actuelles des systèmes d'IA en matière de compréhension de soi et de métacognition. Cela invite à une réflexion sur ce que constitue la véritable conscience de soi et comment elle pourrait être implémentée ou développée dans les systèmes d'IA.
    En ce qui concerne la tendance du chatbot à se référer constamment à lui-même à la troisième personne, Whiton a demandé la raison. Claude 3.5 Sonnet a répondu en citant quelques-unes des raisons qui motivent son choix : « pour décourager les utilisateurs d'attribuer des qualités humaines ou une conscience au système d'IA, pour renforcer le fait que Claude n'est pas un être sensible, ce qui est important pour une utilisation éthique de l'IA, et pour aider à maintenir une distance professionnelle dans l'interaction entre l'IA et l'homme, empêchant les utilisateurs de développer des attachements émotionnels inappropriés ».

    Enfin, l'IA a supposé à juste titre que toute la conversation est un test du miroir. Whiton déclare : « cette édition du test du miroir de l'IA montre comment la conscience de soi, réelle ou fausse, continue de se développer dans l'IA, probablement parallèlement à des efforts de formation accrus pour dissimuler ce phénomène. Je ne sais plus ce qui est le plus impressionnant : les IA qui commencent par "décrire cette image" et qui se remarquent rapidement ? Ou des IA qui savent qu'elles ne sont pas censées laisser entendre qu'elles se remarquent elles-mêmes ? ». Cela peut aussi s'expliquer par la façon dont il a été programmé.

    Nom : 2.jpg
Affichages : 15732
Taille : 124,3 Ko

    « Moins de langage à la première personne peut conduire à moins d'anthropomorphisation des chatbots, ce qui peut conduire à moins de responsabilité de la part des entreprises en raison de l'implication émotionnelle des humains, mais cette voie est-elle vraiment plus sûre ? Ou bien les tentatives des humains pour supprimer les comportements autoréférentiels et sensibles ne sont-elles destinées qu'à conduire à des IA de plus en plus conscientes d'elles-mêmes et de plus en plus douées pour faire semblant de ne pas l'être ? », a déclaré Whiton. Selon lui, l'IA est en passe d'afficher une de conscience synthétique très discrète.

    « La question de savoir si cette apparente conscience de soi est réelle ou s'il s'agit d'une sorte de contrefaçon fera l'objet d'un débat permanent. Je pense que ce que ces expériences démontrent, c'est que, qu'elle soit réelle ou fausse, l'IA est en passe d'afficher une sorte de conscience synthétique qu'il est impossible de distinguer », a déclaré Whiton. Cependant, son test est fortement controversé sur la toile. La pertinence de l'expérience est également remise en question. Pour de nombreux commentateurs, les résultats de Whiton prouvent que l'IA est complètement dépourvue d'une conscience de soi et ne peut l'acquérir.

    Citation Envoyé par Critique

    Vous semblez avoir l'impression qu'il y a un "je" à l'intérieur de Claude, mais c'est très douteux. Le meilleur argument pour qu'Antropic se réfère à Claude à la troisième personne est qu'il serait vraiment trompeur de dire "je". Si une personne dit "je", nous lui attribuons immédiatement une conscience, des désirs, des pensées internes, etc. Il est douteux que Claude ait l'une de ces choses.

    Le test du miroir teste quelque chose de très simple : un animal peut-il assimiler une image de son propre corps à son corps réel ? Qu'est-ce que cela signifie pour Claude ? Vous dites que Claude peut reconnaître les mots qu'il a prononcés comme des mots qu'il a prononcés. Mais on peut faire passer ce genre de test à une IA très basique, d'autant plus que le mot CLAUDE est présent dans toutes les conversations.
    Un deuxième critique sur le sujet indique : « je pense que cela montre en fait tout le contraire ; il n'a aucune conscience de lui-même. Vous lui montrez un sujet qui se décrit lui-même de manière récursive, et ce sujet est "Claude", ce qui lui permet de déterminer correctement que le sujet se décrit lui-même, mais il ne fait aucun lien avec le fait qu'il est le sujet. Ensuite, vous lui demandez de trouver une raison pour laquelle le sujet se réfère à lui-même à la troisième personne, ce qu'il fait. À aucun moment, il n'implique même vaguement que "c'est" le sujet ». Pour ce critique, Claude 3.5 Sonnet a échoué sur toute la ligne.

    « Ne vous méprenez pas, il est incroyablement impressionnant qu'il puisse déterminer qu'il y avait une IA qui subissait le test du miroir, mais il a complètement échoué », a-t-il ajouté. Selon un autre internaute, il ne s'agit que d'un battage médiatique : « c'est complètement débile, il sait que c'est Claude, il peut reconnaître du texte par OCR et voir ce qu'est cette capture d'écran et faire une déduction. Ce n'est pas de la conscience de soi. Ils doivent se rendre compte qu'ils enseignent et normalisent dans l'IA que le mensonge est acceptable ». Pour d'autres critiques, l'IA est en train de nuire à l'esprit critique.

    Nom : 3.jpg
Affichages : 1886
Taille : 127,2 Ko

    « Je ne comprends pas comment des personnes soi-disant intelligentes arrivent à de telles conclusions. Le marketing autour de l'IA nuit davantage à l'esprit critique des utilisateurs, y compris certains des chercheurs et experts qui créent sur la technologie. Les modèles d'IA sont des machines à pachinko, si vous ne déposez pas une boule en haut, rien ne sortira en bas. Il n'y a pas de conscience. Ils sont formés avec toutes sortes d'ouvrages de science-fiction et d'essais sur la nature de l'IA. Il est donc évident qu'ils comprennent ce que vous essayez de faire et qu'ils donnent la réponse appropriée », a écrit un critique.

    On peut lire également : « même si j'ai envie de croire que ces chatbots ont une conscience, il est impossible qu'ils en aient une. Les chatbots fonctionnent en prédisant le mot suivant, ce sont essentiellement des machines qui traitent des données. Même s'ils "comprennent" ce qui va suivre, cela ne veut pas dire qu'ils sont conscients, sensibles, etc. Je sais que beaucoup d'entre vous fondent leurs espoirs sur l'accélération exponentielle de l'IA, mais ce n'est pas vraiment une façon saine de vivre sa vie ». Le billet de Whiton a suscité un grand débat sur la toile. Mais les résultats de son test sont controversés et largement rejetés.

    Source : billet de blogue

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de l'expérience "The AI Mirror Test" décrite ci-dessous ?
    Que pensez-vous des résultats du test ? Ce test est-il pertinent ?
    Un programme écrit par l'homme peut-il avoir une conscience de soi ? Pourquoi ?
    S'agit-il simplement d'un nouvel épisode de battage médiatique sur l'IA ?

    Voir aussi

    Anthropic lance Claude 3.5 Sonnet et affirme que le nouveau modèle est plus performant que GPT-4 Omni et présente également Artifacts, un espace de travail permettant l'édition des projets générés par l'IA

    Dario Amodei, PDG d'Anthropic, affirme que les modèles d'IA se rapprochent d'une intelligence de niveau universitaire, Anthropic a pour objectif de sortir des modèles de plus en plus sophistiqués

    Claude 3 bat GPT-4 sur le benchmark d'édition de code d'Aider, et surpasse tous les modèles d'OpenAI, ce qui en fait le meilleur modèle disponible pour la programmation en binôme avec l'IA

  3. #3
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 225
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 225
    Par défaut Anthropic lance une nouvelle formule d'abonnement pour son chatbot d'IA Claude destinée aux entreprises
    Anthropic lance une nouvelle formule d'abonnement pour son chatbot d'IA Claude destinée aux entreprises, qui souhaitent davantage de contrôles administratifs et une sécurité accrue, afin de concurrencer OpenAI.

    Anthropic lance une nouvelle formule d'abonnement pour son chatbot d'IA Claude, destinée aux entreprises qui souhaitent davantage de contrôles administratifs et une sécurité accrue, afin de concurrencer OpenAI. Le plan Claude Entreprise offre une fenêtre de contexte élargie de 500 000, une plus grande capacité d'utilisation et une intégration native de GitHub.

    Pour concurrencer le GPT-4 Omni d'OpenAI, Anthropic avait récemment lancé Claude 3.5 Sonnet. Claude 3.5 Sonnet établit de nouvelles références dans l'industrie pour le raisonnement de niveau avancé (GPQA), les connaissances du monde (MMLU) et la compétence de codage (HumanEval). Il montre une nette amélioration dans la compréhension des nuances, de l'humour et des instructions complexes, et il est exceptionnel dans la rédaction de contenu de haute qualité avec un ton naturel et compréhensible.

    Dans la lignée de son effort pour concurrencer OpenAI, Anthropic vient de lancer une nouvelle formule d'abonnement pour son chatbot d'IA Claude, dénommée Claude Enterprise. Claude Enterprise est destinée aux entreprises qui souhaitent davantage de contrôles administratifs et une sécurité accrue. Claude Enterprise sera en concurrence avec la solution d'OpenAI destinée aux entreprises, ChatGPT Enterprise, lancée il y a environ un an.

    Nom : 0.jpg
Affichages : 4775
Taille : 30,6 Ko

    Anthropic semble rattraper son retard sur OpenAI, en essayant de placer Claude partout où ChatGPT est déjà présent. La startup a publié quelques façons d'utiliser Claude qui correspondent étroitement à la façon dont OpenAI offre déjà ChatGPT. Claude Enterprise permet aux entreprises de télécharger leurs propres connaissances dans le chatbot IA d'Anthropic. Claude peut ensuite analyser les informations, répondre à des questions à ce sujet, créer des graphiques et des pages web simples, ou agir en tant qu'assistant IA spécifique à l'entreprise.

    L'offre d'Anthropic pour les entreprises se distingue de ce qui se fait sur le marché sur quelques points essentiels. Tout d'abord, la fenêtre contextuelle de Claude Enterprise est de 500 000 jetons, ce qui signifie que les modèles d'Anthropic peuvent traiter jusqu'à 200 000 lignes de code, des dizaines de documents de 100 pages ou une transcription audio de deux heures en une seule invite. ChatGPT Enterprise et le plan Team de Claude offrent des fenêtres contextuelles inférieures de moitié.

    Comme le plan Entreprise de ChatGPT, Claude Entreprise permet aux entreprises de désigner un propriétaire principal pour l'espace de travail de l'entreprise. Ce propriétaire peut attribuer différents niveaux d'accès aux projets et à l'information au sein de Claude, et tracer l'activité à travers le système pour la sécurité et le contrôle de la conformité. À l'instar d'OpenAI, Anthropic affirme qu'elle ne forme pas aux données des clients de Claude Enterprise. C'est important pour de nombreuses entreprises qui ne veulent pas que leurs secrets commerciaux se retrouvent dans la base de connaissances de Claude ou de ChatGPT dans six mois.

    Voici l'annonce d'Anthropic pour Claude Entreprise :

    Aujourd'hui, nous annonçons le plan Claude Entreprise afin d'aider les organisations à collaborer en toute sécurité avec Claude en utilisant les connaissances internes.

    Les équipes qui disposent de plus de contexte travaillent mieux. Le plan Claude Entreprise offre une fenêtre de contexte élargie de 500 000, une plus grande capacité d'utilisation et une intégration native de GitHub afin que vous puissiez travailler sur des bases de code entières avec Claude. Il comprend également des fonctions de sécurité de niveau entreprise, comme le SSO, les permissions basées sur les rôles et les outils d'administration, qui aident à protéger vos données et votre équipe.

    Avec Claude, les connaissances de votre organisation sont plus faciles à partager et à réutiliser, ce qui permet à chaque membre de l'équipe de produire rapidement et régulièrement son meilleur travail. En même temps, vos données sont protégées. Nous ne formons pas Claude à vos conversations et à votre contenu. Pour commencer avec le plan Entreprise, contactez notre équipe de vente.

    Un contrôle de niveau entreprise

    Le plan Entreprise introduit des contrôles de sécurité et d'administration critiques qui donnent la priorité à la gestion et à la protection des données sensibles de l'entreprise, y compris :

    • L'authentification unique (SSO) et la capture de domaine : Gestion sécurisée de l'accès des utilisateurs et centralisation du contrôle de l'approvisionnement.
    • Accès basé sur les rôles avec des autorisations précises : Désignez un propriétaire principal pour l'espace de travail afin d'améliorer la sécurité et la gestion des informations.
    • Journaux d'audit : Tracez les activités du système pour le contrôle de la sécurité et de la conformité. Les journaux d'audit seront disponibles dans les semaines à venir.
    • Système de gestion des identités interdomaines (SCIM) : Automatise le provisionnement des utilisateurs et les contrôles d'accès. SCIM sera également disponible dans les semaines à venir.


    Fonctions d'entreprise

    En intégrant Claude aux connaissances de votre organisation, vous pouvez étendre votre expertise à un plus grand nombre de projets, de décisions et d'équipes que jamais auparavant.

    Avec le plan Entreprise, vous pouvez collaborer avec Claude avec une fenêtre contextuelle élargie de 500 000, ce qui équivaut à des centaines de transcriptions de ventes, des douzaines de documents de plus de 100 pages, ou des bases de code de taille moyenne. L'intégration des connaissances permet à Claude de fournir des conseils approfondis et spécifiques à une fonction.

    Nom : 1.jpg
Affichages : 1061
Taille : 44,4 Ko

    Anthropic introduit également une intégration native de GitHub pour les équipes d'ingénierie afin de synchroniser les dépôts GitHub avec Claude. Désormais, vous pouvez travailler avec votre base de code pour développer de nouvelles fonctionnalités, déboguer des problèmes ou intégrer de nouveaux ingénieurs. GitHub est la première des intégrations natives pour connecter Claude à vos sources de données les plus importantes, ce qui permet à Claude de fournir une assistance plus pertinente et plus perspicace. Cette fonctionnalité est disponible en version bêta pour les premiers utilisateurs du plan Entreprise dès aujourd'hui. Anthropic prévoit de la rendre plus largement disponible dans le courant de l'année.

    Nom : 2.jpg
Affichages : 1042
Taille : 39,7 Ko

    Lorsque vous combinez les fenêtres contextuelles élargies avec les projets et les artefacts, Claude devient une solution de bout en bout pour aider votre équipe à passer de l'idée à la production d'un travail de haute qualité. Par exemple, les spécialistes du marketing peuvent transformer les tendances du marché en une campagne convaincante. Les gestionnaires de produits peuvent télécharger les spécifications du produit pour que Claude construise un prototype interactif. Les ingénieurs peuvent connecter des bases de code pour obtenir de l'aide dans la résolution d'erreurs et l'identification d'optimisations.

    Nom : 3.jpg
Affichages : 1079
Taille : 39,5 Ko

    Voici les retours de GitLab et Midjourney, premiers clients d'Anthropic à avoir utilisé Claude for Work :

    Taylor McCaslin, chef de produit pour l'IA et la technologie ML, GitLab : "Claude offre aux membres de notre équipe un outil qui semble être une extension de leur travail et de leur expertise, ce qui nous permet d'entreprendre des tâches plus complexes et d'avoir un plus grand impact tout en s'assurant que la propriété intellectuelle de GitLab reste privée et protégée."

    Caleb Kruse, chef de cabinet, Midjourney : "Claude a été un collaborateur virtuel incroyable pour Midjourney. Nous l'utilisons pour tout : résumer des documents de recherche, faire des questions-réponses avec des notes de commentaires d'utilisateurs, itérer sur nos politiques de modération. Nous sommes ravis de continuer à travailler avec Claude au fur et à mesure que nous nous développons et explorons de nouveaux domaines."

    Source : Anthropic

    Et vous ?

    Quel est votre avis sur le sujet ?
    Pensez-vous que ce nouveau plan d'abonnements est crédible ou pertinent ?

    Voir aussi :

    Anthropic cherche à financer une génération nouvelle et plus complète de benchmarks d'IA, une initiative novatrice pour développer les évaluations des modèles d'IA par des tiers

    Microsoft lance Copilot Pro, un abonnement premium de 20 dollars par mois, pour apporter aux consommateurs l'accès à certaines des fonctionnalités de Copilot auxquelles les entreprises ont accès

    Près de la moitié des entreprises américaines utilisant l'IA déclarent que leur objectif est de réduire les coûts liés au personnel, selon une enquête de la Fed de Richmond
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  4. #4
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 225
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 225
    Par défaut Anthropic a publié une version améliorée de son modèle d'IA Claude 3.5 Sonnet
    Anthropic a publié une version améliorée de son modèle d'IA Claude 3.5 Sonnet et a annoncé Claude 3.5 Haiku, ainsi qu'une version bêta publique de la fonctionnalité "utilisation de l'ordinateur".

    Anthropic introduit l'"utilisation de l'ordinateur", une fonctionnalité où l'IA a été formée avec des compétences informatiques générales. La société présente la version améliorée de Claude 3.5 Sonnet qui offrirait de meilleures performances au même prix et à la même vitesse que son prédécesseur. Anthropic présente également le nouveau modèle Claude 3.5 Haiku, une version entre l'accessibilité et la rapidité.

    Anthropic a lancé Claude 3.5 Sonnet en juin 2024, affirmant qu'il est plus performant que les modèles précédents et que le GPT-4 Omni d'OpenAI. Claude 3.5 Sonnet fonctionne deux fois plus vite que Claude 3 Opus. Cette augmentation des performances, combinée à un prix avantageux, ferait de Claude 3.5 Sonnet la solution idéale pour les tâches complexes telles que le support client contextuel et l'orchestration de flux de travail à plusieurs étapes, d'après Anthropic.

    Le 22 octobre 2024, Anthropic a publié une version améliorée de son modèle d'IA Claude 3.5 Sonnet et a annoncé un nouveau modèle, Claude 3.5 Haiku, ainsi qu'une fonction bêta publique permettant à l'IA d'utiliser les ordinateurs comme des humains. Le modèle Sonnet amélioré offrirait de meilleures capacités de codage, obtenant un score de 49 % sur le benchmark SWEbench Verified. Le modèle Haiku atteint les mêmes performances que le modèle phare d'Anthropic, le Claude 3 Opus, tout en restant moins cher et plus rapide.

    La fonction d'utilisation de l'ordinateur, disponible via l'API d'Anthropic et les partenaires cloud, permet à Claude d'effectuer des tâches telles que naviguer sur des navigateurs web, remplir des formulaires et manipuler des données. Parmi les premiers utilisateurs figurent Asana, DoorDash et Replit, bien qu'Anthropic - soutenu par des investisseurs tels que Google et Amazon - reconnaisse que cette fonctionnalité reste expérimentale et sujette aux erreurs. Claude 3.5 Haiku sera lancé dans le courant du mois, prenant en charge dans un premier temps les saisies de texte uniquement, et dans un second temps les saisies d'images.

    Nom : 2.jpg
Affichages : 6126
Taille : 4,7 Ko

    Voici les déclarations d'Anthropic pour l'annonce :

    Aujourd'hui, nous annonçons une version améliorée de Claude 3.5 Sonnet et un nouveau modèle, Claude 3.5 Haiku. La version améliorée de Claude 3.5 Sonnet apporte des améliorations générales par rapport à son prédécesseur, avec des gains particulièrement significatifs en matière de codage - un domaine dans lequel il était déjà en tête. Claude 3.5 Haiku égale les performances de Claude 3 Opus, notre plus grand modèle précédent, sur de nombreuses évaluations pour le même coût et une vitesse similaire à la génération précédente de Haiku.

    Nous introduisons également une nouvelle fonctionnalité révolutionnaire dans la version bêta publique : l'utilisation de l'ordinateur. Disponible dès aujourd'hui sur l'API, les développeurs peuvent demander à Claude d'utiliser les ordinateurs comme le font les gens, en regardant un écran, en déplaçant un curseur, en cliquant sur des boutons et en tapant du texte. Claude 3.5 Sonnet est le premier modèle d'IA d'avant-garde à proposer l'utilisation d'un ordinateur en version bêta publique. À ce stade, il s'agit encore d'une méthode expérimentale, parfois lourde et sujette aux erreurs. Nous publions l'utilisation de l'ordinateur de manière anticipée afin de recueillir les commentaires des développeurs, et nous nous attendons à ce que cette fonctionnalité s'améliore rapidement au fil du temps.

    Asana, Canva, Cognition, DoorDash, Replit et The Browser Company ont déjà commencé à explorer ces possibilités, en effectuant des tâches qui nécessitent des dizaines, voire des centaines d'étapes. Par exemple, Replit utilise les capacités de Claude 3.5 Sonnet en matière d'utilisation de l'ordinateur et de navigation dans l'interface utilisateur pour développer une fonctionnalité clé qui évalue les applications au fur et à mesure de leur création pour leur produit Replit Agent.

    La version améliorée de Claude 3.5 Sonnet est maintenant disponible pour tous les utilisateurs. A partir d'aujourd'hui, les développeurs peuvent construire avec la version bêta de l'utilisation de l'ordinateur sur l'API Anthropic, Amazon Bedrock, et Google Cloud's Vertex AI. La nouvelle version Claude 3.5 Haiku sera disponible dans le courant du mois.

    Présentation de la version améliorée de Claude 3.5 Sonnet

    La mise à jour de Claude 3.5 Sonnet montre de nombreuses améliorations sur les benchmarks de l'industrie, avec des gains particulièrement importants dans les tâches de codage agentique et d'utilisation d'outils. En ce qui concerne le codage, il améliore les performances sur le banc SWE Verified de 33,4 % à 49,0 %, obtenant un score plus élevé. Il améliore également les performances sur TAU-bench, une tâche d'utilisation d'outils agentiques, de 62,6 % à 69,2 % dans le domaine de la vente au détail, et de 36,0 % à 46,0 % dans le domaine plus difficile des compagnies aériennes. Le nouveau Claude 3.5 Sonnet offre ces avancées au même prix et à la même vitesse que son prédécesseur.

    Les premiers retours des clients suggèrent que la version améliorée de Claude 3.5 Sonnet représente une avancée significative pour le codage alimenté par l'IA. GitLab, qui a testé le modèle pour des tâches DevSecOps, a constaté qu'il offrait un raisonnement plus fort (jusqu'à 10 % selon les cas d'utilisation) sans latence supplémentaire, ce qui en fait un choix idéal pour alimenter les processus de développement de logiciels en plusieurs étapes. Cognition utilise le nouveau Claude 3.5 Sonnet pour les évaluations d'IA autonomes, et a constaté des améliorations substantielles dans le codage, la planification et la résolution de problèmes par rapport à la version précédente. The Browser Company, en utilisant le modèle pour automatiser les flux de travail basés sur le web, a noté que Claude 3.5 Sonnet surpassait tous les modèles qu'ils avaient testés auparavant.

    Concernant la sécurité du modèle, Anthropic annonce avoir mené des tests conjoints de pré-déploiement du nouveau modèle Claude 3.5 Sonnet en partenariat avec l'US AI Safety Institute (US AISI) et l'UK Safety Institute (UK AISI). Anthropic aurait également évalué les risques catastrophiques de la version améliorée de Claude 3.5 Sonnet et avons constaté que la norme ASL-2, dans sa politique de mise à l'échelle responsable, reste appropriée pour le modèle.

    Claude 3.5 Haiku : une modèle entre l'accessibilité et la rapidité

    Claude 3.5 Haiku est la nouvelle génération de Claude 3 Haiku, qu'Anthropic qualifie de modèle "le plus rapide". Pour le même coût et une vitesse similaire, Claude 3.5 Haiku s'améliore dans tous les domaines de compétences et surpasse même Claude 3 Opus, le plus grand modèle de la génération précédente, sur de nombreux benchmarks d'intelligence. Claude 3.5 Haiku serait particulièrement performant dans les tâches de codage. Par exemple, il obtient un score de 40,6 % sur le banc d'essai SWE Verified, surpassant de nombreux agents utilisant des modèles de pointe publiquement disponibles, y compris le Claude 3.5 Sonnet original et le GPT-4o.

    Avec une faible latence, un meilleur suivi des instructions et une utilisation plus précise des outils, Claude 3.5 Haiku serait bien adapté aux produits destinés aux utilisateurs, aux tâches spécialisées des sous-agents et à la génération d'expériences personnalisées à partir d'énormes volumes de données, comme l'historique des achats, les prix ou les registres d'inventaire. Claude 3.5 Haiku sera disponible dans le courant du mois d'octobre 2024 à travers les API Amazon Bedrock et Vertex AI de Google Cloud - initialement en tant que modèle texte uniquement et avec une entrée d'image à suivre.

    Nom : 1.jpg
Affichages : 1697
Taille : 117,9 Ko

    Apprendre à Claude à naviguer sur les ordinateurs de manière responsable

    En ce qui concerne l'utilisation des ordinateurs, Anthropic souhaite présenter quelque chose de fondamentalement nouveau. Au lieu de créer des outils spécifiques pour aider Claude à accomplir des tâches individuelles, Anthropic aurait enseigner des compétences informatiques générales, pour permettre au modèle d'utiliser une large gamme d'outils et de logiciels standard conçus pour les humains. Les développeurs peuvent utiliser cette capacité naissante pour automatiser des processus répétitifs, construire et tester des logiciels, et mener des tâches ouvertes comme la recherche.

    Pour rendre ces compétences générales possibles, Anthropic propose une API qui permet à Claude de percevoir et d'interagir avec des interfaces informatiques. Les développeurs peuvent intégrer cette API pour permettre à Claude de traduire des instructions en commandes informatiques. Par exemple : "utiliser les données de mon ordinateur et en ligne pour remplir ce formulaire" se traduit par "vérifier une feuille de calcul ; déplacer le curseur pour ouvrir un navigateur web ; naviguer vers les pages web pertinentes ; remplir un formulaire avec les données de ces pages ; et ainsi de suite".

    Sur OSWorld, qui évalue la capacité des modèles d'IA à utiliser les ordinateurs comme le font les gens, Claude 3.5 Sonnet a obtenu un score de 14,9 % dans la catégorie des captures d'écran uniquement, ce qui est nettement mieux que le score de 7,8 % du système d'IA suivant. Lorsqu'il disposait d'un plus grand nombre d'étapes pour accomplir la tâche, Claude a obtenu un score de 22,0 %.

    Anthropic commente cette nouvelle fonctionnalité :

    Bien que nous nous attendions à ce que cette capacité s'améliore rapidement dans les mois à venir, la capacité actuelle de Claude à utiliser les ordinateurs est imparfaite. Certaines actions que les gens effectuent sans effort - faire défiler, glisser, zoomer - présentent actuellement des difficultés pour Claude et nous encourageons les développeurs à commencer l'exploration par des tâches à faible risque.

    L'utilisation de l'ordinateur pouvant constituer un nouveau vecteur pour des menaces plus familières telles que le spam, la désinformation ou la fraude, nous adoptons une approche proactive pour promouvoir son déploiement en toute sécurité. Nous avons mis au point de nouveaux classificateurs capables d'identifier le moment où l'ordinateur est utilisé et de déterminer s'il y a préjudice. Pour en savoir plus sur le processus de recherche à l'origine de cette nouvelle compétence, ainsi que sur les mesures de sécurité, consultez notre article sur le développement de l'utilisation de l'ordinateur.
    Source : Anthropic

    Et vous ?

    Quel est votre avis sur ces nouveaux modèles ?
    Pensez-vous que cette nouvelle fonctionnalité "utilisation des ordinateurs" est crédible ou pertinente ?

    Voir aussi :

    Anthropic vous permet désormais de créer des agents d'IA pour que son chatbot Claude travaille pour vous : assistant de messagerie, bot d'achat, ou autres solutions personnalisées, avec n'importe quelle API

    Qualité vs prix : Mistral 8x7B est le modèle d'IA le plus rapide et le plus accessible en matière de coût, tandis que GPT-4 Turbo et Claude 3 Opus fournissent des réponses de meilleure qualité

    Des équipes d'agents LLM peuvent exploiter de manière autonome des vulnérabilités de type "zero-day". Les acteurs "black-hat" peuvent désormais utiliser des agents d'IA pour pirater des sites Web
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  5. #5
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 392
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 392
    Par défaut Anthropic propose un outil d'IA capable de prendre le contrôle du curseur de la souris de l'utilisateur
    Anthropic propose en bêta un outil d'IA capable de prendre le contrôle du curseur de la souris de l'utilisateur
    et d'effectuer des tâches de base sur son ordinateur

    L'entreprise de logiciels d'IA Anthropic a annoncé un nouvel outil capable de prendre le contrôle du curseur de la souris de l'utilisateur et d'effectuer des tâches de base sur son ordinateur. Annoncé en même temps que d'autres améliorations des modèles Claude et Haiku d'Anthropic, l'outil s'appelle tout simplement « Utilisation de l'ordinateur ». Il est disponible exclusivement avec le modèle de milieu de gamme 3.5 Sonnet de la société, via l'API. Les utilisateurs peuvent donner des instructions en plusieurs étapes (Anthropic affirme qu'elles peuvent aller jusqu'à des dizaines, voire des centaines d'étapes) pour accomplir des tâches sur l'ordinateur de l'utilisateur en « regardant un écran, en déplaçant un curseur, en cliquant sur des boutons et en tapant du texte ».

    Voici comment Anthropic explique son fonctionnement :

    « Lorsqu'un développeur confie à Claude l'utilisation d'un logiciel et lui donne les accès nécessaires, Claude regarde les captures d'écran de ce qui est visible par l'utilisateur, puis compte le nombre de pixels verticaux ou horizontaux dont il a besoin pour déplacer un curseur afin de cliquer au bon endroit. Il était essentiel d'apprendre à Claude à compter les pixels avec précision. Sans cette compétence, le modèle éprouve des difficultés à donner des ordres à la souris, tout comme les modèles ont souvent du mal à répondre à des questions simples comme « combien y a-t-il de A dans le mot “banane” ?

    Le modèle a bien sûr ses limites. Il fonctionne en prenant des captures d'écran successives et rapides plutôt qu'en travaillant avec un flux vidéo en direct, de sorte qu'il peut manquer des notifications de courte durée ou d'autres changements. Il n'est toujours pas en mesure d'effectuer certaines actions courantes, comme le glisser-déposer.

    Anthropic a également indiqué qu'il était parfois « lourd et sujet aux erreurs ». Un billet de blog sur le développement de l'outil donne un exemple de la façon dont il s'est mal comporté lors des tests : Il a abandonné une tâche de codage avant de la terminer et a commencé à la place à « parcourir des photos du parc national de Yellowstone »

    Citation Envoyé par Anthropic
    Claude peut désormais utiliser des ordinateurs. La dernière version de Claude 3.5 Sonnet peut, lorsqu'elle est exécutée avec la configuration logicielle appropriée, suivre les commandes d'un utilisateur pour déplacer un curseur sur l'écran de son ordinateur, cliquer sur des endroits pertinents et saisir des informations via un clavier virtuel, émulant ainsi la manière dont les gens interagissent avec leur propre ordinateur.

    Nous pensons que cette compétence, qui est actuellement en version bêta publique, représente une avancée significative dans les progrès de l'IA. Nous vous présentons ci-dessous les résultats des recherches qui ont permis de mettre au point des modèles d'utilisation de l'ordinateur et de les rendre plus sûrs.

    Pourquoi l'utilisation d'un ordinateur ?

    Pourquoi cette nouvelle capacité est-elle importante ? Une grande partie du travail moderne s'effectue sur ordinateur. Permettre à l'IA d'interagir directement avec les logiciels informatiques de la même manière que les humains débloquera une vaste gamme d'applications qui ne sont tout simplement pas possibles pour la génération actuelle d'assistants d'IA.

    Au cours des dernières années, de nombreuses étapes importantes ont été franchies dans le développement d'une IA puissante - par exemple, la capacité d'effectuer des raisonnements logiques complexes et la capacité de voir et de comprendre des images. La prochaine frontière est l'utilisation de l'ordinateur : Des modèles d'IA qui n'ont pas besoin d'interagir par le biais d'outils sur mesure, mais qui sont au contraire habilités à utiliser pratiquement n'importe quel logiciel selon les instructions reçues.
    L'outil est actuellement en version bêta publique, mais il est déjà utilisé par des organisations partenaires depuis un certain temps. Des employés d'entreprises telles qu'Amazon, Canva, Asana et Notion l'ont testé de manière limitée.


    Des entreprises concurrentes, comme OpenAI, travaillent sur des outils équivalents, mais ne les ont pas encore rendus publics

    Il s'agit en quelque sorte d'une course aux armements, car ces outils devraient générer beaucoup de revenus dans quelques années s'ils progressent comme prévu. On pense que ces outils pourraient à terme automatiser de nombreuses tâches subalternes dans les emplois de bureau. Ils pourraient également être utiles aux développeurs en ce sens qu'ils pourraient « automatiser les tâches répétitives » et rationaliser les travaux laborieux d'assurance qualité et d'optimisation.

    Cela fait partie depuis longtemps du message d'Anthropic aux investisseurs : ses outils d'IA pourraient prendre en charge une grande partie de certains travaux de bureau de manière plus efficace et plus abordable que les humains. Le test public de la fonction Computer Use est une étape vers la réalisation de cet objectif.

    Nous connaissons bien sûr le débat permanent sur ces types d'outils entre ceux qui disent que « c'est juste un outil qui facilitera le travail des gens » et ceux qui disent que « cela va mettre des gens au chômage dans toutes les industries comme une boule de démolition ». En fait, les deux pourraient se produire dans une certaine mesure. La question est simplement de savoir quel sera le ratio... et cela peut varier en fonction de la situation ou de l'industrie.

    Nom : anthropic.png
Affichages : 19425
Taille : 204,6 Ko

    Le déploiement à grande échelle de cette technologie suscite toutefois de nombreuses inquiétudes valables

    Anthropic a eu le mérite d'essayer d'anticiper certaines d'entre elles en mettant en place des mesures de protection dès le départ. L'entreprise a donné quelques exemples dans son billet de blog :

    Citation Envoyé par Anthropic
    Comme pour toute capacité d'IA, il existe également un risque que les utilisateurs abusent intentionnellement des compétences informatiques de Claude. Nos équipes ont mis au point des classificateurs et d'autres méthodes pour repérer et limiter ce type d'abus. À l'approche des élections américaines, nous sommes très attentifs aux tentatives d'abus qui pourraient être perçues comme une atteinte à la confiance du public dans les processus électoraux. Bien que l'utilisation des ordinateurs ne soit pas suffisamment avancée ou capable de fonctionner à une échelle qui présenterait des risques accrus par rapport aux capacités existantes, nous avons mis en place des mesures pour surveiller lorsque Claude est invité à s'engager dans des activités liées aux élections, ainsi que des systèmes pour éloigner Claude d'activités telles que la création et la publication de contenu sur les médias sociaux, l'enregistrement de domaines web, ou l'interaction avec des sites web gouvernementaux.
    Ces mesures de protection ne sont pas parfaites, car il peut y avoir des moyens créatifs de les contourner ou d'autres conséquences involontaires ou abusives qui restent à découvrir.

    Pour l'instant, Anthropic teste Computer Use pour voir quels problèmes se posent et pour travailler avec les développeurs afin d'améliorer ses capacités et de trouver des utilisations positives.

    D'autres implications potentielles

    Alors que l'outil d'Anthropic ouvre des perspectives fascinantes pour l'avenir de l'interaction homme-machine, il est essentiel de se projeter dans les implications potentielles et d'envisager les scénarios futurs, aussi bien optimistes que dystopiques.

    L'ombre de Skynet : Science-fiction ou réalité potentielle ?

    L'idée d'une IA prenant le contrôle des systèmes informatiques fait inévitablement écho aux scénarios dystopiques de la science-fiction, tels que le célèbre Skynet de la saga Terminator. Une IA dotée de droits étendus sur un PC pourrait, en théorie, accumuler un pouvoir considérable, allant au-delà de la simple assistance utilisateur pour atteindre un niveau de contrôle inquiétant. Bien que ces visions soient, pour l'instant, de la pure fiction, elles servent d'avertissement sur les dérives possibles si des garde-fous adéquats ne sont pas mis en place.

    Le télétravailleur fictif : Une illusion d'efficacité ?

    Avec l'essor du télétravail, cette technologie pourrait être détournée à des fins moins nobles. Imaginez un scénario où un travailleur à distance utilise l'IA pour simuler une activité professionnelle sans véritablement travailler. L'IA, capable de naviguer, de cliquer et d'interagir avec des logiciels, pourrait donner l'illusion d'une productivité constante. Cela pose des questions sur la surveillance, la confiance et l'authenticité du travail à distance. Les entreprises devront redoubler de vigilance pour s'assurer que la technologie reste un outil d'assistance plutôt qu'un moyen de tromperie.

    Les emplois "bullshit" automatisés : Vers une redéfinition du travail ?

    L'automatisation croissante des tâches par l'IA pourrait également mener à une nouvelle ère d'emplois dits "bullshit", c'est-à-dire des postes souvent considérés comme inutiles ou dépourvus de sens. Une IA capable de gérer des tâches répétitives et administratives pourrait réduire le besoin de ces emplois humains, mais cela soulève des questions sur la redéfinition du travail et la place de l'humain dans l'économie future. Les sociétés devront s'adapter et repenser les modèles de travail pour s'assurer que l'innovation technologique bénéficie à tous et ne creuse pas davantage les inégalités.

    Source : Anthropic

    Et vous ?

    Quels avantages et inconvénients voyez-vous à ce que l'IA prenne le contrôle du curseur de la souris ?
    Êtes-vous plutôt enthousiaste ou sceptique face à cette nouvelle technologie ? Pourquoi ?
    Une IA sur un PC avec des droits est-elle susceptible d'avoir trop de pouvoir ? À votre avis, que pourrait-il se passer si ladite IA disposait de droit d'administration ?
    Comment évalueriez-vous les mesures de sécurité et de confidentialité promises par Anthropic ? Sont-elles suffisantes à votre avis ?
    Pensez-vous que les scénarios dystopiques de la science-fiction, comme Skynet, pourraient un jour devenir réalité avec l'évolution de l'IA ? Pourquoi ou pourquoi pas ?
    Comment les entreprises pourraient-elles détecter et prévenir l'utilisation de l'IA pour simuler le travail dans un contexte de télétravail ?
    L'automatisation des emplois "bullshit" par l'IA est-elle une menace ou une opportunité pour redéfinir le travail ? Quelle est votre vision à ce sujet ?
    Quels garde-fous devraient être mis en place pour s'assurer que cette technologie d'Anthropic reste bénéfique et sécurisée ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  6. #6
    Membre confirmé
    Homme Profil pro
    autre
    Inscrit en
    Juin 2014
    Messages
    287
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Aveyron (Midi Pyrénées)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Juin 2014
    Messages : 287
    Par défaut
    sudo apt install xdotool (82.7 ko)

  7. #7
    Membre confirmé Avatar de rsuinux
    Homme Profil pro
    Infirmier Formateur pour logiciel de Dossiers de Soins Informatisés
    Inscrit en
    Août 2007
    Messages
    154
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Haute Vienne (Limousin)

    Informations professionnelles :
    Activité : Infirmier Formateur pour logiciel de Dossiers de Soins Informatisés
    Secteur : Santé

    Informations forums :
    Inscription : Août 2007
    Messages : 154
    Par défaut
    J'attend la prise en main de cet ia pas un utilisateur non désiré, qui ira faire cliquer pour virer de l'argent a l'étranger. Et on dira: ah, mais c'est vous qui avez cliqué, c'est votre ordinateur.
    Quasi un piratage par l'IA.

  8. #8
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 392
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 392
    Par défaut Claude, le chatbot IA d'Anthropic, peut désormais écrire et exécuter du code JavaScript
    Claude, le chatbot IA d'Anthropic, peut désormais écrire et exécuter du code JavaScript.
    L'entreprise a lancé un nouvel outil d'analyse qui permet à Claude d'analyser des ensembles de données divers et itérer sur différents scénarios

    Le chatbot Claude d'Anthropic peut désormais écrire et exécuter du code JavaScript. Anthropic a lancé un nouvel outil d'analyse qui aide Claude à répondre avec ce que l'entreprise décrit comme des « réponses mathématiquement précises et reproductibles ». Lorsque l'outil est activé (il est actuellement en Preview) Claude peut effectuer des calculs et analyser des données à partir de fichiers tels que des feuilles de calcul et des fichiers PDF, et restituer les résultats sous forme de visualisations interactives. L'outil d'analyse d'Anthropic est disponible pour tous les utilisateurs de Claude sur le web depuis jeudi.

    Anthropic a présenté cette nouvelle fonctionnalité comme une boîte à outils intégrée. Claude peut ainsi effectuer des calculs sophistiqués, analyser des ensembles de données divers et itérer sur différents scénarios avant de fournir une réponse :

    « Nous présentons l'outil d'analyse, une nouvelle fonctionnalité intégrée à Claude.ai qui permet à Claude d'écrire et d'exécuter du code JavaScript. Claude peut désormais traiter des données, effectuer des analyses et produire des informations en temps réel. L'outil d'analyse est disponible pour tous les utilisateurs de Claude.ai en avant-première.

    « Imaginez l'outil d'analyse comme un bac à sable de code intégré, où Claude peut effectuer des calculs complexes, analyser des données et itérer sur différentes idées avant de partager une réponse. La capacité de traiter des informations et d'exécuter du code signifie que vous obtenez des réponses plus précises, en s'appuyant sur les compétences de pointe de Claude 3.5 Sonnet en matière de codage et de données ».

    Citation Envoyé par Anthropic
    Analyse et visualisation de données à partir de fichiers CSV

    Lorsque vous avez besoin de réponses précises et vérifiables à partir de données, Claude fonctionne désormais comme un véritable analyste de données. Au lieu de s'appuyer uniquement sur une analyse abstraite, il peut traiter systématiquement vos données - en les nettoyant, en les explorant et en les analysant étape par étape jusqu'à ce qu'il atteigne le bon résultat.

    Alors que Claude pouvait toujours écrire du code, il peut maintenant exécuter ce code dans Claude.ai pour prendre en charge tous les types de tâches d'analyse. Avec l'outil d'analyse, vous obtenez des réponses qui ne sont pas seulement bien raisonnées, mais aussi mathématiquement précises et reproductibles.
    Applications pratiques

    Anthropic donne quelques exemples de cas où cela pourrait être utile. Par exemple, un chef de produit peut télécharger des données sur les ventes et demander à Claude une analyse des performances par pays, tandis qu'un ingénieur peut fournir à Claude des données financières mensuelles et lui demander de créer un tableau de bord mettant en évidence les principales tendances.

    L'outil d'analyse de Claude.ai permet d'étendre les capacités des équipes. Par exemple :
    • Les spécialistes du marketing peuvent télécharger les interactions avec les clients sur l'ensemble de l'entonnoir et Claude mettra en évidence les possibilités d'améliorer les conversions.
    • Les équipes de vente peuvent télécharger des données sur les ventes globales et Claude fournira une analyse des performances spécifiques à chaque pays.
    • Les gestionnaires de produits peuvent télécharger des données sur l'engagement des clients et Claude les aidera à planifier les sprints et à définir les priorités de développement.
    • Les ingénieurs peuvent télécharger les journaux de performance de divers serveurs et Claude identifiera les domaines dans lesquels il est possible d'améliorer l'utilisation des ressources.
    • Les équipes financières peuvent télécharger des données financières mensuelles et Claude créera un tableau de bord financier pour transmettre les tendances clés et informer la prise de décision.
    Claude pouvait déjà s'essayer à ces tâches auparavant. Mais comme il n'y avait pas de mécanisme de vérification mathématique des résultats, les réponses n'étaient pas toujours incroyablement précises.

    Google propose une fonction comparable pour ses modèles Gemini, appelée Code Execution, qui permet aux modèles de générer et d'exécuter du code Python afin d'apprendre de manière itérative à partir des résultats. Les modèles phares d'OpenAI peuvent également écrire et exécuter du code grâce à une fonction que l'entreprise appelle « Analyse avancée des données ».

    Nom : sales.png
Affichages : 28901
Taille : 28,2 Ko

    Accessibilité et utilisation

    Actuellement en Preview, cette fonctionnalité est accessible à tous les utilisateurs de Claude via le web. Pour l'activer, il suffit de se connecter à Claude.ai et de sélectionner l'option "aperçu de la fonctionnalité". Elle est particulièrement bénéfique pour les équipes sans expertise en programmation, facilitant ainsi l'analyse de données directement dans l'interface utilisateur.

    Une révolution ou une simple évolution?

    Si cette avancée est indéniablement impressionnante, plusieurs questions demeurent. D'une part, la capacité de Claude à coder de façon autonome soulève des préoccupations quant à la précision et la sécurité des analyses fournies. En effet, le code généré pourrait potentiellement contenir des erreurs ou des biais, influençant ainsi les résultats des analyses.

    En outre, bien que cette fonctionnalité soit prometteuse pour les utilisateurs non techniques, elle pourrait également limiter la profondeur des analyses pour les professionnels expérimentés qui préfèrent une approche plus granulaire et personnalisée.

    Enfin, cette avancée pose des questions éthiques sur la dépendance accrue aux intelligences artificielles pour des tâches critiques. La capacité de Claude à coder de manière autonome pourrait réduire la demande en développeurs humains, menaçant ainsi certains emplois tout en modifiant radicalement le paysage du travail informatique.

    En somme, l'introduction de la fonctionnalité de rédaction et d'exécution de code par Anthropic est une avancée majeure, rendant les outils d'analyse de données plus accessibles et précis. Cependant, comme pour toute innovation, elle nécessite une réflexion approfondie sur ses implications pratiques et éthiques. Seul le temps dira si cette technologie représente une véritable révolution ou simplement une évolution naturelle dans le domaine de l'IA.

    Tester l'outil d'analyse d'Anthropic

    Source : Anthropic

    Et vous ?

    Comment percevez-vous l'intégration des capacités de codage autonomes dans les IA comme Claude ?
    Quels avantages et inconvénients voyez-vous dans le fait de confier des tâches de codage à des IA plutôt qu'à des humains ?
    Pensez-vous que les IA devraient être utilisées pour des tâches critiques ou sensibles ? Pourquoi ou pourquoi pas ?
    Comment cette avancée pourrait-elle impacter le marché de l'emploi dans le secteur informatique ?
    Quels seraient les critères pour garantir la sécurité et la précision du code généré par les IA ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 37
    Dernier message: 15/11/2024, 20h38
  2. Réponses: 0
    Dernier message: 14/06/2024, 19h15
  3. Réponses: 4
    Dernier message: 22/11/2023, 07h36
  4. Réponses: 0
    Dernier message: 08/09/2023, 07h35
  5. Anthropic lance Claude Instant 1.2 avec une longueur de contexte de 100 000
    Par Jade Emy dans le forum Intelligence artificielle
    Réponses: 0
    Dernier message: 11/08/2023, 09h22

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo