IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Google DeepMind dévoile des avancées en matière de sécurité des robots d'IA avec une "constitution des robots"


Sujet :

Intelligence artificielle

  1. #1
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    949
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 949
    Points : 66 383
    Points
    66 383
    Par défaut Google DeepMind dévoile des avancées en matière de sécurité des robots d'IA avec une "constitution des robots"
    Google DeepMind présente RT-X : un modèle d'IA généraliste pour aider à faire progresser la façon dont les robots peuvent apprendre de nouvelles compétences.

    Les robots sont de grands spécialistes, mais de piètres généralistes. En règle générale, il faut former un modèle pour chaque tâche, chaque robot et chaque environnement. Si l'on modifie une seule variable, il faut souvent repartir de zéro. Mais que se passerait-il si nous pouvions combiner les connaissances de toute la robotique et créer un moyen de former un robot polyvalent ?

    Aujourd'hui, Google DeepMind lance un nouvel ensemble de ressources pour l'apprentissage de la robotique polyvalente à travers différents types de robots ou réalisations. En collaboration avec des partenaires issus de 33 laboratoires universitaires, ils ont mis en commun des données provenant de 22 types de robots différents pour créer l'ensemble de données Open X-Embodiment. Ils ont également publié RT-1-X, un modèle de transformateur robotique (RT) dérivé de RT-1 et entraîné sur leur ensemble de données, qui montre un transfert de compétences entre de nombreux types de robots.

    Dans ce travail, nous montrons que l'entraînement d'un modèle unique sur des données provenant de plusieurs réalisations permet d'obtenir des performances significativement meilleures pour de nombreux robots que les modèles entraînés sur des données provenant de réalisations individuelles. Nous avons testé notre modèle RT-1-X dans cinq laboratoires de recherche différents, démontrant une amélioration de 50 % du taux de réussite en moyenne sur cinq robots différents couramment utilisés par rapport aux méthodes développées indépendamment et spécifiquement pour chaque robot. Nous avons également montré que l'entraînement de notre modèle d'action du langage visuel, RT-2, sur des données provenant de réalisations multiples triplait ses performances en matière de compétences robotiques réelles.

    Nous avons développé ces outils pour faire progresser collectivement la recherche inter-emblèmes dans la communauté de la robotique. L'ensemble de données Open X-Embodiment et le point de contrôle du modèle RT-1-X sont maintenant disponibles pour le bénéfice de la communauté de recherche élargie, grâce au travail des laboratoires de robotique du monde entier qui ont partagé des données et aidé à évaluer notre modèle dans le cadre d'un engagement à développer cette technologie de manière ouverte et responsable. Nous pensons que ces outils transformeront la façon dont les robots sont formés et accéléreront ce domaine de recherche.

    Ensemble de données Open X-Embodiment : Collecte de données pour former des robots d'intelligence artificielle

    Les ensembles de données et les modèles formés à partir de ces données ont joué un rôle essentiel dans l'avancement de l'IA. Tout comme ImageNet a propulsé la recherche en vision par ordinateur, DeepMind pense qu'Open X-Embodiment peut faire de même pour faire progresser la robotique. La constitution d'un ensemble de données de diverses démonstrations de robots est l'étape clé de l'entraînement d'un modèle généraliste capable de contrôler de nombreux types de robots, de suivre diverses instructions, d'effectuer un raisonnement de base sur des tâches complexes et de généraliser de manière efficace. Cependant, la collecte d'un tel ensemble de données est trop gourmande en ressources pour un seul laboratoire.

    Pour développer l'ensemble de données Open X-Embodiment, DeepMind s'est associé à des laboratoires de recherche universitaires de plus de 20 institutions afin de recueillir des données provenant de 22 incarnations de robots, démontrant plus de 500 compétences et 150 000 tâches à travers plus d'un million d'épisodes. Cet ensemble de données est le plus complet de ce type dans le domaine de la robotique.

    Nom : 1.png
Affichages : 970
Taille : 1,98 Mo

    RT-X : Un modèle robotique polyvalent

    RT-X s'appuie sur deux des modèles transformateurs de robotique de DeepMind. Ils ont entraîné RT-1-X à l'aide de RT-1, un modèle de contrôle robotique à l'échelle du monde réel, et ils ont entraîné RT-2-X à l'aide de RT-2, un modèle vision-langage-action (VLA) qui apprend à partir de données web et robotiques. Ils montrent ainsi qu'avec la même architecture de modèle, RT-1-X et RT-2-X sont capables d'atteindre de meilleures performances grâce aux données beaucoup plus diverses et croisées sur lesquelles ils sont entraînés. Cela montre également qu'ils améliorent les modèles formés dans des domaines spécifiques et qu'ils présentent une meilleure généralisation et de nouvelles capacités.

    Pour évaluer RT-1-X dans les universités partenaires, ils ont comparé ses performances à celles des modèles développés pour leur tâche spécifique, comme l'ouverture d'une porte, sur l'ensemble de données correspondant. RT-1-X entraîné avec l'ensemble de données Open X-Embodiment a surpassé le modèle original de 50 % en moyenne.

    Nom : 2.png
Affichages : 965
Taille : 123,0 KoNom : 2.png
Affichages : 965
Taille : 123,0 Ko

    Compétences émergentes dans RT-X

    Pour étudier le transfert de connaissances entre robots, DeepMind mène des expériences avec son robot assistant sur des tâches qui impliquent des objets et des compétences qui ne sont pas présents dans l'ensemble de données RT-2, mais qui existent dans un autre ensemble de données pour un robot différent. Plus précisément, RT-2-X a été trois fois plus performant que le meilleur modèle précédent, RT-2, pour les compétences émergentes.

    Nos résultats suggèrent que le co-entraînement avec des données provenant d'autres plateformes imprègne RT-2-X de compétences supplémentaires qui n'étaient pas présentes dans l'ensemble de données original, ce qui lui permet d'effectuer de nouvelles tâches.
    RT-2-X démontre des compétences dont le modèle RT-2 n'était pas capable auparavant, notamment une meilleure compréhension de l'espace. Par exemple, si on demande au robot de "déplacer la pomme près du tissu" au lieu de "déplacer la pomme sur le tissu", les trajectoires sont très différentes. En changeant la préposition de "près" à "sur", on peut moduler les actions du robot.

    RT-2-X montre que la combinaison de données provenant d'autres robots dans l'entraînement améliore l'éventail des tâches pouvant être exécutées même par un robot qui dispose déjà de grandes quantités de données, mais seulement si l'on utilise une architecture à capacité suffisamment élevée.

    Faire progresser la recherche en robotique de manière responsable

    La recherche en robotique se trouve à un stade passionnant, mais précoce. De nouvelles recherches montrent qu'il est possible de mettre au point des robots d'assistance plus utiles en développant l'apprentissage à l'aide de données plus diverses et de meilleurs modèles. La collaboration avec des laboratoires du monde entier et le partage des ressources sont essentiels pour faire progresser la recherche en robotique de manière ouverte et responsable. DeepMind espère que l'ouverture des données et la fourniture de modèles sûrs mais limités réduiront les obstacles et accéléreront la recherche. L'avenir de la robotique repose sur la possibilité pour les robots d'apprendre les uns des autres et, surtout, pour les chercheurs d'apprendre les uns des autres.

    Ce travail démontre qu'il est possible d'utiliser des modèles qui se généralisent à travers les incarnations, avec des améliorations spectaculaires des performances à la fois avec des robots ici à Google DeepMind et sur des robots dans différentes universités à travers le monde. Les recherches futures pourraient explorer comment combiner ces avancées avec la propriété d'auto-amélioration de RoboCat pour permettre aux modèles de s'améliorer avec leur propre expérience. Une autre direction future pourrait être d'étudier plus avant comment différents mélanges d'ensembles de données peuvent affecter la généralisation inter-emblèmes et comment la généralisation améliorée se matérialise.

    Source : Google DeepMind

    Et vous ?

    Quel est votre avis sur ce modèle RT-X ?
    Selon vous, quelles sont les forces et les limites d'un modèle d'IA généraliste ?

    Voir aussi :

    Google crée Google DeepMind, un nouveau groupe de recherche en IA, formé par la fusion de DeepMind et Brain

    Comment Google DeepMind compte révolutionner l'IA générative et détrôner ChatGPT avec Gemini, son système d'IA qui combine les forces d'AlphaGo aux capacités des grands modèles de langage

    La dernière vidéo du robot humanoïde Atlas de Boston Dynamics montre qu'il est capable de courir, sauter, prendre un objet au sol et le lancer à un ouvrier sur un chantier de construction simulé
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 858
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 858
    Points : 36 485
    Points
    36 485
    Par défaut Google DeepMind dévoile des avancées en matière de sécurité des robots d'IA avec une "constitution des robots"
    DeepMind, une filiale de Google, présente des progrès dans la sécurité des robots d'IA avec une « Constitution des robots »,
    visant à garantir qu'ils ne représentent pas une menace mortelle

    DeepMind, filiale de Google, présente des avancées significatives en matière de sécurité robotique, dévoilant une « constitution des robots » pour garantir le comportement sûr de ses intelligences artificielles. Le système de collecte de données AutoRT, intégrant des modèles de langage visuel et étendu, est conçu pour permettre aux robots d'appréhender leur environnement, de s'adapter à des situations inconnues et de prendre des décisions appropriées. Inspirée par les célèbres « Trois lois de la robotique » d'Isaac Asimov, cette constitution vise à établir des directives de sécurité claires pour les robots, les empêchant d'entreprendre des actions potentiellement dangereuses pour les humains et leur environnement.

    Pour renforcer la sécurité, DeepMind a implanté des dispositifs permettant aux robots de s'arrêter automatiquement en cas de contrainte excessive sur leurs articulations, ainsi qu'un interrupteur physique pour une désactivation manuelle par les opérateurs humains. Les robots équipés des systèmes AutoRT ont été testés pendant sept mois dans divers environnements de bureau, effectuant plus de 77 000 essais, combinant des opérations télécommandées et autonomes.

    Nom : GDMR.jpg
Affichages : 1284
Taille : 84,3 Ko

    Le projet de sécurité robotique dévoilé par DeepMind, soulève des questions cruciales sur la gestion éthique et sécuritaire de l'intelligence artificielle (IA) dans le domaine de la robotique. La mise en avant d'une « constitution des robots » montre un effort délibéré de la part de DeepMind pour aborder les préoccupations croissantes liées à la sécurité des robots autonomes.

    Les robots alimentés par l'IA pourraient être dangereux pour les humains

    Les robots alimentés par l'IA posent des questions cruciales quant à leur impact potentiel sur le monde. Les robots d'IA, équipés de technologies avancées telles que des capteurs, des caméras et des algorithmes d'apprentissage automatique, sont conçus pour effectuer diverses tâches, allant de la fabrication aux soins de santé, en passant par l'éducation et le divertissement. Leur capacité à apprendre et à s'adapter à leur environnement soulève des perspectives révolutionnaires dans divers secteurs.

    Cependant, malgré les avantages potentiels, l'utilisation généralisée de robots d'IA soulève des préoccupations significatives. La possibilité de dommages physiques en cas de dysfonctionnement ou de mauvaise utilisation, le risque de déplacement d'emplois avec l'avancée de la technologie, les inquiétudes concernant la vie privée et la sécurité dues aux capteurs avancés, ainsi que les préoccupations liées aux biais et à la discrimination dans les algorithmes d'IA sont autant de points soulevés.

    Pour garantir le développement et l'utilisation responsables de ces robots d'IA, la participation de parties prenantes variées, incluant des experts en éthique, en droit et en sciences sociales, est essentielle. L'établissement de réglementations et de lignes directrices claires est également nécessaire pour assurer une utilisation sûre et responsable de ces technologies émergentes.

    Au-delà de ces considérations, une question émerge quant à la possibilité d'un lien émotionnel entre les êtres humains et les robots d'IA. Les études suggèrent de plus en plus que les humains peuvent établir des connexions émotionnelles avec ces robots, notamment en raison de leur capacité à simuler des comportements humains. Cependant, ces liens émotionnels soulèvent également des questions éthiques sur la manipulation potentielle des individus par les concepteurs ou les opérateurs des robots.

    Bien que les robots d'IA offrent des avantages significatifs, leur adoption nécessite une approche réfléchie, tenant compte des risques potentiels et des implications éthiques associées.

    Évaluation critique des initiatives d'AutoRT et de SARA-RT de DeepMind

    L'utilisation d'un système de collecte de données, AutoRT, équipé de modèles de langage visuel et étendu, représente une avancée majeure dans la capacité des robots à comprendre et à s'adapter à des environnements inconnus. Cependant, bien que cette initiative démontre une préoccupation sérieuse pour la sécurité, des interrogations subsistent quant à la mise en œuvre concrète de ces directives dans des scénarios du monde réel. Les avancées technologiques, comme l'arrêt automatique en cas de contrainte excessive sur les articulations, ainsi que la désactivation manuelle par les opérateurs humains, sont certes des mesures rassurantes, mais la réelle efficacité de ces mécanismes dans des situations complexes reste à être évaluée.

    Les robots utilisent une architecture de réseau neuronal améliorée, SARA-RT, pour optimiser la précision et la vitesse du modèle d'apprentissage RT-2. En outre, RT-Trajectory ajoute des contours en 2D pour améliorer la réalisation de tâches physiques spécifiques. Bien que ces avancées ne permettent pas encore des robots totalement autonomes pour des tâches complexes, elles représentent une étape cruciale vers un avenir où les robots pourraient bénéficier de l'apprentissage du système AutoRT.

    Alors que la Robot Constitution vise à établir des limites, elle soulève également des questions sur la définition de ces limites et sur la responsabilité en cas de défaillance du système. Dans un monde où l'IA devient de plus en plus omniprésente, il est impératif de trouver un équilibre entre l'innovation technologique et la sécurité, tout en respectant les principes éthiques fondamentaux.

    Le système de collecte de données de Google, AutoRT, peut utiliser un modèle de langage visuel (VLM) et un modèle de langage étendu (LLM) fonctionnant main dans la main pour comprendre son environnement, s'adapter à des environnements inconnus et décider des tâches appropriées. La Constitution du robot, qui s'inspire des « Trois lois de la robotique » d'Isaac Asimov, est décrite comme un ensemble d'« invites axées sur la sécurité » indiquant au LLM d'éviter de choisir des tâches impliquant des humains, des animaux, des objets tranchants et même des appareils électriques.

    Pour plus de sécurité, DeepMind a programmé les robots pour qu'ils s'arrêtent automatiquement si la force exercée sur leurs articulations dépasse un certain seuil, et les a dotés d'un interrupteur physique que les opérateurs humains peuvent utiliser pour les désactiver. Pendant sept mois, Google a déployé une flotte de 53 robots AutoRT dans quatre immeubles de bureaux différents et a effectué plus de 77 000 essais. Certains robots étaient contrôlés à distance par des opérateurs humains, tandis que d'autres fonctionnaient soit sur la base d'un script, soit de manière totalement autonome en utilisant le modèle d'apprentissage de l'IA Robotic Transformer (RT-2) de Google.

    Nom : GdM.jpg
Affichages : 658
Taille : 64,6 Ko

    1. Un robot autonome sur roues trouve un emplacement avec plusieurs objets ;
    2. Un VLM décrit la scène et les objets à un LLM ;
    3. Un LLM suggère diverses tâches de manipulation pour le robot et décide quelles tâches le robot pourrait effectuer sans assistance, lesquelles nécessiteraient un contrôle à distance par un humain, et lesquelles sont impossibles, avant de faire un choix ;
    4. La tâche choisie est tentée, les données expérimentales sont collectées et les données sont notées pour leur diversité/nouveauté. (Répétition).

    Les protocoles de sécurité à plusieurs niveaux sont essentiels

    AutoRT est un système de collecte de données. Selon DeepMinf, il s'agit également d'une première démonstration de robots autonomes pour une utilisation dans le monde réel. Il comporte des garde-fous en matière de sécurité, dont l'un consiste à fournir à son décideur basé sur le LLM une Constitution du robot - un ensemble d'invites axées sur la sécurité à respecter lors de la sélection des tâches à confier aux robots.

    Comme dit précédemment, ces règles s'inspirent en partie des trois lois de la robotique d'Isaac Asimov, dont la première et la plus importante est qu'un robot « ne doit pas blesser un être humain ». D'autres règles de sécurité exigent qu'aucun robot n'entreprenne de tâches impliquant des êtres humains, des animaux, des objets tranchants ou des appareils électriques.

    Cependant, même si les grands modèles sont correctement guidés par l'autocritique, cela ne suffit pas à garantir la sécurité. Le système AutoRT comprend donc des couches de mesures de sécurité pratiques issues de la robotique classique. Par exemple, les robots collaboratifs sont programmés pour s'arrêter automatiquement si la force exercée sur leurs articulations dépasse un seuil donné, et tous les robots actifs sont maintenus dans la ligne de mire d'un superviseur humain disposant d'un interrupteur de désactivation physique.

    SARA-RT : rendre les robots transformateurs plus légers et plus rapides

    Le système Self-Adaptive Robust Attention for Robotics Transformers (SARA-RT), convertit les modèles de transformateurs robotiques (RT) en versions plus efficaces. L'architecture du réseau neuronal RT développée par l'équipe DeepMind est utilisée dans les systèmes de contrôle robotique, y compris le modèle RT-2. Les modèles SARA-RT-2 seraient 10,6 % plus précis et 14 % plus rapides que les modèles RT-2 après avoir reçu un bref historique d'images. « Nous pensons qu'il s'agit du premier mécanisme d'attention évolutif qui apporte des améliorations de calcul sans perte de qualité », L'équipe de robotique de Google DeepMind.

    Bien que les transformateurs soient puissants, ils peuvent être limités par des exigences de calcul qui ralentissent leur prise de décision. Les transformateurs s'appuient essentiellement sur des modules d'attention de complexité quadratique. Cela signifie que si les données d'entrée d'un modèle RT doublent - en dotant un robot de capteurs supplémentaires ou à plus haute résolution, par exemple - les ressources informatiques requises pour traiter ces données sont multipliées par quatre, ce qui peut ralentir la prise de décision.

    SARA-RT utilise une nouvelle méthode d'ajustement du modèle appelé up-training. Cette méthode convertit la complexité quadratique en une simple complexité linéaire, ce qui réduit considérablement les besoins de calcul. Cette conversion permet non seulement d'augmenter la vitesse du modèle original, mais aussi d'en préserver la qualité.

    Les progrès réalisés dans le domaine des robots d'IA, exemplifiés par l'initiative de Google DeepMind avec sa « constitution des robots », suscitent à la fois un sentiment d'optimisme et des préoccupations. D'un côté, l'introduction de normes de sécurité et de directives inspirées des "Trois lois de la robotique" d'Isaac Asimov représente une réponse proactive aux inquiétudes grandissantes liées aux risques potentiels des intelligences artificielles. Cette démarche témoigne d'une reconnaissance de la nécessité de réglementer et de garantir la sécurité des robots d'IA, marquant ainsi une avancée positive dans le développement de cette technologie.


    Cependant, des interrogations persistent quant à la concrétisation effective de ces garanties. La complexité de la réalité des situations réelles peut rendre difficile l'application rigide de principes, même bien intentionnés. L'évolution rapide de la technologie et la possibilité de scénarios inattendus pourraient mettre à l'épreuve l'efficacité des dispositifs de sécurité. Il est impératif que les garanties stipulées dans la « constitution des robots » de Google DeepMind fassent l'objet de tests approfondis et d'ajustements pour assurer leur validité dans divers contextes.

    Par ailleurs, l'implication de Google soulève des inquiétudes quant à la responsabilité et à l'éthique, étant donné son statut d'entreprise de premier plan. La puissance de l'IA et des robots dans notre société exige une surveillance et une transparence accrues de la part des entreprises qui les développent. La garantie de la démarche de Google DeepMind nécessite ainsi une surveillance indépendante et la participation active de divers intervenants, notamment des experts en éthique et des représentants de la société civile.

    Source : Google DeepMind

    Et vous ?

    Quel est votre avis sur le sujet ?

    Quels sont les risques potentiels liés à l'utilisation croissante des robots d'IA dans des environnements professionnels et quotidiens ?

    Quels sont les scénarios de dysfonctionnement des robots d'IA qui suscitent le plus d'inquiétude chez vous ?

    Quelles responsabilités les entreprises comme Google DeepMind devraient-elles avoir en termes de surveillance indépendante et de transparence concernant le développement de robots d'IA ?

    Quelles seraient les limites et les ambiguïtés potentielles dans la « constitution des robots » de Google DeepMind ?

    Voir aussi :

    Le Massachusetts propose un projet de loi qui vise à interdire le montage d'armes à feu sur les robots, mais il fait l'objet de critiques en raison des exemptions prévues pour l'armée et la police

    L'armée américaine veut créer des robots lourds semi-autonomes armés de missiles, pour accomplir certaines des tâches les plus dangereuses des soldats

    Google DeepMind présente RT-X : un modèle d'IA généraliste pour aider à faire progresser la façon dont les robots peuvent apprendre de nouvelles compétences
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 1
    Dernier message: 29/05/2023, 21h32
  2. Réponses: 8
    Dernier message: 20/09/2022, 15h39
  3. Réponses: 0
    Dernier message: 17/08/2022, 08h53
  4. Réponses: 39
    Dernier message: 12/08/2017, 17h50
  5. Réponses: 55
    Dernier message: 03/07/2015, 16h47

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo