IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

TensorFlow 2.0 est maintenant disponible avec une intégration plus étroite de Keras


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 259
    Points
    66 259
    Par défaut TensorFlow 2.0 est maintenant disponible avec une intégration plus étroite de Keras
    TensorFlow 2.0 est maintenant disponible avec une intégration plus étroite de Keras
    et rend l'expérience du développement d'applications aussi familière que possible aux développeurs Python

    Google a annoncé ce lundi la disponibilité générale de TensorFlow 2.0 en version stable. Google a annoncé qu'il y a de multiples changements dans TensorFlow 2.0 pour rendre les utilisateurs de TensorFlow plus productifs. TensorFlow 2.0 supprime les API redondantes, rend les API plus cohérentes et s'intègre mieux avec le runtime Python avec l’exécution Eager. Selon l'équipe de développement, TensorFlow 2.0 offre aussi des performances d’entraînement jusqu’à trois fois plus rapide avec une précision mixte sur les GPU Volta et Turing.

    TensorFlow (TF) est une bibliothèque d'apprentissage automatique open source créée par Google et publiée pour la première fois en novembre 2015. Avant cela, l’outil était autrefois connu sous le nom de DistBelief. Mis en place en 2011, DistBelief a été amélioré pendant des années par les ingénieurs de Google afin de le rendre plus rapide et plus robuste. DistBelief est ensuite devenu TensorFlow, la seconde génération du système d’apprentissage automatique, que Google a intégré dans plusieurs de ses produits. Il a été publié en open source en novembre 2015 sous la licence Apache.

    La version 1.0 de TensorFlow a été publiée en février 2017 avec plus de performances et compatibles avec Java et Go. La version 1.0, jugée très rapide par Google, est soutenue par un compilateur spécial pour les graphes baptisé XLA (Accelerated Linear Algebra) et capable de cibler les processeurs principaux (CPU) et les processeurs graphiques (GPU) pour de meilleures performances. Avec ce compilateur, Google avait indiqué que les performances de TensorFlow pouvaient être améliorées en l’utilisant avec les processeurs graphiques. Cette version comportait également de nombreuses autres améliorations.

    Nom : z1.png
Affichages : 29020
Taille : 2,0 Ko

    TensorFlow 2.0 est désormais disponible en version stable et apporte également de nombreuses nouvelles fonctionnalités, ainsi que plusieurs améliorations. Selon l'équipe de développement, TensorFlow 2.0 devrait grandement faciliter le développement d’applications ML (machine learning - apprentissage automatique). Pour cela, la version 2.0 de la bibliothèque d’apprentissage automatique TensorFlow contient un certain nombre de modifications visant à améliorer la simplicité d’utilisation. Dans un premier temps, TensorFlow 2.0 supprime les API redondantes et rend les API plus cohérentes.

    En effet, dans TensorFlow 2.0, de nombreuses API ont été supprimées ou déplacées. Certains des changements majeurs incluent la suppression de tf.app, tf.flags, et tf.logging en faveur de l'absl-py maintenant open source. Il y a aussi le nettoyage de l'espace de noms tf.* principal en déplaçant des fonctions moins utilisées dans des sous-paquets comme tf.math. Certaines API ont été remplacées par leurs équivalents 2.0, notamment tf.summary, tf.keras.metrics et tf.keras.optimizers. Il est facile d’appliquer automatiquement ces renommages en utilisant le script de mise à jour v2.

    TF 2.0 fournit Keras en tant qu'API centrale de haut niveau utilisée pour construire et former les modèles. Keras fournit plusieurs API de modélisation telles que Sequential, Functional et Subclassing avec une exécution rapide, pour une itération immédiate et un débogage intuitif, et tf.data, pour construire des pipelines d'entrée évolutifs. Keras est une autre bibliothèque populaire de réseaux de neurones de haut niveau. L'intégration de Keras à la bibliothèque d’apprentissage automatique de Google a débuté avec la publication de TensorFlow 1.0 en février 2017.

    Autrement dit, l'API principale n'est plus autre que les Keras. La couche fluide de Keras est maintenant intégrée sur le code TensorFlow brut, ce qui le rend simple et facile à utiliser. Cela permettrait d'apporter aux développeurs beaucoup plus de productivité dans le domaine de l'apprentissage automatique et de l'IA. « Avec une intégration étroite de Keras dans TensorFlow et l'exécution de fonctions Pythonic, TensorFlow 2.0 rend l'expérience du développement d'applications aussi familière que possible aux développeurs Python », a précisé Google.

    Les utilisateurs de TF 2.0 pourront utiliser l'API tf.distribute.strategy pour distribuer la formation avec un minimum de changements de code, ce qui leur permettra d'obtenir d'excellentes performances immédiates. Il prend en charge la formation distribuée avec Keras model.fit, ainsi qu'avec des boucles de formation personnalisées. Le support multi-GPU est également disponible, ainsi que le support expérimental pour les TPU (Tensor Processing Unit) multitravailleurs et les TPU Cloud. Vous pouvez consulter la note de version de TensorFlow 2.0 pour plus de détails à ce sujet.

    Dans TensorFlow 2.0, l’équipe de développement de la bibliothèque a adopté le format de fichier SavedModel. Cela permet d’exécuter les modèles sur une variété de temps d'exécution, y compris le cloud, le Web, les navigateurs, Node.js, les systèmes mobiles et embarqués. Cela vous permet d'exécuter vos modèles avec TensorFlow, de les déployer avec TensorFlow Serving, de les utiliser sur des systèmes mobiles et embarqués avec TensorFlow, etc. Par ailleurs, TensorFlow 2.0 offre de nombreuses améliorations de performances sur différents GPU.

    Selon l’équipe de développement, TensorFlow 2.0 offre des performances d'entraînement jusqu'à 3 fois plus rapides avec une précision mixte sur les GPU Volta et Turing avec quelques lignes de code, utilisées par exemple dans ResNet-50 et BERT. TensorFlow 2.0 est étroitement intégré à TensorRT et utilise une API améliorée pour offrir une meilleure convivialité et de hautes performances lors de l'inférence sur les GPU NVIDIA T4 Cloud sur Google Cloud.

    « L'apprentissage automatique sur les GPU et les systèmes NVIDIA permet aux développeurs de résoudre des problèmes qui semblaient impossibles il y a quelques années seulement », a déclaré Kari Briski, directeur principal de la gestion des produits de logiciel d'informatique accélérée chez NVIDIA. « TensorFlow 2.0 regorge de nombreuses fonctions d'accélération GPU et nous avons hâte de voir les incroyables applications AI que la communauté créera avec ces outils mis à jour », a-t-il ajouté.

    Avec TensorFlow 2.0, AutoGraph traduit le flux de contrôle Python en expressions TensorFlow, permettant aux utilisateurs d'écrire du code Python régulier à l'intérieur des fonctions décorées avec tf.function. AutoGraph est également appliqué aux fonctions utilisées avec les API tf.data, tf.distribute et tf.keras. En conclusion, TensorFlow 2.0 fournit un écosystème complet d'outils pour les développeurs, les entreprises et les chercheurs qui veulent pousser l'état de l'art dans l'apprentissage automatique et construire des applications ML évolutives.

    TensorFlow 2.0 permet aux développeurs de construire facilement et efficacement de grands modèles ML pour les utilisateurs finaux et les implémenter sur une grande échelle. Il existe de nombreuses autres fonctionnalités et modifications comme :
    • la prise en charge de TensorFlow Lite et TensorFlow Edge Computing : cela devrait aider les développeurs à offrir des services efficaces d'apprentissage automatique et d'intelligence artificielle aux appareils finaux. Cela nécessiterait beaucoup moins de puissance de calcul ainsi qu'une mise en œuvre plus rapide des modèles ;
    • les nouvelles extensions pour les applications Web et Node.js utilisant TensorFlow.js pour les nouveaux sites Web et applications interactifs d'IA ;
    • optimisation de TensorFlow pour Android ;
    • une intégration de TensorFlow pour les applications basées sur Swift et iOS ;
    • amélioration de l'intégration HPC pour le calcul parallèle ;
    • etc.



    Sources : TensorFlow, GitHub

    Et vous ?

    Qu'en pensez-vous ?

    Voir aussi

    TensorFlow, la bibliothèque d'apprentissage automatique de Google est disponible en version 1.0, avec plus performance et compatible avec Java et Go

    Gmail bloque désormais 100 millions de spams supplémentaires chaque jour avec l'IA grâce à TensorFlow, le framework de machine learning de Google

    TensorFlow - Apprendre à installer la bibliothèque d'apprentissage automatique de Google sur Windows 7. Un tutoriel de Monorom Sananikone
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    tlt
    tlt est déconnecté
    Membre averti Avatar de tlt
    Homme Profil pro
    Programmeur
    Inscrit en
    Juillet 2004
    Messages
    202
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Madagascar

    Informations professionnelles :
    Activité : Programmeur
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Juillet 2004
    Messages : 202
    Points : 412
    Points
    412
    Par défaut
    magnifique .Hate de le tester.Par contre, je n'ai ni GPU Volta , ni GPU Turing

  3. #3
    Nouveau Candidat au Club

    Profil pro
    Inscrit en
    Juin 2003
    Messages
    452
    Détails du profil
    Informations personnelles :
    Âge : 48
    Localisation : Afghanistan

    Informations forums :
    Inscription : Juin 2003
    Messages : 452
    Points : 0
    Points
    0
    Billets dans le blog
    1
    Par défaut Cooooooooooooooool
    Moi aussi j'ai trouver une formation en francais https://developers.google.com/machin...-lecture?hl=fr
    J'ai du mal a comprendre pourquoi google donne accés a un truc comme ça.
    Je vais même je pense changer de carte graphique pour avoir des perfs maxi.
    Ce soir je vais créer skynet .... ou demain si je suis trop fatigué

  4. #4
    Inactif  

    Homme Profil pro
    Écrivain public, Économiste et Programmeur Free Pascal
    Inscrit en
    Août 2005
    Messages
    350
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 48
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Écrivain public, Économiste et Programmeur Free Pascal
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Août 2005
    Messages : 350
    Points : 948
    Points
    948
    Billets dans le blog
    40
    Par défaut Free IA
    Je pense que ces GPU n'existent pas.

    Il y a une IA libre en FREE PASCAL créée en collaboration avec des étudiants brésiliens et l'occident pour sauver les meubles.

    La version 3 de Free Pascal utilise l'assembleur. Je me demande à quoi sert Free Pascal 4.

Discussions similaires

  1. Réponses: 5
    Dernier message: 11/06/2020, 22h40
  2. Réponses: 2
    Dernier message: 05/06/2019, 07h37
  3. Réponses: 1
    Dernier message: 31/03/2016, 01h23
  4. Firefox 43 est disponible avec une version 64 bits pour Windows
    Par Olivier Famien dans le forum Firefox
    Réponses: 11
    Dernier message: 22/12/2015, 08h24

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo