IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Expert éminent sénior

    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Janvier 2013
    Messages
    320
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Sénégal

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Janvier 2013
    Messages : 320
    Points : 27 370
    Points
    27 370
    Billets dans le blog
    1
    Par défaut Un système du laboratoire d’intelligence artificielle du MIT diminue le temps de chargement des sites de 34 %
    Un système développé par le laboratoire d’intelligence artificielle du MIT diminue le temps de chargement des sites de 34 %
    en minimisant les allers-retours sur le réseau

    La rapidité de chargement des sites web est une problématique qui intéresse beaucoup d'entreprises, en particulier celles qui ont un trafic important comme les réseaux sociaux ou encore celles qui sont dans le domaine du e-commerce. Amazon par exemple, estime que tout retard de 100 millisecondes fait baisser ses profits d’un pour cent. C’est dire combien il est important que de tels sites génèrent les réponses le plus rapidement possible. Pour aider à lutter contre les problèmes de lenteur des sites web, des chercheurs du laboratoire d’informatique et d’intelligence artificielle de la prestigieuse université américaine du MIT ont mis au point un système qui réduit les temps de chargement des pages web de 34 pour cent. Le système, qui a été baptisé Polaris, permet de déterminer l’ordre de succession du téléchargement des différents objets de la page de sorte que la page entière nécessite moins de temps pour se charger.

    Le doctorant Ravi Netravali, auteur d’un document sur le système Polaris, estime qu’« un navigateur peut prendre jusqu'à 100 millisecondes à chaque fois qu'il doit traverser un noeud de réseau mobile pour aller chercher des données ». Il ajoute que suivant la complexité des données à charger, il est souvent nécessaire de faire plusieurs allers-retours avant de charger l’ensemble de la page, ce qui peut causer d’énormes lenteurs dans les réponses. L’approche qui a été utilisée dans le système Polaris consiste à minimiser le nombre d’allers-retours dans le réseau afin de pouvoir accélérer le chargement de la page au maximum. L’équipe qui a travaillé sur le projet se compose du doctorant Ameesh Goyal, du professeur Hari Balakrishnan ainsi que le professeur James Mickens de Harvard qui a travaillé sur le projet lors de passage au MIT en tant que professeur invité. Les chercheurs ont testé leur système sur deux cents des sites les plus populaires au monde tels que ESPN.com, NYTimes.com, Weather.com entre autres. Les tests ont également été faits sous différentes configurations réseau.

    Le procédé de Polaris pour diminuer les allers-retours sur le réseau est de chercher automatiquement toutes les interactions et interdépendances entre les différents objets d’une page. Il sait par exemple lorsqu’un objet lit des données dans un autre objet ou met à jour des données dans un autre. Il utilise ainsi son système de log assez détaillé pour pouvoir construire un graphe de dépendance pour la page à charger. Kitchen fait l’analogie avec un voyageur qui découvre les villes qu’il doit visiter une fois seulement. S’il avait la liste des villes avant de commencer son parcours, il pourrait déterminer le chemin le plus court. Sans la liste, il lui sera impossible de déterminer ce chemin et pourrait donc faire des trajets non optimisés entre les différentes villes. Mickens affirme que pour le cas d’un navigateur web, les objets à charger représentent les différentes villes. Il ajoute que Polaris donne cette liste des villes au navigateur lui permettant donc de charger de manière beaucoup plus rapide les pages web. Le système Polaris est présenté comme étant particulièrement adapté à de grands sites avec notamment une complexité élevée et des milliers d’objets lourds à charger ainsi qu’aux réseaux mobiles.

    Source : mit news

    Et vous ?

    Que pensez-vous de ce système ?

    Voir aussi

    la rubrique Actualités

  2. #2
    Membre habitué Avatar de martycanfly
    Homme Profil pro
    Architecture Logiciel
    Inscrit en
    Novembre 2014
    Messages
    14
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 32
    Localisation : France, Essonne (Île de France)

    Informations professionnelles :
    Activité : Architecture Logiciel

    Informations forums :
    Inscription : Novembre 2014
    Messages : 14
    Points : 132
    Points
    132
    Par défaut
    Qui sera ainsi chargé de donner la "carte des villes" ? (pour rester dans l'analogie)
    Le Webmaster, en spécifiant l'arbre de dépendance dans l'en-tête de la page ?
    Le navigateur, qui sera chargé d'étudier le contenu de la page lors de la première consultation, et qui en fera profiter les futurs visiteurs ?
    Ou une autre entité ?

  3. #3
    Membre émérite
    Avatar de ymoreau
    Homme Profil pro
    Ingénieur étude et développement
    Inscrit en
    Septembre 2005
    Messages
    1 154
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 38
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Ingénieur étude et développement
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Septembre 2005
    Messages : 1 154
    Points : 2 834
    Points
    2 834
    Par défaut
    C'est justement leur système qui fabrique cette carte, mais je n'ai pas vu comment. Il est simplement dit qu'ils ont une meilleure approche que la simple analyse de la page HTML et ses dépendances, je suppose qu'ils tiennent principalement compte des chargements de ressource par JavaScript. Je serais de curieux de savoir comment.

  4. #4
    Membre chevronné
    Profil pro
    Inscrit en
    Janvier 2006
    Messages
    927
    Détails du profil
    Informations personnelles :
    Localisation : Belgique

    Informations forums :
    Inscription : Janvier 2006
    Messages : 927
    Points : 2 113
    Points
    2 113
    Par défaut
    Ils tentent de corriger automatiquement les erreurs que font beaucoup de développeurs web, même ceux qui bossent sur les sites les plus visités au monde ?

    Il ne faudra plus être un pro du web pour pouvoir lancer un site truffé de pub et mal optimisé mais rapide. :yeah:
    "If you can't teach it then you don't know it."

  5. #5
    Membre confirmé
    Homme Profil pro
    Ingénieur sécurité
    Inscrit en
    Mars 2014
    Messages
    158
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 28
    Localisation : France

    Informations professionnelles :
    Activité : Ingénieur sécurité

    Informations forums :
    Inscription : Mars 2014
    Messages : 158
    Points : 465
    Points
    465
    Par défaut
    Je pense que le logiciel doit enregistrer les temps de reponses des differents serveurs puis lors des nouvelles requettes dispatcher les requettes de facon à optimiser le trafic comme en effectuant les plus lente en premier

  6. #6
    Membre confirmé

    Inscrit en
    Février 2007
    Messages
    202
    Détails du profil
    Informations forums :
    Inscription : Février 2007
    Messages : 202
    Points : 450
    Points
    450
    Billets dans le blog
    1
    Par défaut Manque d'infos ?
    Bonjour,

    J'ai l'impression qu'il manque des paramètres, car sinon il y à un sushi :
    l'exemple pris dans le texte est clairement le cas d'école du représentant de commerce pour qui il faut passer de façon optimale dans plusieurs villes.
    Je pense qu'en ce qui concerne l'optimisation décrite ici, c'est très (trop) schématisé car cela aurait été résolu ainsi depuis longtemps. Je pense surtout aux algorithmes génétiques ( quelle belle introduction ) ou résaux de neurones.

Discussions similaires

  1. Réponses: 4
    Dernier message: 31/12/2015, 17h49
  2. Test Lovelace 2.0 : un nouveau test d’intelligence artificielle
    Par Michael Guilloux dans le forum Intelligence artificielle
    Réponses: 11
    Dernier message: 27/08/2015, 18h58
  3. système immunitaire artificiel
    Par sarah michelle dans le forum Algorithmes et structures de données
    Réponses: 2
    Dernier message: 04/05/2009, 13h19
  4. Réponses: 2
    Dernier message: 06/04/2007, 18h22
  5. Réponses: 1
    Dernier message: 12/03/2007, 19h56

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo