IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Conception Web Discussion :

Malgré une augmentation de la vitesse d'Internet, la vitesse des pages Web ne s'est pas améliorée


Sujet :

Conception Web

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : juin 2016
    Messages : 3 160
    Points : 66 116
    Points
    66 116
    Par défaut Malgré une augmentation de la vitesse d'Internet, la vitesse des pages Web ne s'est pas améliorée
    Les sites Web ne sont pas beaucoup plus rapides qu'ils ne l'étaient il y a 10 ans malgré une augmentation de la vitesse d'Internet,
    selon un rapport de HTTP Archive

    Malgré une augmentation de la vitesse d'Internet, la vitesse des pages Web ne s'est pas améliorée avec le temps. C'est la conclusion d'un rapport de HTTP Archive qui a, au cours des 10 dernières années, enregistré les temps de chargement des pages pour 6 millions de sites Web populaires. Les résultats de cette enquête ne sont pas vraiment encourageants. Pour les pages Web visitées depuis un ordinateur de bureau, le temps de chargement médian ne s'est pas amélioré. Les sites Web d'aujourd'hui ne sont pas beaucoup plus rapides qu'ils ne l'étaient il y a 10 ans.

    Vous vous demandez peut-être si les gens ne remarquent tout simplement pas à quel point les sites d'aujourd'hui sont plus rapides, car leurs attentes ont augmenté au fil du temps. S'il est vrai que les estimations des gens sur les temps d'attente sont parfois exagérées, dans ce cas, il ne s'agit pas seulement de perceptions déformées. Le temps de chargement médian des pages suivi par HTTP Archive est resté à peu près le même au cours des 10 dernières années, tandis que, au cours de la même période, la vitesse moyenne d'Internet pour les utilisateurs a régulièrement augmenté.

    Nom : z1.png
Affichages : 21592
Taille : 103,5 Ko

    L'histoire sur mobile est encore pire - les vitesses de connexion se sont améliorées à coup sûr, mais, au cours des 10 dernières années, les temps de chargement des pages mobiles suivis par HTTP Archive ont en fait augmenté. L'augmentation de la vitesse d'Internet n'a manifestement pas résolu le problème de la lenteur des sites web. Bien sûr, la vitesse du réseau n'est pas le seul facteur qui influe sur les performances, il n'est donc pas raisonnable de s'attendre à ce que les vitesses aient complètement suivi le rythme de la connectivité du réseau. Mais il semble qu'une augmentation considérable de la vitesse du réseau devrait rendre la navigation sur le web au moins un peu plus rapide.

    Les données de HTTP Archive ont été recueillies selon la même approche pendant toute la décennie, ce qui permet une comparaison longitudinale. Ces données suggèrent fortement que les sites web que les gens visitent aujourd'hui ne sont pas beaucoup plus rapides qu'il y a dix ans. Le rapport de HTTP Archive ne donne pas une idée précise des causes de cette lenteur. Toutefois, la manière dont les sites Web sont conçus pourrait bien en être pour quelque chose. En effet, en octobre 2000, le poids moyen d’une page web était de 89 Ko (images et scripts compris).

    En 2015, le poids moyen arrivait déjà à 2,6 Mo, soit une multiplication par trente en quinze ans. Le nombre de requêtes a quant à lui été multiplié par 10. La course aux KPI (un acronyme pour Key Performance Indicator traduit en français par indicateur clé de performance) nous a amenés à installer toute sorte de traqueurs et widgets, ce qui dégrade fortement les performances. Les Indicateurs clés de performance sont des indicateurs mesurables d’aide décisionnelle. Ils s’inscrivent dans une démarche de progrès et permettent le pilotage et le suivi de l’activité. Ils sont “reportés” et analysés sur une base hebdomadaire, mensuelle ou trimestrielle.

    Aussi, certains tiennent pour responsable JavaScript qui a fortement contribué à développer le Web 2.0 que ça soit à travers les technologies Ajax, Angular et bien d’autres. C'est le cas de Steve Souders, qui travaille chez SpeedCurve sur l’interaction entre la performance et le design. Il s’est basé sur la requête du nombre de médian de demande JS par les 1res et tierce parties depuis 2010 pour tirer certaines conclusions. En termes de nombre de requêtes JavaScript, la première partie a augmenté de 50 %, passant de 4 à 6 requêtes, tandis que la tierce partie a augmenté de 140 %, passant de 5 à 12 requêtes. La croissance de codes JS de tierce partie en termes de taille de JavaScript est plus alarmante. Le code JavaScript de la première partie a doublé, passant de 53 ko à 106 ko. Le code JavaScript de tierce partie est octuplé de 32 Ko à 258 Ko.

    Source : HTTP Archive

    Et vous ?

    Quel est votre avis sur le sujet ?
    Êtes-vous ou pas du même avis que HTTP Archive ? Pourquoi ?
    Selon vous, qu'est-ce qui justifie la lenteur des sites Web alors que la vitesse d'Internet ne cesse d'augmenter ?

    Voir aussi

    Le langage JavaScript est-il responsable de la lenteur des sites Web de nos jours ? Oui selon un expert

    L'historique de JavaScript : Brendan Eich l'a écrit en seulement 10 jours et c'est ainsi qu'il a changé le monde pour toujours

    Mozilla a décidé de procéder au licenciement d'environ 70 personnes et évoque la lenteur du déploiement des nouveaux produits générateurs de revenus

    Le langage JavaScript devrait-il être renommé ? Oui, selon Kieran Potts, un développeur JavaScript qui souligne quelques ambiguïtés liées au nom actuel du langage
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Invité
    Invité(e)
    Par défaut
    Citation Envoyé par Bill Fassinou Voir le message
    Malgré une augmentation de la vitesse d'Internet, la vitesse des pages Web ne s'est pas améliorée avec le temps.
    ...
    L'histoire sur mobile est encore pire - les vitesses de connexion se sont améliorées à coup sûr, mais, au cours des 10 dernières années, les temps de chargement des pages mobiles suivis par HTTP Archive ont en fait augmenté.
    Oui bon, on avait dit que ce serait rapide avec l'adsl et la 3G puis la 4G et ça n'a pas marché. Mais avec la fibre et la 5G, ce sera rapide, alors achetez-les...

    Citation Envoyé par Bill Fassinou Voir le message
    Aussi, certains tiennent pour responsable JavaScript qui a fortement contribué à développer le Web 2.0 que ça soit à travers les technologies Ajax, Angular et bien d’autres. C'est le cas de Steve Souders, qui travaille chez SpeedCurve sur l’interaction entre la performance et le design. Il s’est basé sur la requête du nombre de médian de demande JS par les 1ère et tierce parties depuis 2010 pour tirer certaines conclusions. En termes de nombre de requêtes JavaScript, la première partie a augmenté de 50 %, passant de 4 à 6 requêtes, tandis que la tierce partie a augmenté de 140 %, passant de 5 à 12 requêtes. La croissance de codes JS de terce partie en termes de taille de JavaScript est plus alarmante. Le code JavaScript de la première partie a doublé, passant de 53 ko à 106 ko. Le code JavaScript de tierce partie est octuplé de 32 Ko à 258 Ko.
    C'est donc la faute au design en JavaScript ? Et les pubs, analytics, trackers, etc, ça ne ralentit pas ?

  3. #3
    Expert éminent
    Avatar de transgohan
    Homme Profil pro
    Développeur Temps réel Embarqué
    Inscrit en
    janvier 2011
    Messages
    3 146
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Maine et Loire (Pays de la Loire)

    Informations professionnelles :
    Activité : Développeur Temps réel Embarqué

    Informations forums :
    Inscription : janvier 2011
    Messages : 3 146
    Points : 9 386
    Points
    9 386
    Par défaut
    Citation Envoyé par SimonDecoline Voir le message
    C'est donc la faute au design en JavaScript ? Et les pubs, analytics, trackers, etc, ça ne ralentit pas ?
    Je pense que c'est ce qui est derrière les "tierces parties".
    Donc au contraire il est indiqué que cela a octuplé contre doublé pour les scripts internes.

    « Toujours se souvenir que la majorité des ennuis viennent de l'espace occupé entre la chaise et l'écran de l'ordinateur. »
    « Le watchdog aboie, les tests passent »

  4. #4
    Membre chevronné
    Profil pro
    Inscrit en
    octobre 2005
    Messages
    932
    Détails du profil
    Informations personnelles :
    Âge : 43
    Localisation : France

    Informations forums :
    Inscription : octobre 2005
    Messages : 932
    Points : 1 771
    Points
    1 771
    Par défaut
    Combien de fois avez vous obtenu un budget pour travailler sur les performances? Moi une seule fois en 16 ans. Là j'ai une base de données où il manque des indexes et ça ne gêne que moi. C'est pour ça et pas à cause d'une technologie quelconque que les sites sont lents.

  5. #5
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    octobre 2017
    Messages
    1 599
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : octobre 2017
    Messages : 1 599
    Points : 5 281
    Points
    5 281
    Par défaut
    Quand les voies de circulation d'une grande ville sont ralenties par les bouchons quotidiens, on peut doubler le nombre de voies de circulation. Les automobilistes voient une amélioration qui dure... 6 mois!

    Après? Retour des bouchons!

    Pourquoi? Parce que l'offre crée la demande!!!

    Il en va de même pour "l'autoroute de l'information" nommée internet!

    On peut ajouter de la 5G, de la 10G ou 20G... Ce sera toujours lent!

    Pendant que l'on augmentait les capacités des réseaux, on a généralisé les services cloud: Le streaming vidéo (Netflix et autres), les jeux en lignes qui se transforment aujourd'hui en plateformes de jeux virtuelles, les logiciels pro (style ERP, CRM, compta et autre) qui deviennent des services en ligne, etc...

    Et on ne parle pas bien sûr du web transformé en poubelle avec tous les couillons qui se voient obligé de faire une chaîne Youtube pour présenter leur état d'âme et présenter tous les aspects de leur vie: de leur poisson rouge qui fait une dépression au premier rôt du petit dernier!

  6. #6
    Membre confirmé
    Inscrit en
    mai 2008
    Messages
    168
    Détails du profil
    Informations forums :
    Inscription : mai 2008
    Messages : 168
    Points : 468
    Points
    468
    Par défaut
    C'est pas très constructif, mais je me marre Le dév web, ça part dans tous les sens. Une usine à gaz éparpillée et non structurée. Des couches, des appels externes, des interpréteurs, de partout. C'est difficile d'avoir la même techno qui réponde, à la fois, aux amateurs et aux exigences des pros. On traine un historique, où on voulait une techno accessible par chacun.

  7. #7
    Expert confirmé Avatar de Zefling
    Homme Profil pro
    Développeur Web
    Inscrit en
    avril 2007
    Messages
    1 153
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Puy de Dôme (Auvergne)

    Informations professionnelles :
    Activité : Développeur Web
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : avril 2007
    Messages : 1 153
    Points : 4 532
    Points
    4 532
    Par défaut
    Citation Envoyé par PomFritz Voir le message
    C'est pas très constructif, mais je me marre Le dév web, ça part dans tous les sens. Une usine à gaz éparpillée et non structurée. Des couches, des appels externes, des interpréteurs, de partout. C'est difficile d'avoir la même techno qui réponde, à la fois, aux amateurs et aux exigences des pros. On traine un historique, où on voulait une techno accessible par chacun.
    On traîne aussi le support d'IE11. Je peux te dire que ça grève largement la façon de faire et les perfs. Quand tu sais que tu pourrais avoir toutes les amélioration de ES2020, et qu'au final on continue de faire du ES5 (2009). On a aussi du DOM bien lourd parce que dernière règles CSS qui permettre de réduire sont pas utilisable.

  8. #8
    Membre expert Avatar de air-dex
    Homme Profil pro
    Inscrit en
    août 2010
    Messages
    1 653
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 35
    Localisation : France

    Informations forums :
    Inscription : août 2010
    Messages : 1 653
    Points : 3 772
    Points
    3 772
    Par défaut
    Oui les débits sont plus rapides. Mais :
    • On bourre les pages Web de trucs plus gourmands : images plus grosses, JavaScript usine à gaz...
    • L'amélioration des perfs des navigateurs a désormais une limite. On n'est plus au carrefour des années 2000 et 2010 où les améliorations de performances pouvaient être notables et où ça se battait à coups de SunSpider pour dire "mon navigateur c'est le meilleur il est le plus rapide". Ils sont désormais à peu près tous bons et performants.


    Du coup ça compense.
    "Ils ne savaient pas que c'était impossible alors ils l'ont fait." Mark Twain

    Mon client Twitter Qt cross-platform Windows et Linux. (en cours de développement).

  9. #9
    Nouveau membre du Club
    Homme Profil pro
    Full Stack Developer
    Inscrit en
    août 2008
    Messages
    12
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Mali

    Informations professionnelles :
    Activité : Full Stack Developer
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : août 2008
    Messages : 12
    Points : 39
    Points
    39
    Par défaut
    C'est normal, on dispose pas les mêmes outils qu'il ya 10ans, c'est comme les ordinateurs des années 60, ceux qui en possédaient était heureux et ils faisaient le boulot pour lequel ils étaient conçu. Il ya 10 on avait angular, reactjs et des tonnes de technos? Avec tout ces Framework et CMS souvent mal codés , cette situation est loin d’être fini.

  10. #10
    Membre à l'essai
    Profil pro
    Inscrit en
    janvier 2008
    Messages
    10
    Détails du profil
    Informations personnelles :
    Localisation : Suisse

    Informations forums :
    Inscription : janvier 2008
    Messages : 10
    Points : 14
    Points
    14
    Par défaut Poids des images
    Je me souviens dans mes débuts que l'image apparaissant sur la page web ne devait excéder 12-15 ko alors que maintenant on met directement cette même image dans son format réel (ex. 1.2 Mo) en la rapetissant au format voulu pour l'insérer dans la page.
    Pas la peine d'en dire plus je pense.

  11. #11
    Membre actif
    Homme Profil pro
    Technicien maintenance
    Inscrit en
    novembre 2019
    Messages
    144
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Sarthe (Pays de la Loire)

    Informations professionnelles :
    Activité : Technicien maintenance
    Secteur : Industrie

    Informations forums :
    Inscription : novembre 2019
    Messages : 144
    Points : 285
    Points
    285
    Par défaut un exemple Leboncoin
    quand Leboncoin a commencé c'était pour moi un site de tests tellement c'était facile à ouvrir , passer les pages, un p2 pouvait suffire.
    Maintenant c'est quasiment inutilisable, bourré de trucs inutiles, ça pompe tellement la ram quand je cherche une chose que ça arrive à en planter le pc, dommage il n'y a pas de concurrent de ce niveau.

  12. #12
    Membre confirmé
    Profil pro
    Inscrit en
    avril 2013
    Messages
    353
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : avril 2013
    Messages : 353
    Points : 510
    Points
    510
    Par défaut
    Salut

    En effet ! Personnellement, j'ai contacté Leboncoin pour deux problèmes agaçant, dont celui-ci, ils font les sourds sur ce sujet ! Et on a beau avoir, en effet, du matériel suffisamment costaud, que ça suffit à peine... Un ami cherche du boulot et comme il le dit clairement, il ne peut aller tous les jours sur Leboncoin, pour cause de temps...

    (le deuxième sujet que je leur ai évoqué, mais rien a voir avec ce fil. C'est l'avertissement du matériel utilisé pour se connecter... J'ai eu une réponse... Si l'on supprime régulièrement les cookies du site, un émail est envoyé à chaque nouvelle connexions aux sites ! Pire que des spams, même Google ne fait pas ça ! La réponse disait qu'ils étudieraient la chose, ce n'est pas encore chose faite...)

Discussions similaires

  1. Réponses: 0
    Dernier message: 31/07/2019, 13h32
  2. mon ordinateur est connecté a internet mais les pages web ne s'affichent pas
    Par saadi-amina dans le forum Dépannage et Assistance
    Réponses: 2
    Dernier message: 03/07/2008, 15h58
  3. Interface de validation pour des pages web d'une intranet
    Par developppez dans le forum Général JavaScript
    Réponses: 10
    Dernier message: 17/06/2008, 15h29
  4. Réponses: 7
    Dernier message: 27/03/2007, 20h52
  5. [Internet] Problème d'affichage des pages Web
    Par seanjohn42 dans le forum Windows Vista
    Réponses: 1
    Dernier message: 05/02/2007, 15h19

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo