Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités

    Malgré une augmentation de la vitesse d'Internet, la vitesse des pages Web ne s'est pas améliorée
    Les sites Web ne sont pas beaucoup plus rapides qu'ils ne l'étaient il y a 10 ans malgré une augmentation de la vitesse d'Internet,
    selon un rapport de HTTP Archive

    Malgré une augmentation de la vitesse d'Internet, la vitesse des pages Web ne s'est pas améliorée avec le temps. C'est la conclusion d'un rapport de HTTP Archive qui a, au cours des 10 dernières années, enregistré les temps de chargement des pages pour 6 millions de sites Web populaires. Les résultats de cette enquête ne sont pas vraiment encourageants. Pour les pages Web visitées depuis un ordinateur de bureau, le temps de chargement médian ne s'est pas amélioré. Les sites Web d'aujourd'hui ne sont pas beaucoup plus rapides qu'ils ne l'étaient il y a 10 ans.

    Vous vous demandez peut-être si les gens ne remarquent tout simplement pas à quel point les sites d'aujourd'hui sont plus rapides, car leurs attentes ont augmenté au fil du temps. S'il est vrai que les estimations des gens sur les temps d'attente sont parfois exagérées, dans ce cas, il ne s'agit pas seulement de perceptions déformées. Le temps de chargement médian des pages suivi par HTTP Archive est resté à peu près le même au cours des 10 dernières années, tandis que, au cours de la même période, la vitesse moyenne d'Internet pour les utilisateurs a régulièrement augmenté.


    L'histoire sur mobile est encore pire - les vitesses de connexion se sont améliorées à coup sûr, mais, au cours des 10 dernières années, les temps de chargement des pages mobiles suivis par HTTP Archive ont en fait augmenté. L'augmentation de la vitesse d'Internet n'a manifestement pas résolu le problème de la lenteur des sites web. Bien sûr, la vitesse du réseau n'est pas le seul facteur qui influe sur les performances, il n'est donc pas raisonnable de s'attendre à ce que les vitesses aient complètement suivi le rythme de la connectivité du réseau. Mais il semble qu'une augmentation considérable de la vitesse du réseau devrait rendre la navigation sur le web au moins un peu plus rapide.

    Les données de HTTP Archive ont été recueillies selon la même approche pendant toute la décennie, ce qui permet une comparaison longitudinale. Ces données suggèrent fortement que les sites web que les gens visitent aujourd'hui ne sont pas beaucoup plus rapides qu'il y a dix ans. Le rapport de HTTP Archive ne donne pas une idée précise des causes de cette lenteur. Toutefois, la manière dont les sites Web sont conçus pourrait bien en être pour quelque chose. En effet, en octobre 2000, le poids moyen d’une page web était de 89 Ko (images et scripts compris).

    En 2015, le poids moyen arrivait déjà à 2,6 Mo, soit une multiplication par trente en quinze ans. Le nombre de requêtes a quant à lui été multiplié par 10. La course aux KPI (un acronyme pour Key Performance Indicator traduit en français par indicateur clé de performance) nous a amenés à installer toute sorte de traqueurs et widgets, ce qui dégrade fortement les performances. Les Indicateurs clés de performance sont des indicateurs mesurables d’aide décisionnelle. Ils s’inscrivent dans une démarche de progrès et permettent le pilotage et le suivi de l’activité. Ils sont “reportés” et analysés sur une base hebdomadaire, mensuelle ou trimestrielle.

    Aussi, certains tiennent pour responsable JavaScript qui a fortement contribué à développer le Web 2.0 que ça soit à travers les technologies Ajax, Angular et bien d’autres. C'est le cas de Steve Souders, qui travaille chez SpeedCurve sur l’interaction entre la performance et le design. Il s’est basé sur la requête du nombre de médian de demande JS par les 1res et tierce parties depuis 2010 pour tirer certaines conclusions. En termes de nombre de requêtes JavaScript, la première partie a augmenté de 50 %, passant de 4 à 6 requêtes, tandis que la tierce partie a augmenté de 140 %, passant de 5 à 12 requêtes. La croissance de codes JS de tierce partie en termes de taille de JavaScript est plus alarmante. Le code JavaScript de la première partie a doublé, passant de 53 ko à 106 ko. Le code JavaScript de tierce partie est octuplé de 32 Ko à 258 Ko.

    Source : HTTP Archive

    Et vous ?

    Quel est votre avis sur le sujet ?
    Êtes-vous ou pas du même avis que HTTP Archive ? Pourquoi ?
    Selon vous, qu'est-ce qui justifie la lenteur des sites Web alors que la vitesse d'Internet ne cesse d'augmenter ?

    Voir aussi

    Le langage JavaScript est-il responsable de la lenteur des sites Web de nos jours ? Oui selon un expert

    L'historique de JavaScript : Brendan Eich l'a écrit en seulement 10 jours et c'est ainsi qu'il a changé le monde pour toujours

    Mozilla a décidé de procéder au licenciement d'environ 70 personnes et évoque la lenteur du déploiement des nouveaux produits générateurs de revenus

    Le langage JavaScript devrait-il être renommé ? Oui, selon Kieran Potts, un développeur JavaScript qui souligne quelques ambiguïtés liées au nom actuel du langage
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Expert confirmé
    Citation Envoyé par Bill Fassinou Voir le message

    Malgré une augmentation de la vitesse d'Internet, la vitesse des pages Web ne s'est pas améliorée avec le temps.
    ...
    L'histoire sur mobile est encore pire - les vitesses de connexion se sont améliorées à coup sûr, mais, au cours des 10 dernières années, les temps de chargement des pages mobiles suivis par HTTP Archive ont en fait augmenté.
    Oui bon, on avait dit que ce serait rapide avec l'adsl et la 3G puis la 4G et ça n'a pas marché. Mais avec la fibre et la 5G, ce sera rapide, alors achetez-les...

    Citation Envoyé par Bill Fassinou Voir le message

    Aussi, certains tiennent pour responsable JavaScript qui a fortement contribué à développer le Web 2.0 que ça soit à travers les technologies Ajax, Angular et bien d’autres. C'est le cas de Steve Souders, qui travaille chez SpeedCurve sur l’interaction entre la performance et le design. Il s’est basé sur la requête du nombre de médian de demande JS par les 1ère et tierce parties depuis 2010 pour tirer certaines conclusions. En termes de nombre de requêtes JavaScript, la première partie a augmenté de 50 %, passant de 4 à 6 requêtes, tandis que la tierce partie a augmenté de 140 %, passant de 5 à 12 requêtes. La croissance de codes JS de terce partie en termes de taille de JavaScript est plus alarmante. Le code JavaScript de la première partie a doublé, passant de 53 ko à 106 ko. Le code JavaScript de tierce partie est octuplé de 32 Ko à 258 Ko.
    C'est donc la faute au design en JavaScript ? Et les pubs, analytics, trackers, etc, ça ne ralentit pas ?

  3. #3
    Expert éminent
    Citation Envoyé par SimonDecoline Voir le message
    C'est donc la faute au design en JavaScript ? Et les pubs, analytics, trackers, etc, ça ne ralentit pas ?
    Je pense que c'est ce qui est derrière les "tierces parties".
    Donc au contraire il est indiqué que cela a octuplé contre doublé pour les scripts internes.

    « Toujours se souvenir que la majorité des ennuis viennent de l'espace occupé entre la chaise et l'écran de l'ordinateur. »
    « Le watchdog aboie, les tests passent »

  4. #4
    Membre expérimenté
    Combien de fois avez vous obtenu un budget pour travailler sur les performances? Moi une seule fois en 16 ans. Là j'ai une base de données où il manque des indexes et ça ne gêne que moi. C'est pour ça et pas à cause d'une technologie quelconque que les sites sont lents.

  5. #5
    Membre extrêmement actif
    Quand les voies de circulation d'une grande ville sont ralenties par les bouchons quotidiens, on peut doubler le nombre de voies de circulation. Les automobilistes voient une amélioration qui dure... 6 mois!

    Après? Retour des bouchons!

    Pourquoi? Parce que l'offre crée la demande!!!

    Il en va de même pour "l'autoroute de l'information" nommée internet!

    On peut ajouter de la 5G, de la 10G ou 20G... Ce sera toujours lent!

    Pendant que l'on augmentait les capacités des réseaux, on a généralisé les services cloud: Le streaming vidéo (Netflix et autres), les jeux en lignes qui se transforment aujourd'hui en plateformes de jeux virtuelles, les logiciels pro (style ERP, CRM, compta et autre) qui deviennent des services en ligne, etc...

    Et on ne parle pas bien sûr du web transformé en poubelle avec tous les couillons qui se voient obligé de faire une chaîne Youtube pour présenter leur état d'âme et présenter tous les aspects de leur vie: de leur poisson rouge qui fait une dépression au premier rôt du petit dernier!

  6. #6
    Membre habitué
    C'est pas très constructif, mais je me marre Le dév web, ça part dans tous les sens. Une usine à gaz éparpillée et non structurée. Des couches, des appels externes, des interpréteurs, de partout. C'est difficile d'avoir la même techno qui réponde, à la fois, aux amateurs et aux exigences des pros. On traine un historique, où on voulait une techno accessible par chacun.

  7. #7
    Expert confirmé
    Citation Envoyé par PomFritz Voir le message
    C'est pas très constructif, mais je me marre Le dév web, ça part dans tous les sens. Une usine à gaz éparpillée et non structurée. Des couches, des appels externes, des interpréteurs, de partout. C'est difficile d'avoir la même techno qui réponde, à la fois, aux amateurs et aux exigences des pros. On traine un historique, où on voulait une techno accessible par chacun.
    On traîne aussi le support d'IE11. Je peux te dire que ça grève largement la façon de faire et les perfs. Quand tu sais que tu pourrais avoir toutes les amélioration de ES2020, et qu'au final on continue de faire du ES5 (2009). On a aussi du DOM bien lourd parce que dernière règles CSS qui permettre de réduire sont pas utilisable.

  8. #8
    Membre expert
    Oui les débits sont plus rapides. Mais :
    • On bourre les pages Web de trucs plus gourmands : images plus grosses, JavaScript usine à gaz...
    • L'amélioration des perfs des navigateurs a désormais une limite. On n'est plus au carrefour des années 2000 et 2010 où les améliorations de performances pouvaient être notables et où ça se battait à coups de SunSpider pour dire "mon navigateur c'est le meilleur il est le plus rapide". Ils sont désormais à peu près tous bons et performants.


    Du coup ça compense.
    "Ils ne savaient pas que c'était impossible alors ils l'ont fait." Mark Twain

    Mon client Twitter Qt cross-platform Windows et Linux. (en cours de développement).

  9. #9
    Membre à l'essai
    C'est normal, on dispose pas les mêmes outils qu'il ya 10ans, c'est comme les ordinateurs des années 60, ceux qui en possédaient était heureux et ils faisaient le boulot pour lequel ils étaient conçu. Il ya 10 on avait angular, reactjs et des tonnes de technos? Avec tout ces Framework et CMS souvent mal codés , cette situation est loin d’être fini.

  10. #10
    Membre à l'essai
    Poids des images
    Je me souviens dans mes débuts que l'image apparaissant sur la page web ne devait excéder 12-15 ko alors que maintenant on met directement cette même image dans son format réel (ex. 1.2 Mo) en la rapetissant au format voulu pour l'insérer dans la page.
    Pas la peine d'en dire plus je pense.

  11. #11
    Membre régulier
    un exemple Leboncoin
    quand Leboncoin a commencé c'était pour moi un site de tests tellement c'était facile à ouvrir , passer les pages, un p2 pouvait suffire.
    Maintenant c'est quasiment inutilisable, bourré de trucs inutiles, ça pompe tellement la ram quand je cherche une chose que ça arrive à en planter le pc, dommage il n'y a pas de concurrent de ce niveau.

  12. #12
    Membre confirmé
    Salut

    En effet ! Personnellement, j'ai contacté Leboncoin pour deux problèmes agaçant, dont celui-ci, ils font les sourds sur ce sujet ! Et on a beau avoir, en effet, du matériel suffisamment costaud, que ça suffit à peine... Un ami cherche du boulot et comme il le dit clairement, il ne peut aller tous les jours sur Leboncoin, pour cause de temps...

    (le deuxième sujet que je leur ai évoqué, mais rien a voir avec ce fil. C'est l'avertissement du matériel utilisé pour se connecter... J'ai eu une réponse... Si l'on supprime régulièrement les cookies du site, un émail est envoyé à chaque nouvelle connexions aux sites ! Pire que des spams, même Google ne fait pas ça ! La réponse disait qu'ils étudieraient la chose, ce n'est pas encore chose faite...)

###raw>template_hook.ano_emploi###