Soutenez-nous
Publicité
+ Répondre à la discussion Actualité déjà publiée
Affichage des résultats 1 à 13 sur 13
  1. #1
    Chroniqueur Actualités

    Homme Profil pro Stéphane Le Calme
    Administrateur de base de données
    Inscrit en
    mars 2013
    Messages
    899
    Détails du profil
    Informations personnelles :
    Nom : Homme Stéphane Le Calme

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : mars 2013
    Messages : 899
    Points : 14 226
    Points
    14 226

    Par défaut Les tests d'interopérabilités sur HTTP 2.0 bientôt amorcés

    Les tests d'interopérabilités sur HTTP 2.0 bientôt amorcés,
    la navigation internet sera plus rapide grâce au multiplexage

    Le web est susceptible de changer fondamentalement bientôt. L'IETF (Internet Engineering Task Force) prépare la version 2.0 du protocole HTTP, a expliqué Mark Nottingham qui dirige actuellement l'équipe d'IETF HTTPBIS.

    Pour sa première ébauche, HTTP 2.0 s'appuiera sur SPDY, le protocole développé par Google. Le responsable de l'équipe de travail prévoit toutefois des changements significatifs. Parmi eux, un nouvel algorithme de compression d'en-tête. Il faut aussi noter que bien que SPDY n'autorise que les connexions chiffrées, pour HTTP 2.0 elles seront facultatives.

    HTTP 2.0 ambitionne d'apporter le multiplexage comme l'explique Martin Thomson, employé Microsoft et éditeur de HTTP 2.0 au sein de l'IETF « HTTP 2.0 fournira le multiplexage pour vous permettre d'envoyer simultanément autant de requêtes que vous le souhaitez. ». Ainsi, les codes JavaScript, CSS et HTML en plus des images pourront être transmis en une seule fois via une connexion HTTP. Par conséquent, le temps de téléchargement des pages internet pourrait se voir accéléré.

    Le revers de la médaille est que si le navigateur utilise toute la bande passante pour télécharger des images qui ne sont pas censées être visibles, l'affichage du site web pourrait s'en voir retardé. Pour y remédier, la priorisation des demandes pourrait être une solution ; les développeurs web n'auraient alors qu'à préciser l'ordre de téléchargement des contenus. Google est allé plus loin en expérimentant la hiérarchisation multidimensionnelle pour permettre au navigateur de changer les priorités en fonction de l'onglet actuellement visible.

    Thomson, a spécifié que les tests d'interopérabilités seront amorcés dans six semaines environ et devraient s'achever au printemps 2014.

    Source : IETF, spécification SPDY (au format PDF)

    Et vous ?

    Qu'en pensez-vous ?

  2. #2
    Expert Confirmé
    Avatar de SylvainPV
    Profil pro Sylvain Pollet-Villard
    Inscrit en
    novembre 2012
    Messages
    1 346
    Détails du profil
    Informations personnelles :
    Nom : Sylvain Pollet-Villard

    Informations forums :
    Inscription : novembre 2012
    Messages : 1 346
    Points : 2 562
    Points
    2 562

    Par défaut

    Citation Envoyé par Stéphane le calme Voir le message
    Le revers de la médaille est que si le navigateur utilise toute la bande passante pour télécharger des images qui ne sont pas censées être visibles, l'affichage du site web pourrait s'en voir retardé. Pour y remédier, la priorisation des demandes pourrait être une solution ; les développeurs web n'auraient alors qu'à préciser l'ordre de téléchargement des contenus. Google est allé plus loin en expérimentant la hiérarchisation multidimensionnelle pour permettre au navigateur de changer les priorités en fonction de l'onglet actuellement visible.
    Je ne comprends pas, c'est du ressort de la couche présentation au-dessus ça. Comment un changement du protocole HTTP pourrait changer le comportement du chargement de médias ? A cause du nombre max de requêtes en parallèle qui a été augmenté ?

  3. #3
    Membre habitué
    Inscrit en
    juin 2006
    Messages
    78
    Détails du profil
    Informations forums :
    Inscription : juin 2006
    Messages : 78
    Points : 120
    Points
    120

    Par défaut

    Si j'ai bien compris c'est grâce à une seule requête HTTP ayant une réponse contenant plusieurs médias qui se "suivent", pas via plusieurs réponses en parallèle.

    L’intérêt est précisément de ne pas dépendre d'une modification non normalisée de la couche du dessus (aussi bien client que serveur) pour ce genre d'optimisation.

  4. #4
    Expert Confirmé Sénior
    Avatar de Paul TOTH
    Homme Profil pro Paul TOTH
    Freelance
    Inscrit en
    novembre 2002
    Messages
    5 337
    Détails du profil
    Informations personnelles :
    Nom : Homme Paul TOTH
    Âge : 44
    Localisation : Réunion

    Informations professionnelles :
    Activité : Freelance
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : novembre 2002
    Messages : 5 337
    Points : 13 903
    Points
    13 903

    Par défaut

    Citation Envoyé par Washmid Voir le message
    Si j'ai bien compris c'est grâce à une seule requête HTTP ayant une réponse contenant plusieurs médias qui se "suivent", pas via plusieurs réponses en parallèle.

    L’intérêt est précisément de ne pas dépendre d'une modification non normalisée de la couche du dessus (aussi bien client que serveur) pour ce genre d'optimisation.
    ben ça c'est déjà le cas en HTTP/1.1 en connection keep-Alive non ?
    Developpez.com: Mes articles, forum FlashPascal
    Entreprise: Execute SARL
    Produits : UPnP, RemoteOffice, FlashPascal
    Embarcadero : Ile de la Réunion, Dephi, C++Builder, RADPHP...TVA à 8,5%

  5. #5
    Membre émérite
    Avatar de Enerian
    Homme Profil pro Etienne Tissières
    Ingénieur développement logiciels
    Inscrit en
    août 2011
    Messages
    214
    Détails du profil
    Informations personnelles :
    Nom : Homme Etienne Tissières
    Âge : 23
    Localisation : France

    Informations professionnelles :
    Activité : Ingénieur développement logiciels

    Informations forums :
    Inscription : août 2011
    Messages : 214
    Points : 809
    Points
    809

    Par défaut

    Je pense qu'on peut faire une analogie avec les flux d'un fichier multimedia. Par exemple, dans un fichier vidéo, on va avoir plusieurs flux : le flux vidéo, une piste audio en français, une piste audio en anglais, une piste de sous-titre, etc...
    Au final, tous ces flux sont entrelacé pour ne former plus qu'un flux dans le fichier. Ils sont ensuite dés-entrelacés lors de la lecture, puis chaque flux est décodé et interprété.

    Là pour moi c'est un peu pareil : les contenus JS/CSS/images sont entrelacés, transitent ensemble au sein d'une même réponse et sont dés-entrelacés lors de leur arrivés pour être ensuite interprétés/affichés.

    C'est du moins comme ça que je le comprend.

  6. #6
    Expert Confirmé Sénior
    Avatar de Paul TOTH
    Homme Profil pro Paul TOTH
    Freelance
    Inscrit en
    novembre 2002
    Messages
    5 337
    Détails du profil
    Informations personnelles :
    Nom : Homme Paul TOTH
    Âge : 44
    Localisation : Réunion

    Informations professionnelles :
    Activité : Freelance
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : novembre 2002
    Messages : 5 337
    Points : 13 903
    Points
    13 903

    Par défaut

    après une lecture en diagonale du PDF je retiens:
    - compression, et ce n'est pas une option, car quand c'est une option, ce n'est pas utilisé ou il faut une première requête pour savoir si ça l'est.
    - l'idée de pouvoir mixer les flux (aussi bien les requêtes que les réponses) c'est pour permettre d'optimiser le temps d'activation du réseau et donc la durée de vie des batteries. Pas besoin d'attendre la réponse à la première requête pour lancer le suivante, on minimise la fenêtre d'utilisation du réseau en réduisant les temps de latence dans le protocole.
    Developpez.com: Mes articles, forum FlashPascal
    Entreprise: Execute SARL
    Produits : UPnP, RemoteOffice, FlashPascal
    Embarcadero : Ile de la Réunion, Dephi, C++Builder, RADPHP...TVA à 8,5%

  7. #7
    Expert Confirmé
    Avatar de SylvainPV
    Profil pro Sylvain Pollet-Villard
    Inscrit en
    novembre 2012
    Messages
    1 346
    Détails du profil
    Informations personnelles :
    Nom : Sylvain Pollet-Villard

    Informations forums :
    Inscription : novembre 2012
    Messages : 1 346
    Points : 2 562
    Points
    2 562

    Par défaut

    Okay donc par exemple, si un document HTML contient 3 stylesheets et 4 scripts, on serait capable de charger ces 7 éléments en une seule requête HTTP multiplexée. C'est bien ça ? Dans tous les cas les scripts devraient être exécutés dans leur ordre de déclaration, donc ça ne devrait rien changer.

  8. #8
    Modérateur
    Avatar de gangsoleil
    Profil pro
    R&D en systemes informatiques bas niveau Unix/Linux
    Inscrit en
    mai 2004
    Messages
    8 256
    Détails du profil
    Informations personnelles :
    Âge : 33
    Localisation : France, Isère (Rhône Alpes)

    Informations professionnelles :
    Activité : R&D en systemes informatiques bas niveau Unix/Linux

    Informations forums :
    Inscription : mai 2004
    Messages : 8 256
    Points : 20 551
    Points
    20 551

    Par défaut

    Une nouvelle version d'HTTP, c'est bien, mais tant que les connexions utiliseront TCP/IP sur ethernet, c'est a dire des paquets de 1500 octets tout compris avec une phase de slow-start (je t'envoie un paquet, j'attends de savoir si tu l'as recu avant de t'en envoyer deux autres, puis j'attends l'aquitement de ces deux pour t'en envoyer 4, et ainsi de suite), on ne gagera pas fondamentalement.
    Modérateur "C", "Informatique Générale & Hardware" et "Unix"
    Les règles du forum

  9. #9
    Chroniqueur Actualités

    Homme Profil pro Stéphane Le Calme
    Administrateur de base de données
    Inscrit en
    mars 2013
    Messages
    899
    Détails du profil
    Informations personnelles :
    Nom : Homme Stéphane Le Calme

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : mars 2013
    Messages : 899
    Points : 14 226
    Points
    14 226

    Par défaut Microsoft présente le premier prototype du serveur HTTP 2.0

    Microsoft présente le premier prototype du serveur HTTP 2.0
    basé sur Katana Server

    Mise à jour du 31/07/13

    Microsoft a rendu public un prototype du serveur HTTP 2.0 basé sur la version 4 de Katana Server, la pile web open source basée sur C#. Ce prototype devrait supporter la compression d'en-tête, le multiplexage de flux ainsi que ALPN (Application Layer Protocol Negotiation), le mécanisme de mise à jour de HTTP et les connexions directes HTTP 2.0.

    Ce prototype est le premier d'une série d'expérimentations de l'implémentation de HTTP 2.0. « Nous travaillons sur les propositions dans le code (…) nous sommes susceptibles d'avoir plusieurs prototypes qui affineront progressivement l'approche que nous avons adoptée » explique Mark Nottingham, président de l'IETF HTTPBIS.

    L'idée est d'améliorer les performances en supportant le multiplexage et en réduisant le temps de latence de la couche application.

    Pour permettre à la communauté de tester cette implémentation de HTTP 2.0, deux adresses ont été identifiées. Il s'agit de http://http2katanatest.cloudapp.net:8080/ et https://http2katanatest.cloudapp.net:8443/. Ces liens tests sont donnés uniquement pour répondre aux navigateurs HTTP 2.0 et ne sont donc pas censés être accessibles après un évènement « clic ».

    Télécharger le code sur GitHub.

    Source : Microsoft Open Technologies

    Et vous ?

    Avez-vous déjà essayé Katana Server ? Qu'en pensez-vous ?

  10. #10
    Membre Expert
    Avatar de Gecko
    Homme Profil pro Antoine Pous
    Développeur Web
    Inscrit en
    février 2011
    Messages
    229
    Détails du profil
    Informations personnelles :
    Nom : Homme Antoine Pous
    Âge : 29
    Localisation : France, Val de Marne (Île de France)

    Informations professionnelles :
    Activité : Développeur Web
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : février 2011
    Messages : 229
    Points : 1 335
    Points
    1 335

    Par défaut

    Citation Envoyé par Stéphane le calme Voir le message
    Il faut aussi noter que bien que SPDY n'autorise que les connexions chiffrées, pour HTTP 2.0 elles seront facultatives
    Bah voilà, la seule contrainte qui vise à protéger un minimum les flux est flinguée

    Donc au final un hypothétique gain en perf mais question sécurité nada, vraiment nawak...

  11. #11
    Membre Expert Avatar de Firwen
    Inscrit en
    juin 2009
    Messages
    434
    Détails du profil
    Informations forums :
    Inscription : juin 2009
    Messages : 434
    Points : 1 023
    Points
    1 023

    Par défaut

    Citation Envoyé par Gecko
    Bah voilà, la seule contrainte qui vise à protéger un minimum les flux est flinguée

    Donc au final un hypothétique gain en perf mais question sécurité nada, vraiment nawak...
    Ca serait aussi bien d’arrêter de dire n'importe quoi.
    Si les protocoles en non-chiffrés ont été inventé c'est pas juste pour donner plus facilement tes "pokes" facebook à la NSA.

    Le chiffrement a un cout, spécialement serveur side, et spécialement à grande échelle.

    Définir HTTP 2.0 avec TLS on par défaut, aurait juste signifier un BAN irrévocable de celui-ci pour toutes les opérations de HPC, Fast-IO, Grid, Cloud storage, etc... dans toutes les situations où l'overhead causé par TLS apporte bien plus de problèmes que d'avantages.

    Et je ne parle même pas du caching ou des Proxys.

    Je suis un fervent défenseur de la protection de la vie privé, mais ce n'est pas une raison pour sortir des anneries pareilles.
    It's not a bug, it's a feature
    Site web : www.firwen.org
    GPG id : 0x8C717673

  12. #12
    Membre Expert
    Avatar de Gecko
    Homme Profil pro Antoine Pous
    Développeur Web
    Inscrit en
    février 2011
    Messages
    229
    Détails du profil
    Informations personnelles :
    Nom : Homme Antoine Pous
    Âge : 29
    Localisation : France, Val de Marne (Île de France)

    Informations professionnelles :
    Activité : Développeur Web
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : février 2011
    Messages : 229
    Points : 1 335
    Points
    1 335

    Par défaut

    Citation Envoyé par Firwen Voir le message
    Ca serait aussi bien d’arrêter de dire n'importe quoi.
    Si les protocoles en non-chiffrés ont été inventé c'est pas juste pour donner plus facilement tes "pokes" facebook à la NSA.

    Le chiffrement a un cout, spécialement serveur side, et spécialement à grande échelle.

    Définir HTTP 2.0 avec TLS on par défaut, aurait juste signifier un BAN irrévocable de celui-ci pour toutes les opérations de HPC, Fast-IO, Grid, Cloud storage, etc... dans toutes les situations où l'overhead causé par TLS apporte bien plus de problèmes que d'avantages.

    Et je ne parle même pas du caching ou des Proxys.

    Je suis un fervent défenseur de la protection de la vie privé, mais ce n'est pas une raison pour sortir des anneries pareilles.
    Tu m'a vu parler de la NSA? Je parle de la sécurité générale des usagers lambda qui ne savent pas faire la différence entre les flux classiques et chiffré.

    Ensuite si je critique c'est parce qu'il serai temps que les choses tournent en faveur de la protection de ces utilisateurs au lieu d'uniquement s'axer sur le porte-feuille des sociétés.

    Et si le TLS avait été actif par défaut HTTP 2.0 aurait certes été plus long à émerger mais certainement pas banni, les sociétés auraient cherchées à perfectionner le rendement de leur produits avant de le proposer et ça ça aurait pu faire naître de nouvelles techno plus performantes.

    Pour moi une contrainte comme celle-ci n'a pas que des mauvais côté.

  13. #13
    Expert Confirmé
    Avatar de pmithrandir
    Homme Profil pro Pierre Bonneau
    Développeur Web
    Inscrit en
    mai 2004
    Messages
    1 539
    Détails du profil
    Informations personnelles :
    Nom : Homme Pierre Bonneau
    Âge : 30
    Localisation : Roumanie

    Informations professionnelles :
    Activité : Développeur Web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : mai 2004
    Messages : 1 539
    Points : 2 927
    Points
    2 927

    Par défaut

    POur que le HTTP2.0 soit mis en place, il faut que les acteurs du marché puisse s'y retrouver facilement.

    En général, les sites ayant besoin de sécurité le sont. Pour les autres, on doit pour moi laisser la choix.

    Rien que du coté du dev, un protocole chiffré qui demande de créer des certificat de sécurité, c'est fastidieux pour rien.
    En interne, un intranet sans login / password, des pages statiques d'informations, etc... tout cela n'a pas besoin de sécurité, donc pourquoi perdre du temps a la mettre en place ?
    Mettre en place des serveurs sans sécu est déjà bien assez fastidieux sans vouloir en ajouter pour rien.
    Admin et créateur de http://www.jaiuneidee.net le nouveau site de démocratie participative locale.

    Nouvelle version en ligne !!!

    Mes idées :
    Indexer les retraites sur la collecte réelle
    Rémunérer les stages / services civiques selon le diplôme
    Une eco-taxe simple à mettre en œuvre

Liens sociaux

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •