IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Protocoles Discussion :

Un membre de l'IAB explique pourquoi Internet est appelé à évoluer


Sujet :

Protocoles

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 455
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 455
    Points : 197 822
    Points
    197 822
    Par défaut Un membre de l'IAB explique pourquoi Internet est appelé à évoluer
    Un membre de l'IAB, le comité chargé de la surveillance et du développement de l'Internet,
    explique pourquoi le réseau est appelé à évoluer

    Selon Mark Nottingham, un membre de l’IAB (Internet Architecture Board, un comité chargé de la surveillance et du développement de l'Internet désigné par l'Internet Society), l’évolution des protocoles régissant Internet a été relativement lente pendant des années.

    « En conséquence, les opérateurs de réseau, les fournisseurs et les décideurs qui veulent comprendre (et parfois contrôler) Internet ont adopté un certain nombre de pratiques basées sur l'empreinte numérique de ces protocoles – que ce soit pour déboguer les problèmes, améliorer la qualité de service, ou imposer une politique », a-t-il noté.

    Pourquoi Internet est-il appelé à évoluer ?

    Mark avance qu’un certain nombre de facteurs expliquent ces changements :

    • Tout d'abord, les limites des protocoles Internet de base sont devenues apparentes, en particulier en ce qui concerne les performances. En raison de problèmes structurels dans les protocoles d'application et de transport, le réseau n'a pas été utilisé aussi efficacement qu'il pouvait l'être, ce qui a conduit à des performances perçues par l'utilisateur final (en particulier, la latence).

      Cela se traduit par une forte motivation à évoluer ou à remplacer ces protocoles, car il existe une vaste expérience montrant l'impact de gains de performance même minimes.
    • Ensuite, la capacité à faire évoluer les protocoles Internet – à tous les niveaux – est devenue plus difficile au fil du temps, en grande partie à cause des utilisations involontaires des réseaux. Par exemple, les proxys HTTP qui essayaient de compresser les réponses rendaient plus difficile le déploiement de nouvelles techniques de compression, l'optimisation TCP dans les boîtiers de médiation a rendu plus difficile le déploiement d'améliorations au protocole TCP.
    • Enfin, nous sommes en train de passer à une utilisation accrue du chiffrement sur Internet, un mouvement qui est probablement stimulé par les révélations d'Edward Snowden en 2015.

    Dans un souci de tracer l’évolution d’Internet, Mark s’est proposé de passer rapidement en revue ce qui a déjà été fait, ce qui sera fait, l’impact sur le réseau et comment le réseau influe sur la conception des protocoles.

    HTTP / 2

    HTTP / 2 a été le premier changement notable – standardisé en 2015. HTTP 2.0, viendra remplacer la dernière mise à jour du protocole HTTP 1.1, dont l’âge (la spécification avait été lancée en 1999) ne permet plus de répondre comme il se doit aux besoins du Web, qui est passé des simples pages sans trop de contenu à une véritable plateforme utilisée pour la diffusion du contenu multimédia, des applications, etc.

    HTTP/2 promet de réduire considérablement le temps de chargement des pages. Il repose en grande partie sur le protocole SPDY, développé par Google et soumis à l’IETF en 2012, dont l’atout principal est le multiplexage. En effet, le protocole multiplexe les requêtes HTTP en une seule connexion TLS. Ainsi, une requête n’aura plus besoin d’attendre dans le navigateur à cause des limites de connexion.

    HTTP 2.0 renforce également la sécurité. Le protocole supporte mieux le chiffrement (notamment le chiffrement avec TLS), ce qui permettra de rendre le Web plus sûr pour les internautes, tout en limitant l’espionnage de masse des organismes comme la NSA.

    En ce qui concerne les développeurs, HTTP/2 repose sur les mêmes API que HTTP avec lesquels ils sont familiers. Mais, il propose cependant en bonus de nouvelles fonctionnalités que ceux-ci peuvent utiliser.

    HTTP / 2 nécessite également l'utilisation de TLS / 1.2 lorsqu'il est chiffré et met sur liste noire des suites de chiffrement qui ont été jugées non sécurisées –- avec pour effet de n'autoriser que les clés éphémères.

    TLS 1.3

    TLS 1.3 ne fait que passer par les derniers processus de normalisation et est déjà supporté par certaines implémentations. Rappelons que Firefox le supporte depuis sa version 49, et Chrome depuis sa version 63.

    Le nouveau design repose sur l'échange de clés éphémères, excluant ainsi les clés statiques. Cela a suscité des inquiétudes de la part de certains opérateurs et fournisseurs de réseaux – en particulier ceux qui ont besoin de visibilité sur ce qui se passe à l'intérieur de ces connexions.

    Pour illustrer en quoi cela peut poser une gêne à certains opérateurs, Mark a pris l’exemple : considérons le centre de données d'une banque qui a des exigences réglementaires en matière de visibilité. En analysant le trafic dans le réseau et en le déchiffrant avec les clés statiques de leurs serveurs, ils peuvent enregistrer le trafic légitime et identifier le trafic nuisible, que ce soit des attaquants de l'extérieur ou des employés essayant de faire fuiter des données de l'intérieur.

    TLS 1.3 ne supporte pas cette technique particulière d'interception du trafic, car c'est aussi une forme d'attaque contre laquelle les clés éphémères protègent. Cependant, étant donné qu'ils ont des exigences réglementaires pour utiliser à la fois des protocoles modernes de chiffrement et pour surveiller leurs réseaux, cela place ces opérateurs de réseau dans une position inconfortable.

    Il y a eu beaucoup de débats pour savoir si des approches alternatives pourraient être tout aussi efficaces, et si la sécurité de l'Internet tout entier au profit de relativement peu de réseaux est la bonne solution. En effet, il est toujours possible de déchiffrer le trafic dans TLS 1.3, mais vous avez besoin d'accéder aux clés éphémères pour le faire, et de par leur conception, elles n’ont pas de longue durée.

    QUIC

    Pendant le travail sur HTTP / 2, il est devenu évident que TCP présente des limites similaires. En juin 2013 Google a révélé pour la première fois QUIC (Quick UDP Internet Connections) et l’a intégré à Chrome Canary. L’année d’avant, l'ingénieur Yuchung Cheng expliquait que pour contourner les limitations de TCP, le navigateur Web ouvre plusieurs connexions parallèles ; un mécanisme qui résulterait cependant en plusieurs temps de latence. Le protocole procède en effet à une première vérification en envoyant tout d'abord trois paquets avant de finaliser l'intégralité du transfert.

    L’objectif premier de ce protocole est de prendre le meilleur de TCP (pour son mécanisme de vérification) et d'UDP (pour la rapidité du transfert, un protocole qui est souvent utilisé pour les jeux, les streamings de média, mais aussi les services VoIP) avec la mise en place de QUIC.

    QUIC est une tentative pour résoudre le problème lié à TCP en reconstruisant efficacement sa sémantique (avec certains modèles de flux de HTTP / 2) par-dessus UDP. Comme HTTP / 2, il est né des efforts de contribution de Google et est maintenant en étude au sein de l'IETF (Internet Engineering Task Force, un groupe international qui participe à l’élaboration des standards Internet), avec un cas d'utilisation initiale de HTTP sur UDP et un objectif de devenir une norme à la fin de 2018. Cependant, puisque Google a déjà déployé QUIC dans le navigateur Chrome et sur ses sites, il représente déjà plus de 7 % du trafic Internet.

    Le réseau et les utilisateurs

    Quand un protocole ne peut pas évoluer, car les déploiements « gèlent » ses points d'extensibilité, on dit qu'il s'est ossifié. En dehors du désir d’éviter cette situation, Mark voit en ces changements le reflet de l'évolution de la relation entre les réseaux et leurs utilisateurs.

    « Pour qu'Internet fonctionne bien à long terme, il doit fournir de la valeur aux utilisateurs finals, éviter l'ossification et permettre aux réseaux de fonctionner. Les changements en cours doivent maintenant atteindre les trois objectifs, mais nous avons besoin de plus d'informations de la part des opérateurs de réseau. »

    Source : billet Mark Nottingham

    Et vous ?

    Quelles sont les évolutions dans les protocoles qui marquent, selon vous, les progressions les plus notables d'Internet ?

    Voir aussi :

    HTTP 2.0 : le développement du protocole finalisé, 16 ans après la sortie de HTTP 1.1
    Google projette de proposer son protocole QUIC à l'IETF, pour un Internet plus rapide
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre confirmé
    Avatar de Skyxia
    Homme Profil pro
    Ingénieur réseau & sécurité
    Inscrit en
    Mai 2016
    Messages
    359
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Pas de Calais (Nord Pas de Calais)

    Informations professionnelles :
    Activité : Ingénieur réseau & sécurité
    Secteur : Service public

    Informations forums :
    Inscription : Mai 2016
    Messages : 359
    Points : 627
    Points
    627
    Billets dans le blog
    3
    Par défaut
    Bonjour,

    Ça me rassure de voir que des gens comme cet homme réfléchissent sérieusement à ce sujet

    Un exemple sûrement bête mais les films de nos jours, quand on voit l'imagination qu'ils ont à créer des systèmes ultra performant et des choses très futuristes bah... ça paraît improbable à l'oeil du spectateur du coup la réaction qu'on a c'est "Haha n'importe quoi ce qu'ils font je m'y connais en informatique et c'est pas possible" et pourtant.. il est vrai qu'on utilise jamais au maximum les capacités de l'existant et on se limite à se qu'on connait.

    Vivement que ça évolue et vivement les voitures volantes !

    Siberattaque : Attaque informatique par un hackeur sibérien.


    Je vous invite à consulter mes billets dans mon blog :
    Cisco IOS & Sécurité basique
    Audit réseaux dans un SI

    [Smartphone] [Android] 8 conseils pour vous sécuriser un minimum !

  3. #3
    Expert éminent Avatar de BufferBob
    Profil pro
    responsable R&D vidage de truites
    Inscrit en
    Novembre 2010
    Messages
    3 035
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : responsable R&D vidage de truites

    Informations forums :
    Inscription : Novembre 2010
    Messages : 3 035
    Points : 8 400
    Points
    8 400
    Par défaut
    pour le bien ou le pas bien la pile protocolaire Internet a déjà pas mal évolué, les dev toujours obsédés à vouloir tout mettre sur le web (paye ton 2.0, qui a dit webmin, mysqladmin et autres ?) ont fini par avoir gain de cause, on ajoute à ça l'engouement pour les mobiles et c'est ce qui légitime aujourd'hui des protocoles comme QUIC ou HTTP/2

    fini le FTP de papa, si on veut télécharger un fichier rapidement il faut le faire au dessus de HTTP qui a l'origine n'est censé véhiculer que du texte formaté, avouez que c'est quand même étrange comme évolution...

    avant il y avait des ingénieurs qui se cassaient la tête pour faire une base solide et cohérente, c'était le modèle OSI, puis finalement le standard Internet s'est imposé, aujourd'hui c'est HTTP qui s'est imposé

    je vois bien dans 30 ans de l'IA as a service dans un OS en réseau dans un hyperviseur distribué codé en Rotolol.js et transfér-exécutée au dessus d'une API en REST8 over CSS 15+plugin Gladiator, le tout encapsulé dans TRUFE (coques grises/noires & chaussures à lacets) over ZBURG (mains libres & crypto-monnaies) over QUIC (mobilité & streaming), le tout rendu possible par la seule puissance des cartes graphiques qui auront alors définitivement remplacé les processeurs (évidemment dans ces processeurs graphiques on aura trouvé un vieux Windows NT4 dont on soupçonnera qu'il puisse induire des vulnérabilités) etc.

    et IPv6 me direz-vous ? rassurez-vous, la migration sera en bonne voie d'ici là avec au moins 0.2% du parc mondial totalement migré

    non vraiment, j'ai hâte.

    j'ai le sentiment qu'une poignée de chercheurs aujourd'hui redoublent d'ingéniosité pour palier aux décisions sans queue ni tête qu'on aurait pu (ou au moins dû) s'empêcher de prendre il y a 10 ans...


Discussions similaires

  1. Microsoft explique pourquoi Windows Phone 7 est adapté aux exigences des décideurs IT
    Par Gordon Fowler dans le forum Forum général Solutions d'entreprise
    Réponses: 0
    Dernier message: 21/12/2010, 13h53
  2. Réponses: 1
    Dernier message: 02/05/2010, 22h06
  3. Réponses: 4
    Dernier message: 24/09/2009, 11h50
  4. Réponses: 1
    Dernier message: 01/10/2007, 17h32
  5. [vb.net] [textbox] pourquoi validating est appellée
    Par graphicsxp dans le forum Windows Forms
    Réponses: 4
    Dernier message: 02/11/2005, 11h09

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo