Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Expert éminent sénior
    Google investit dans un câble sous-marin de capacité 60Tb/s de valeur de 300 millions de dollars
    Google investit dans un câble sous-marin de capacité 60Tb/s de valeur de 300 millions de dollars,
    sur l'itinéraire Trans-Pacifique

    C'est sur son compte Google+ que Urs Hölzle, vice-président des infrastructures chez Google, a annoncé la nouvelle. Le géant du web a signé un contrat avec la société NEC pour l'installation d'un nouveau câble Trans-Pacifique qui reliera les principales villes de la côte ouest des Etats-Unis d'Amérique à deux villes du Japon, Chikura et Shima. « Le système de câble FASTER a une grande capacité de conception jamais construite sur la route Trans-Pacifique qui est l'une des plus longues routes au monde. L'accord annoncé aujourd'hui sera bénéfique à tous les internautes du monde » a déclaré Woohyong Choi, le Président du comité exécutif de FASTER.


    Le projet nommé FASTER est celui d'un consortium formé de 5 entreprises en plus de Google : China Mobile International, China Telecom Global, Global Transit, KDDI and SingTel. Il mettra en œuvre les toutes dernières technologies pour répondre pleinement aux demandes intenses de trafic de données sur l'itinéraire Trans-Pacifique. Le câble sera constitué de 6 paires de fibres avec une capacité de 100 Gb/s chacune et 100 longueurs d'onde. Le câble a donc une capacité de 60Tb/s. Le coût d'investissement de FASTER est évalué à 300 millions de dollars.

    En s'alliant au consortium, Google veut fournir le meilleur de ses services dont ceux du cloud à ses plus d'un milliard d'utilisateurs d'Android. Pour mémoire, en 2008, la firme avait rejoint un consortium pour investir dans un UNITY, un câble de 3,3 Tb/s reliant les USA au Japon. En 2011, elle a investi dans SJC (South-East Asia Japan Cable), un câble de 28 Tb/s de valeur de 400 millions de dollars mis en exploitation en Juillet dernier.

    La constrution de FASTER débutera immédiatemment et sera prêt pour utilisation dès le second semestre de 2016.

    Source : Annonce NEC

    Et vous ?
    Que pensez-vous de cet investissement de Google ?
    Que pensez-vous de la capacité de FASTER ?
    Vous avez envie de contribuer au sein du Club Developpez.com ?

    Vous êtes passionné, vous souhaitez partager vos connaissances en informatique, vous souhaitez faire partie de la rédaction.
    Il suffit de vous porter volontaire et de nous faire part de vos envies de contributions :
    Rédaction d'articles/cours/tutoriels, Traduction, Contribution dans la FAQ, Rédaction de news, interviews et témoignages, Organisation de défis, de débats et de sondages, Relecture technique, Modération, Correction orthographique, ...etc.
    Vous avez d'autres propositions de contributions à nous faire ? Vous souhaitez en savoir davantage ? N'hésitez pas à nous approcher.

  2. #2
    Inactif  
    300 millions de dollars
    Je ne trouve pas cela si onereux comme investissement. De toute façon pour Google certainement pas. Et géographiquement c'est très intéressant

  3. #3
    Membre habitué
    C'est tant que ça 100Gb/s ?
    La fibre actuelle en France c'est 100Mb/s
    Donc pour un cable pourrait acceuillir 1000 utilisateurs de fibre avec un débit max?

    C'est ça ou je rate quelque chose?

  4. #4
    Expert éminent
    Je suis étonné du prix. Cela me paraît si peu cher pour un câble sous-marin...
    Pourquoi à ce tarif là n'a-t-on pas la fibre dans toutes les villes et villages de France ?

    « Toujours se souvenir que la majorité des ennuis viennent de l'espace occupé entre la chaise et l'écran de l'ordinateur. »
    « Le watchdog aboie, les tests passent »

  5. #5
    Membre habitué
    Citation Envoyé par Alanis Voir le message
    C'est tant que ça 100Gb/s ?
    La fibre actuelle en France c'est 100Mb/s
    Donc pour un cable pourrait acceuillir 1000 utilisateurs de fibre avec un débit max?

    C'est ça ou je rate quelque chose?
    Tu rates le fait que ce n'est qu'une partie du cable qui peut a une bande passante de 100Gb/s, le cable entier possède une bande passante de 60Tb/s.

  6. #6
    Membre éprouvé
    Citation Envoyé par Lynix Voir le message
    Tu rates le fait que ce n'est qu'une partie du cable qui peut a une bande passante de 100Gb/s, le cable entier possède une bande passante de 60Tb/s.

    Tout à fait !

    Autrement c'est un très bon investissement !
    Agence web Dim'Solution, créateur de solutions numériques
    Sites internet, ecommerce, logiciels, applications mobiles, référencement (SEO), plugin Prestashop, Magento, WordPress, Joomla!...

    Cours de trading gratuit | Envoyer des sms gratuitement | Envoyer des fax gratuitement | Plateforme de Fax à l'international

  7. #7
    Membre émérite
    Citation Envoyé par Alanis Voir le message
    C'est tant que ça 100Gb/s ?
    La fibre actuelle en France c'est 100Mb/s
    Donc pour un cable pourrait acceuillir 1000 utilisateurs de fibre avec un débit max?

    C'est ça ou je rate quelque chose?
    tu rates quelques choses oui.
    probablement sans être exhaustif, je dirai que 3 critères participent déjà fortement à faire en sorte que tu n'as pas du 100Gb/s chez toi:
    1. tu n'as probablement pas la fibre qui arrive directement sur ta carte réseau. je pense qu'il y a du cruivre entre la fibre et ton PC.
    2. il n'y a pas une fibre par abonné, et faut bien partager la bande passante.
    3. c'est pas tout le monde qui possède une machine capable de traiter 100Gb de données par seconde, et on n'est pas nombreux non plus à en avoir réellement besoin.


    les 100Mb/s qu'on a en France, c'est plus probablement une limite commerciale qu'une vraie limite technique.

  8. #8
    Membre extrêmement actif
    Citation Envoyé par Tryph Voir le message
    les 100Mb/s qu'on a en France, c'est plus probablement une limite commerciale qu'une vraie limite technique.
    C'est le fameux débit maximum théorique.

  9. #9
    Modérateur

    Citation Envoyé par Alanis Voir le message
    C'est tant que ça 100Gb/s ?
    La fibre actuelle en France c'est 100Mb/s
    Donc pour un cable pourrait acceuillir 1000 utilisateurs de fibre avec un débit max?

    C'est ça ou je rate quelque chose?
    Citation Envoyé par Tryph Voir le message
    tu rates quelques choses oui.
    probablement sans être exhaustif, je dirai que 3 critères participent déjà fortement à faire en sorte que tu n'as pas du 100Gb/s chez toi:
    1. tu n'as probablement pas la fibre qui arrive directement sur ta carte réseau. je pense qu'il y a du cruivre entre la fibre et ton PC.
    2. il n'y a pas une fibre par abonné, et faut bien partager la bande passante.
    3. c'est pas tout le monde qui possède une machine capable de traiter 100Gb de données par seconde, et on n'est pas nombreux non plus à en avoir réellement besoin.


    les 100Mb/s qu'on a en France, c'est plus probablement une limite commerciale qu'une vraie limite technique.
    Quelques précisions :
    La fibre a un débit supérieur à 100Mb/s, mais c'est le débit maximum descendant en France.
    Oui, la fibre arrive (au mieux, c'est à dire dans le cas du FTTH) jusqu'au modem/box, et après tu as un réseau en RJ45 -- on trouve des réseaux à 1Gb/s sans soucis
    Pour le point 3, les barettes de RAM actuelles peinent à dépasser 20Gb/s, sachant que peu de cartes-mères supportent plus de 32 Go de toute manière. Donc même avec tous les efforts que tu peux fournir, tu pourrais théoriquement saturer un lien 1Gb/s pendant quelques dizaines de secondes tout au plus.

    À cela, il faut ajouter le fait que les échanges ne sont pas continus. C'est à dire que lorsqu'on transfert des données, peu importe le sens, il y a des moments où on n'envoie/reçoit rien. Et pendant ce temps-là, on peut donc transférer les données du voisin.
    Voici comment, sur un "simple" lien à 100Mb/s (par exemple), avec plusieurs personnes, on peut servir N personnes à des débits supérieurs à 100/N.
    Et donc ici, ce n'est pas 1000 utilisateurs que tu peux acceuillir, mais bien plus.
    Si vous voulez plus d'informations, renseignez-vous sur les chaînes de Markov.


    Quant à ceux qui se disent que c'est pas cher, et que donc déployer la fibre en France ne devrait pas être beaucoup plus cher, il faut bien que vous voyez les différences :
    Dans un cas, on a un (très) gros cable, très très long, sous-marin, qui a un point de départ et deux points d'arrivée.
    Dans l'autre, on a des myriades de petits cables, qui se séparent à chaque croisement et à chaque immeuble, et qui devraient couvrir environ 978 000 de Km de route (source wikipedia, je n'ai pas vérifié).

    Donc pas grand chose en commun.
    "La route est longue, mais le chemin est libre" -- https://framasoft.org/
    Les règles du forum

  10. #10
    Modérateur

    Citation Envoyé par gangsoleil Voir le message
    Quelques précisions :

    Pour le point 3, les barettes de RAM actuelles peinent à dépasser 20Gb/s, sachant que peu de cartes-mères supportent plus de 32 Go de toute manière. Donc même avec tous les efforts que tu peux fournir, tu pourrais théoriquement saturer un lien 1Gb/s pendant quelques dizaines de secondes tout au plus.
    Semblerait quand même que avec la RAM on est plus de l'ordre du Go/s : http://www.hardware.fr/articles/909-...e-memoire.html
    Après avec des connexions de l'ordre du Gbit c'est plus le stockage qui risque de devenir limitant (quoi que avec des bon SSD).

    En tout cas avec de bon vieux disque à plateau j'arrive au taquet de ma connexion 300Mb/s à la maison
    Pry Framework php5 | N'oubliez pas de consulter les FAQ Java et les cours et tutoriels Java

  11. #11
    Modérateur

    Citation Envoyé par grunk Voir le message
    En tout cas avec de bon vieux disque à plateau j'arrive au taquet de ma connexion 300Mb/s à la maison
    Sauf que l'utilisation que tu as de tes disques n'est pas du tout la même que celle qu'on a sur une connexion réseau -- même en téléchargeant beaucoup. D'ailleurs, les protocoles ne sont pas du tout les mêmes (les fenêtres TCP sont une horreur pour les taux de transferts par exemple).
    "La route est longue, mais le chemin est libre" -- https://framasoft.org/
    Les règles du forum

  12. #12
    Membre extrêmement actif
    Citation Envoyé par gangsoleil Voir le message
    Sauf que l'utilisation que tu as de tes disques n'est pas du tout la même que celle qu'on a sur une connexion réseau -- même en téléchargeant beaucoup. D'ailleurs, les protocoles ne sont pas du tout les mêmes (les fenêtres TCP sont une horreur pour les taux de transferts par exemple).
    Tiens, justement je m'étais déjà interrogé là dessus. On ne parle jamais de consommation réel du débit, en comptant les multiples en têtes des couches réseaux, gestion des sessions TCP, sans compter la redondance de données du à la perte de paquets. Quelqu'un aurait des infos là dessus? Ce serait intéressant d'avoir le pourcentage de débit d'information (le message qu'on veut envoyer) comparé au débit de donnée brut (dans le tuyaux).

  13. #13
    Modérateur

    Citation Envoyé par benjani13 Voir le message
    Tiens, justement je m'étais déjà interrogé là dessus. On ne parle jamais de consommation réel du débit, en comptant les multiples en têtes des couches réseaux, gestion des sessions TCP, sans compter la redondance de données du à la perte de paquets. Quelqu'un aurait des infos là dessus? Ce serait intéressant d'avoir le pourcentage de débit d'information (le message qu'on veut envoyer) comparé au débit de donnée brut (dans le tuyaux).
    Si si, on en parle dès qu'on fait du dev réseau, ou bien lorsqu'on est administrateur et qu'à force de devoir monter des VPN sur des encapsulations etc... eh bien le login ne passe même plus.

    En gros, une trame ethernet fait 1500 octets (oui, c'est pas gros), avec les en-tete (ethernet, IP et TCP). Bien sur, on peut activer des Jumbo-frames (jusqu'à 9 000 octets), mais tous les réseaux ne les supportant pas, c'est pas forcement possible.

    Ensuite, tu peux aussi ne pas utiliser ethernet, et prendre par exemple infiniband, qui n'utilise pas non plus IP (enfin il existe un mode de compatibilité mais c'est relativement lent), mais ça demande de refaire toute l'infrastructure réseau, donc c'est réservé à certains cas très précis).

    Après, il faut que tu dises ce que tu veux savoir pour que je puisse t'aiguiller plus (par exemple le fait que sur IPv4 on puisse couper un paquet en deux au milieu de la route, mais pas en IPv6, ou bien d'autres choses rigolotes de ce genre).
    "La route est longue, mais le chemin est libre" -- https://framasoft.org/
    Les règles du forum

  14. #14
    Nouveau membre du Club
    vais faire mon relou tient !
    Salut,

    en effet il y a un petit problème !

    Comme déjà indiqué, c'est 100 Mbit/s par brin et par faisceau, hors il y à 6 brins exploitant chacun 100 longueurs d'ondes (disons laser de couleurs différent pour simplifier, pas taper).
    Le débit maximal est donc de 100 * 100 * 6, soit 60 000 Mbit/s, soit encore 60 Gbit/s ou encore 7,5 Go/s, on retrouve nos petits.
    Précisons que sur une telle longueurs il n'est pas possible de fusionner ces liens et tu as en réalité bien 600 flux à 100 Mbit/s, ce qui n'est pas tout à fait pareil.
    Dans le premier cas un seul flux de donnée pourrait consommer les 60 Gbit/s, dans le second il faudrait par exemple 600 personnes qui télécharge avec leur super ftth parfait à 100 Mbit/s.
    Je précise avant qu'on me tape dessus, oui en fait c'est possible de fusionner, mais en pratique c'est pas ce qui ce passe, on le fait que pour des records pour dire qu'on n'a la plus grosse pour les 6 prochains mois ..., un truc d'universitaires souvent.

    Bref, pour en revenir au fait que seulement 600 personnes (1000 sur tes dire) pourraient suffire à saturer un lien comme celui-ci,
    tu n'a pas tord en théorie, mais dans la pratique c'est une autre histoire.
    Connais-tu beaucoup de personne qui transfert à 100Mbit/s en continu, 24/24, 7/7, ..., à l'autre bout de la planète histoire d’être bien relou ?
    On parle quand même de 5 disques durs de 6 TO par mois pour stocker le bestiau.

    Partons dans l'autre sens, imaginons nos amis youtubeur Japonnais.
    Ils sont donc au Japons et regarde des vidéos stockées au Usa, nikel, ça utilise notre câble.
    Disons qu'il regarde pour 1 Go de vidéo par jours, ça commence à pas être tout pourrit, même si c'est tout à fait le faire.
    Prenons en compte que c'est des particulier, qui regarde surtout le soir après le boulot, l'école, ...
    Disons que la moitié du trafic à lieu dans une tranche de 6 heures, le reste dans les 18h qu'ils restent.

    En 6H notre câble peut envoyer 162 000 de Go (7,5 Go/s * 3600 * 6), et donc répondre au besoin journalier des 162 000 foyers qui ne regarde que le soir.
    doublons ce chiffre, il faut pas oublier les 18 autre heures, 324 000 foyers.
    On est dans un pays civilisé, disons un taux de pénétration à 75% de l'internet fixe (1 Go par jour sur un portable, et la marmotte ...),
    On peux donc augmenter le taux de couverture de d'un tiers (25/75), on arrive à 432 000 foyers.
    D'après wikipedia, il y a 2,46 personnes par foyers au Japons, on couvre alors 1 062 720 personnes avec notre câble.

    On est bien loin de nos 600 personnes !
    Il faut bien sûr prendre en compte que chez Google ils sont pas complètement crétins, ils ont des caches sur place ...
    Fort heureusement pour le prix de nos connexions Internet, l'usage moyen de youtube par foyers est bien en deçà d'un Go par jours.
    Et si c'était le cas, le pauvre Japonais regarderait ces vidéos avec l'équivalent d'une connexion RTC 33 Kbit/s !
    En fait non, il aurait un timeout sur le temps de chargement de la page qui affiche la vidéo ... outch.

    Bon, je termine avec le coup de la barrette de ram qui suit pas et tout ça, bref, ça part complètement en javel là, on mélange les giga octets, les giga bits, bref nawak.
    Puis on répond en Gbit/s quand le mec parle de Mbit/s aussi, re nawak les gars.

    Clarifions, une barrette de ram type DDR3 en PC12800 à 1600 Mhz/s.
    Bon en vrais elle marche qu'a 200 Mhz/s, mais avec de lecture parallèle et surtout initialement une meilleur exploitation du changement d'état de l'horloge de notre barrette,
    cette dernière arrive à lire 4 "zones" en même temps, et cela 2 fois par hertz.
    Le reste étant du marketing, 200 * 4 * 2 nous donnant une magnifique barrette commercial à 1600 Mhz/s :]
    Comme indiqué c'est une PC12800, soit 12 800 Mo/s, bref 12,8 Go/s, même pas besoin de calculer, c'est donné !
    Pour les irréductibles du syndrome octet/bit, ça fait 102,4 Gbit/s et non pas "au mieux" 20 Gbit/s.
    En plus, qui a encore un PC en mono channel sérieux ???
    Tout le monde à un dual, voire quad channels, on va faire nos bourrins et dire qu'on peut directement multiplier.
    Donc 25,6 Go/s (204,8 Mbit/s) en dual, 51,2 Go/s (409,6 Mbit/s) en quad.
    Svp, je parle de channel, pas de core, me sortez pas j'ai un octo-core, je peux monter à plus de 100 Go/s !

    Bon, tout ça c'est de la théorie bien sur.
    Déjà on peut atteindre ce débit que sur du séquentiel, on gros la barrette ne doit que écrire les données télécharger et faire strictement rien d'autre.
    En vrai,on peux déjà virer 10% du débit juste par ce que la ram à besoin de rafraîchir les données pour pas les oublier, oui une barrette à Alzheimer plusieurs centaines de millions de fois par secondes, ça craint !
    Ensuite notre PC fait toujours quelque chose, donc ça coupe la séquence, et on perde encore en perf, c'est du genre il me faut 15 fois plus de temps pour aller chercher 2 données dans des zone différentes que collées l'une à l'autre.
    Au passage je trouve ça amusant quand SDRAM veux dire "Synchronous Dynamic Random Access Memory", alias "mémoire dynamique synchrone à accès aléatoire".
    Ce terme veux juste dire qu'on a une performance identique peut importe le type d'accès, haha la blague, ça a seulement été vrai en labo avant la commercialisation.

    Pour finir avec notre barrette, tout nos chiffres sont bidons
    Vous croyez que la donnée arrive par magie dans la ram ? et on en fait quoi ensuite ?
    Bref, la donnée arrive, le système la place dans la ram, 1 accès en écriture donc, le tout est filé à notre programme qui va direct recopier la donnée, donc un accès en lecture, et un autre en écriture pour copier.
    Puis on va la placer sur le disques dure par exemple cette donnée, donc, on relie la ram, accès en lecture, et on demande à l'os de mettre ça sur le disque dur.
    Mais notre Os, il va surtout mettre tout ça en ram et écouler ça tranquillement (j'exagère pas mal là), et quand il écoule, il lit à nouveau la ram.
    Bref, 6 accès en tout, en considérant qu'il ne ce passe que ça, c'est presque jamais le cas
    Donc vous reprenez tout mes chiffres, vous divisez par 6, vous enlevé bien 20%, et vous aurez ce que peut encaisser votre ram sur un pc bien vierge et un logiciel de récpetion-copie juste parfait.
    Au pire on est à 1,7 Go/s sur un PC mono-channel, soit encore 13,65 Gbit/s. C'est bon ça devrait le faire.
    Dans la pratique, c'est le processeur qui va saturer, à cause d'histoire d’interruption, vais pas vous faire un cour d'électronique non plus.
    D'autre me dirons que le disque durs va pas suivre, c'est pas faut même sur du pur séquentiel on arrive à du 200 Mo/s (1,6 Gbit/s) sur de bonnes densités, soit toujours bien plus que notre ftth de référence, même si encore une fois, c'est seulement si l'on fait réellement que ça.

    Bon, j'ai été bien chiant, je suis content de moi, ça a du bien compléter depuis que j'ai commencé à écrire
    Libre à vous de me démonter sur les fautes, j'ai que partiellement relu, c'est trop long.

  15. #15
    Modérateur

    La fibre en France (théorique) va jusque 500 Mbps en reception et 200Mbps en émission chez orange
    BakSh0, Modérateur .Net & Web

    Affichez la colorisation syntaxique dans votre code en ajoutant dans votre balise : [CODE=xxx] en remplaçant xxx par le nom du langage.


    N'oubliez pas de consulter les FAQs : .Net / Web et les cours et tutoriels .Net / Web

  16. #16
    Modérateur

    Citation Envoyé par BakSh0 Voir le message
    La fibre en France (théorique) va jusque 500 Mbps en reception et 200Mbps en émission chez orange
    Si tu évoques les performances du lien physique, peut-être, mais ce qui est vendu contractuellement ce n'est pas ça du tout - notamment sur l'upload.
    "La route est longue, mais le chemin est libre" -- https://framasoft.org/
    Les règles du forum

  17. #17
    Membre habitué
    Citation Envoyé par cataland Voir le message
    Salut,

    en effet il y a un petit problème !

    Comme déjà indiqué, c'est 100 Mbit/s par brin et par faisceau, hors il y à 6 brins exploitant chacun 100 longueurs d'ondes (disons laser de couleurs différent pour simplifier, pas taper).
    Le débit maximal est donc de 100 * 100 * 6, soit 60 000 Mbit/s, soit encore 60 Gbit/s ou encore 7,5 Go/s, on retrouve nos petits.
    Précisons que sur une telle longueurs il n'est pas possible de fusionner ces liens et tu as en réalité bien 600 flux à 100 Mbit/s, ce qui n'est pas tout à fait pareil.
    Dans le premier cas un seul flux de donnée pourrait consommer les 60 Gbit/s, dans le second il faudrait par exemple 600 personnes qui télécharge avec leur super ftth parfait à 100 Mbit/s.
    Je précise avant qu'on me tape dessus, oui en fait c'est possible de fusionner, mais en pratique c'est pas ce qui ce passe, on le fait que pour des records pour dire qu'on n'a la plus grosse pour les 6 prochains mois ..., un truc d'universitaires souvent.

    Bref, pour en revenir au fait que seulement 600 personnes (1000 sur tes dire) pourraient suffire à saturer un lien comme celui-ci,
    tu n'a pas tord en théorie, mais dans la pratique c'est une autre histoire.
    Connais-tu beaucoup de personne qui transfert à 100Mbit/s en continu, 24/24, 7/7, ..., à l'autre bout de la planète histoire d’être bien relou ?
    On parle quand même de 5 disques durs de 6 TO par mois pour stocker le bestiau.

    Partons dans l'autre sens, imaginons nos amis youtubeur Japonnais.
    Ils sont donc au Japons et regarde des vidéos stockées au Usa, nikel, ça utilise notre câble.
    Disons qu'il regarde pour 1 Go de vidéo par jours, ça commence à pas être tout pourrit, même si c'est tout à fait le faire.
    Prenons en compte que c'est des particulier, qui regarde surtout le soir après le boulot, l'école, ...
    Disons que la moitié du trafic à lieu dans une tranche de 6 heures, le reste dans les 18h qu'ils restent.

    En 6H notre câble peut envoyer 162 000 de Go (7,5 Go/s * 3600 * 6), et donc répondre au besoin journalier des 162 000 foyers qui ne regarde que le soir.
    doublons ce chiffre, il faut pas oublier les 18 autre heures, 324 000 foyers.
    On est dans un pays civilisé, disons un taux de pénétration à 75% de l'internet fixe (1 Go par jour sur un portable, et la marmotte ...),
    On peux donc augmenter le taux de couverture de d'un tiers (25/75), on arrive à 432 000 foyers.
    D'après wikipedia, il y a 2,46 personnes par foyers au Japons, on couvre alors 1 062 720 personnes avec notre câble.

    On est bien loin de nos 600 personnes !
    Il faut bien sûr prendre en compte que chez Google ils sont pas complètement crétins, ils ont des caches sur place ...
    Fort heureusement pour le prix de nos connexions Internet, l'usage moyen de youtube par foyers est bien en deçà d'un Go par jours.
    Et si c'était le cas, le pauvre Japonais regarderait ces vidéos avec l'équivalent d'une connexion RTC 33 Kbit/s !
    En fait non, il aurait un timeout sur le temps de chargement de la page qui affiche la vidéo ... outch.

    Bon, je termine avec le coup de la barrette de ram qui suit pas et tout ça, bref, ça part complètement en javel là, on mélange les giga octets, les giga bits, bref nawak.
    Puis on répond en Gbit/s quand le mec parle de Mbit/s aussi, re nawak les gars.

    Clarifions, une barrette de ram type DDR3 en PC12800 à 1600 Mhz/s.
    Bon en vrais elle marche qu'a 200 Mhz/s, mais avec de lecture parallèle et surtout initialement une meilleur exploitation du changement d'état de l'horloge de notre barrette,
    cette dernière arrive à lire 4 "zones" en même temps, et cela 2 fois par hertz.
    Le reste étant du marketing, 200 * 4 * 2 nous donnant une magnifique barrette commercial à 1600 Mhz/s :]
    Comme indiqué c'est une PC12800, soit 12 800 Mo/s, bref 12,8 Go/s, même pas besoin de calculer, c'est donné !
    Pour les irréductibles du syndrome octet/bit, ça fait 102,4 Gbit/s et non pas "au mieux" 20 Gbit/s.
    En plus, qui a encore un PC en mono channel sérieux ???
    Tout le monde à un dual, voire quad channels, on va faire nos bourrins et dire qu'on peut directement multiplier.
    Donc 25,6 Go/s (204,8 Mbit/s) en dual, 51,2 Go/s (409,6 Mbit/s) en quad.
    Svp, je parle de channel, pas de core, me sortez pas j'ai un octo-core, je peux monter à plus de 100 Go/s !

    Bon, tout ça c'est de la théorie bien sur.
    Déjà on peut atteindre ce débit que sur du séquentiel, on gros la barrette ne doit que écrire les données télécharger et faire strictement rien d'autre.
    En vrai,on peux déjà virer 10% du débit juste par ce que la ram à besoin de rafraîchir les données pour pas les oublier, oui une barrette à Alzheimer plusieurs centaines de millions de fois par secondes, ça craint !
    Ensuite notre PC fait toujours quelque chose, donc ça coupe la séquence, et on perde encore en perf, c'est du genre il me faut 15 fois plus de temps pour aller chercher 2 données dans des zone différentes que collées l'une à l'autre.
    Au passage je trouve ça amusant quand SDRAM veux dire "Synchronous Dynamic Random Access Memory", alias "mémoire dynamique synchrone à accès aléatoire".
    Ce terme veux juste dire qu'on a une performance identique peut importe le type d'accès, haha la blague, ça a seulement été vrai en labo avant la commercialisation.

    Pour finir avec notre barrette, tout nos chiffres sont bidons
    Vous croyez que la donnée arrive par magie dans la ram ? et on en fait quoi ensuite ?
    Bref, la donnée arrive, le système la place dans la ram, 1 accès en écriture donc, le tout est filé à notre programme qui va direct recopier la donnée, donc un accès en lecture, et un autre en écriture pour copier.
    Puis on va la placer sur le disques dure par exemple cette donnée, donc, on relie la ram, accès en lecture, et on demande à l'os de mettre ça sur le disque dur.
    Mais notre Os, il va surtout mettre tout ça en ram et écouler ça tranquillement (j'exagère pas mal là), et quand il écoule, il lit à nouveau la ram.
    Bref, 6 accès en tout, en considérant qu'il ne ce passe que ça, c'est presque jamais le cas
    Donc vous reprenez tout mes chiffres, vous divisez par 6, vous enlevé bien 20%, et vous aurez ce que peut encaisser votre ram sur un pc bien vierge et un logiciel de récpetion-copie juste parfait.
    Au pire on est à 1,7 Go/s sur un PC mono-channel, soit encore 13,65 Gbit/s. C'est bon ça devrait le faire.
    Dans la pratique, c'est le processeur qui va saturer, à cause d'histoire d’interruption, vais pas vous faire un cour d'électronique non plus.
    D'autre me dirons que le disque durs va pas suivre, c'est pas faut même sur du pur séquentiel on arrive à du 200 Mo/s (1,6 Gbit/s) sur de bonnes densités, soit toujours bien plus que notre ftth de référence, même si encore une fois, c'est seulement si l'on fait réellement que ça.

    Bon, j'ai été bien chiant, je suis content de moi, ça a du bien compléter depuis que j'ai commencé à écrire
    Libre à vous de me démonter sur les fautes, j'ai que partiellement relu, c'est trop long.
    Tu as fait une erreur d'unité, un brin n'a pas une capacité de 100Mb/s, mais de 100Gb/s.
    Sa bande-passante est donc mille fois supérieure à ce que tu annonces.
    (Ou comment démonter un énorme paragraphe bien construit en une phrase).

  18. #18
    Modérateur

    Citation Envoyé par benjani13 Voir le message
    Tiens, justement je m'étais déjà interrogé là dessus. On ne parle jamais de consommation réel du débit, en comptant les multiples en têtes des couches réseaux, gestion des sessions TCP, sans compter la redondance de données du à la perte de paquets. Quelqu'un aurait des infos là dessus? Ce serait intéressant d'avoir le pourcentage de débit d'information (le message qu'on veut envoyer) comparé au débit de donnée brut (dans le tuyaux).
    Encore faut-il, au départ, se mettre d'accord sur le terme "consommation réelle". S'il s'agit du débit réel moyen comparé au débit annoncé, évidemment qu'il est plus faible. Le débit annoncé est le débit maximum que peut supporter le média. Comme ça a été dit, non seulement on n'est pas forcément au débit maximum en permanence, mais en plus on ne transfère pas en permanence non plus. Donc avec le vide, le débit réel moyen diminue.

    Mais tu parle d’entêtes, de couches, etc... Tu veux donc surement comparer le ratio des données utilisables (payload) par rapport aux données qui transitent.
    Là encore, il faut définir cette notion de payload. Si on reprend le modèle OSI, en partant de la couche supérieure, on se rend compte que tout le trafic d'une couche, donc payload + entêtes + contrôles +etc est en fait juste le payload de la couche inférieure.
    Il faut donc se mettre d'accord de là ou on ne parle plus que de payload, sans en décortiquer le contenu.

    Tout ça se calcule, mais doit être calculé au cas par cas, en fonction des données, des protocoles, etc ...

    Sinon, on travaille avec des estimations empiriques. Par exemple, pour un transfert de fichier relativement important sur un réseau, si on fait un ration entre le nombres de bits transférés sur le média et le nombre d'octets constituant le fichier, on est relativement souvent dans un ration de l'ordre de 10 à 12. C'est à dire que pour une connexion à 20Mb/s, on verra un transfert au niveau du fichier de l'ordre de 1,6 à 2Mo/s.
    C'est approximatif mais ça permet une première estimation relativement rapidement.
    --- Sevyc64 ---

    Parce que le partage est notre force, la connaissance sera notre victoire

###raw>template_hook.ano_emploi###