Ton probleme c est internet. Pas le cloud.
Le lancement raté du Galaxy Note 7
Le piratage d'un demi milliard de comptes Yahoo
La perte de la sonde Mars causée par une erreur de conversion
La perte de 440 millions de dollars en 30 mn du Knight Capital Group
L'explosion de la fusée Ariane causée par une erreur de conversion
L'impression de milliers de capsules gagnantes par Pepsi
Le rappel de 4,1 millions de batteries Dell défaillantes
La fausse alerte déclenchée par l'alarme nucléaire soviétique
Le crash du réseau AT&T
La perte de 1,1 milliards causée par des bugs du système CSA UK
Autres, à préciser dans les commentaires
Je n'ai pas d'avis
Ton probleme c est internet. Pas le cloud.
Les 4 règles d'airain du développement informatique sont, d'après Michael C. Kasten :
1)on ne peut pas établir un chiffrage tant qu'on a pas finalisé la conception
2)on ne peut pas finaliser la conception tant qu'on a pas complètement compris toutes les exigences
3)le temps de comprendre toutes les exigences, le projet est terminé
4)le temps de terminer le projet, les exigences ont changé
Et le serment de non-allégiance :
Je promets de n’exclure aucune idée sur la base de sa source mais de donner toute la considération nécessaire aux idées de toutes les écoles ou lignes de pensées afin de trouver celle qui est la mieux adaptée à une situation donnée.
Mais le problème est le même avec tous les réseaux. Je parle du Web parce qu'aujourd'hui c'est ça qu'on voit le plus et nous inonde le plus.
Partout on on s’appuie sur un réseau (couteux à mettre en œuvre, exposé à vent et marrée donc fragile) pour faire quelque chose d’instantané qui n'a pas besoin de ce réseau on est dans l'erreur je pense. la fiabilisation et la montée en qualité de ces infrastructures là repose sur des couts, des risques et des compétences disproportionnées avec les besoins dans beaucoup de cas.
Un exemple tout con ou on ne parle pas d'internet. Des machines outils. Elle on une commande numérique qui lit des programmes on branche ces machines sur le réseau informatique de la boite pour que les programmes, très précieux, soient sauvegardés comme il se doit, OK. Pour éviter d'avoir des doublons et autres problèmes de version on ne stocke pas en local les programmes et tout est centralisé sur le serveur.
Bam mercredi, panne du réseau (serveur, réseau on s'en moque), la machine n'arrive pas à joindre le serveur, elle n'a pas de programme à exécuter et ne peut pas produire. D'un point de vue SI la logique de centralisation et de gestion de la sauvegarde est évidente et on a l'impression de progrès puisque tout le monde peut avoir accès à l'info sauf que
1) un programme est lié à une seule machine
2) ce qui compte c'est que la machine tourne
au final, et des le départ on ne devrait pas concevoir les programmes autre part que dans la machine avec une sauvegarde automatique sur le serveur (qui n'est plus la référence mais la sauvegarde) et une jolie procédure qui va bien pour réparer en 10s le disque dur de la machine s'il venait à lâcher.
Le cloud est pour moi encouragé par
-la facilité pour le gestionnaire du SI (s'il ne s'enferme ps dans une usine à gaz)
-Le business pour les editeurs (SAAS)
-Le business pour les vendeurs de matos (déployer de l’Ethernet industriel et des serveurs pour quelques fichiers de quelques ko entre autre)
-la maladie du tout connecté, au cas où, si jamais dés fois notre appli n'avait pas besoin d'un truc. maladie qui est entretenue par les grosses boutiques précurseurs dans le domaine qui se font des valseuses en or massif avec les données récoltées.
-quelquefois, comme les CRM pour apporter une valeur ajoutée à l'utilisateur...
allé un autre exemple pour la route
Youtube pour de la musique => 1h de vidéo avec une image fixe... mince il faudrait déployer un faisceau de fibre optique à travers l'océan, on manque de bande passante !!!, rajoutez vite un goupe électrogène, ça risque de couper !!
Il y a 10 sortes de personnes dans le monde : ceux qui comprennent le binaire et les autres
mince il faudrait déployer un faisceau de fibre optique à travers l'océan, on manque de bande passante !!!, rajoutez vite un goupe électrogène, ça risque de couper !!et tout est centralisé sur le serveur.Il y a des solutions a tous ces problemes. Et ils ne sont pas nouveau. Renseigne toi sur les nouvelles infrastructure Cloud. Publiques et privée tu verra. Je vais pas te faire un cours ici.ce qui compte c'est que la machine tourne
La haute disponibilité aportée par le cloud c'est justement la priorité pour les utilisateurs-quelquefois, comme les CRM pour apporter une valeur ajoutée à l'utilisateur...
Laisse moi deviner .. t'es un ingenieur c'est ca ?T'as fais l'unif et donc tu as la connaissance infuse.... Renseigne toi tu tombra de haut
![]()
On est d'accord le partage des ressources va effectivement permettre des redondances et tout un tas de mécanismes destinés à maintenant le service.
Mais là je ne parle pas (et je ne met pas en doute une seule seconde) les progrès des technos du cloud. je remets en cause l'usage du cloud lui même s'il n'apporte rien à l'application.
Si on gère une appli sur un serveur ultra chiadé qui se trouve physiquement sur 36 sites différents l'utilisateur final sera toujours en panne si un sapin met au sol sa ligne téléphonique devant chez lui...
De la même manière si l'application en question est gérée sur ces supers serveurs elle aura besoin coté client d'une machine "client" aussi simple soit elle.
Si l'appli n'a fondamentalement pas besoin de transmettre échanger ou collecter des données avec l'extérieur alors on la laisse sur la petite machine locale et zou, le sapin tombe et on se remet devant le feu pour bosser tranquillement, on attend que le sapin soit retirer pour reconnecter son serveur de sauvegarde ou de mise à jour et on gère ponctuellement le risque lié à la sauvegarde.
Mettre ça en réseau ou en SAAS, ne vas pas apporter de "haute disponibilité", cela va juste compliquer (d'une simple machine on passe à une machine + un réseau + un cloud) et rendre l'utilisateur dépendant d'une infrastructure qui ne lui apporte rien.
Si on reste en local dans l'entreprise (ou si on ajoute une deuxième ligne ou le satellite à la ligne sous le sapin) on va déployer un Ethernet industriel lui aussi avec redondances et compagnie pour maintenir cette "haute disponibilité" mais
1) si on considère la machine finale seule on reste plus fiable que l'ensemble du système complet (vu que la machine finale est toujours là...)
2) s'il n'y avait in facto pas besoin de centraliser ou en tous cas pas besoin de le faire avec une haute disponibilité (juste pour faire une sauvegarde par exemple) alors tout ce qui a été investi dans le réseau et le cloud haute disponibilité a été jeté par le fenêtre et demande un surcoût de maintenance et suivi à long terme.
A titre d'exemple sur un site de confiserie souhaitant passé au 4.0 avec plusieurs objectif d'optimisation de le production et des conso d’énergie le client a reçu 2 offres SAAS impliquant la mise en place de passerelles et d’échanges réseaux vers la plateforme.
-La première offre, détaillée, a été refusée par le service informatique du client parce que trop exposée à l'espionnage industriel (pas moins de 30 passerelles web interrogées à distance par la plateforme). L'offre prévoyait 60k€ de réseau informatique et passerelles avec la pose). Le matos informatique prévu est classique sans redondance, limite pas industriel.
-La seconde offre, avec pose du matos à la charge du client, a été accepté à priori par le service informatique parce qu'il y avait push sur la plateforme (pas de passerelles) mais le client a eu des devis entre 40 et 85k€ pour la pose des infrastructures dans le bâtiment (du matos domestique au matos +++).
-Pour ma part j'ai fait une proposition a 10k€ avec une RS485 et un datalogger qui push les données, gère seul les sauvegardes sur plusieurs serveurs locaux et laisse les datas propriété du client final qui peut donc changer de plateforme ou faire joujou avec Excel à volonté.
Leurs enjeux sont tels qu'ils voient déjà plus de valeur ajoutée dans la plateforme SAAS 6mois plus tard. Ils m'ont sollicité pour mettre en place un système d'analyse de donnée dédié et j'ai refilé le bébé à des collègues spécialisés là dedans qui sont en train de lui faire un système d'analyse de donnée qui calcule les trajectoires de la lune. Ces matheux passent beaucoup de temps à analyser les données, à chercher des modèles et à les tester avec les gens de prod mais le moteur de calcul tourne sur le serveur de la boite, un petit exe mis à jour le plus bêtement du monde.
Aucune data ne sort de l'usine.
Aucun matériel couteux n'a été mis en oeuvre et ne doit bénéficier d'une maintenance complexe.
Le point faible du truc c'est mon datalogger, IP67, IK07, qualifié de -25° à +75°, qui a couté 6fois moins cher à l'achat et pour lequel le client dispose d'un rechange préconfiguré sur étagère (400€)
Si on part du principe que la centralisation et externalisation est la réponse à tout alors oui le cloud est génial et progresse dans le bon sens avec ses nouvelles technos.
Si on considère que le besoin final est la priorité on remarque que la centralisation n'a pas que du bon et n'est pas du tout adaptée à toutes les applications.
Si on étudie la fiabilité d'un système, que l'on trouve des solutions super chiadées pour obtenir de la haute disponibilité mais que cela a un coût prohibitif on crée du business (ou on le bloque suivant la maturité des enjeux) mais on ne progresse pas.
PS : j'ai aussi beaucoup de temps pour causer, bloqué du dos et pas du tout motivé pour bosser :-P
Il y a 10 sortes de personnes dans le monde : ceux qui comprennent le binaire et les autres
Le fiasco healthcare.gov
Les bugs du régulateur de vitesse de la Toyota Camry (soupçonné d'avoir tué 3 personnes)
La faille Heartbleed
Le naufrage du logiciel national de paye ONP
Le Volkswagen gate
etc.
Mais bon à part ça, circulez braves devs, la techno/le code n'ont pas besoin d'être plus soignés que ça, ça coûterait trop cher![]()
Pour moi c'est la SoGé et Jerome Kerviel 5 millaird de perdus parce que les gars ont pas mis de vérification sur le fait de dépasser ou non son seuil d'investissement... La classe quoi...
un des pires desastres à venir, l'effondrement d'internet.
Une fiction? je ne pense pas. rien qu'à voir ce qui s'est passé ce week-end avec l'attaque de la société DYN ou, il y a qques semaines, avec l'attaque de la société OVH.
Combien de temps pourront nous tenir?
A la prochaine super-éruption solaire d'ampleur comparable à l'évènement de Carrington (1859), on verra ce qu'il reste des réseaux électriques et systèmes informatiques.
Pas sûr que tout le monde survive sans smartphone
Mais il y a quand même une bonne nouvelle : lorsque cela se produira, on aura un préavis de quelques heures à quelques jours entre la détection de la tempête et son arrivée sur Terre.
Entre la prédiction et la commercialisation il faut développer les technologies de fabrication adéquates, les mettre au point jusqu'à obtenir une fiabilité suffisante pour que la production soit rentable (par exemple, maîtriser l'utilisation de rayons X pour réaliser des gravures très fines de transistors, là où des ultraviolets sont trop grossiers). Je crois qu'on ne devrait pas faire un procès d'intention aux industriels sur ce point. Par ailleurs, il leur faut aussi trouver des centaines de millions de dollars pour n'implanter qu'une seule usine ; les contraintes financières pèsent aussi dans la vitesse d'apparition des nouveaux produits.
Ok sur le fond mais les contraintes sont tout autres. Le problème de la miniaturisation des transistors est que les électrons peuvent passer à travers ces derniers par effet tunnel. Sur ce coup là marsupial est dans le vrai; si Moore avait fait des recherches il aurait prédit la fin de la miniaturisation. Et puis prophétiser l'avancée technologique avec des équations pour se la jouer scientifique c'est un peut douteux...![]()
La liberté est à la sociologie ce que l'instant présent est à la physique relativiste.
La fameuse "Loi de Moore" (voire Wikipedia) :
Cette loi de Moore a été largement dépassée, et de maintes fois ré-interprétée. De plus, elle était basée sur une technologie donnée. Pour moi, cette loi de Moore a carrément été largement dépassée dans un grand nombre de domaines. Surtout que, maintenant, elle s'applique à n'importe quoi alors qu'à l'origine, il ne s'agissait que des semi-conducteurs. Aujourd'hui, on en parle aussi pour la capacité des disques durs, des CD/DVD/BlueRay, etc...La loi de Moore a été exprimée en 1965 dans le magazine Electronics (en) par Gordon E. Moore, ingénieur de Fairchild Semiconductor, un des trois fondateurs d'Intel. Constatant que la « complexité des semi-conducteurs proposés en entrée de gamme » doublait tous les ans à coût constant depuis 1959, date de leur invention, il postulait la poursuite de cette croissance (en 1965, le circuit le plus performant comportait 64 transistors). Cette augmentation exponentielle fut rapidement nommée « loi de Moore » ou, compte tenu de l'ajustement ultérieur, « première loi de Moore ».
De plus, cette loi est bien antérieure au 1998 évoqué par "marsupial". Alors, le complot Intel ???
Pierre GIRARD
C'est pas du complot.
Les technologies actuelles étaient réellement dans les cartons dans les années 90. Seulement, entre ce qui marche en laboratoire et ce qui est industrialisable, la marche est souvent longue et très laborieuse. Regardez toutes les difficultés actuelles pour industrialiser la lithographie EUV qui existe depuis au moins 20 ans dans la recherche fondamentale. En labo, on sait faire des transistor à un électron.
Donc les techno existaient, et il a fallu 15/20 ans voire bien plus pour les rentre industrialisables et pleinement rentables.
"If the revolution ain't gon' be televised
Then fuck, I'll probably miss it" - Aesop Rock
Pierre GIRARD
La physique du solide était en effet balbutiante en 1965.
Par contre, que la loi de Moore ait pu servir de métronome pour planifier la commercialisation des innovations, ça me parait pas déconnant.
"If the revolution ain't gon' be televised
Then fuck, I'll probably miss it" - Aesop Rock
Bonjour
Un autre désastre qui nous pend au nez : les attaques massives suite à un vol (ou pire) des clés privées d'un CA, permettant de faire en gros ce que l'on veut, partout où la sécurité et le cryptage des communications est primordial.
http://www.developpez.com/actu/10581...par-Qihoo-360/
V'la le bordel quand ce système de sécurité basé sur la confiance va perdre la confiance des utilisateurs (il suffira d'un buzz pour que la crainte s'empare de tout le monde), en espérant que cela arrive en douceur, avant que des boulets fassent des choses graves avec des clés privées de CA.
Et c'est sans compter les administrateurs qui fournissent un service qui est sensé être sécurisé mais qui en fait ne l'est pas !
http://www.developpez.net/forums/d16...non-securisee/
Il y a 10 sortes de personnes dans le monde : ceux qui comprennent le binaire et les autres
Vous avez un bloqueur de publicités installé.
Le Club Developpez.com n'affiche que des publicités IT, discrètes et non intrusives.
Afin que nous puissions continuer à vous fournir gratuitement du contenu de qualité, merci de nous soutenir en désactivant votre bloqueur de publicités sur Developpez.com.
Partager