Et tu as effectivement mis le doigt dessus sans le vouloir: c'est irréaliste.
On est bien d'accord: c'est pourquoi je veux recadrer cette discussion autour de son titre :le jeu par Cloud computing ne passe pas par ces histoires de video compressée, mais par la gestion complète des ordres GPU par un serveur. Il y avait bien d'autres choses que Onlive à la Games Convention Online. La phrase citée de raptor s'applique aussi bien au "Direct3D 10.1 Command Remoting" qu'à Onlive.
- Il faut installer le jeu en local avant d'y jouer
oui, comme il faut installer un browser. C'est simplement un problème de standard. DXGI 1.1 est un pas dans cette direction, il n'est pas bien difficile d'imaginer un "browser de jeu DXGI1.1" sur lequel n'importe quel jeu pourrait s'exécuter.
- plus possible aux éditeurs de s'assurer de l'absence de piratage (le seul truc qui les motive, eux, pour info)
au contraire, ça résoud complètement ce problème.
- besoin d'upgrade hardware régulier côté client puisque -au delà de la partie 3D- il faudra bien faire tourner le reste en local.
Besoins minimaux hors GPU. Pour vous donner une idée, dans un système réel similaire dans son principe bien que basé sur du P2P, on dépense 474W dans les GPUs, 4W dans l'équivalent CPU (en fait un système propriétaire bien moins puissant qu'un CPU, mais largement capable d'étouffer un GPU), et presque 1W dans la partie de FPGA qui s'occupe de la liaison ETH. Cela veut dire que le coté client ne paie que pour la qualité du graphisme qu'il veut avoir en local, pas pour le reste. Le "reste en local", c'est presque rien, peut-être 5W avec des Atom.
- des besoins en bande passante totalement irréalistes pour des connexions WAN (ou alors on parle des 0.00001% de la population qui ont un accès Gigabit chez eux, et encore).
Absolument pas. Le débit passant sur le PCIe est pratiquement nul en dehors des cas que j'explique en détail au dessus (VB, IB, textures, qui sont dès aujourd'hui gérés par les MMOs en termes de débit).
Pour en revenir à l'argument du "vécu" du joueur, il est évident, mais d'une part il saute complètement si les jeux sont modifiés (mon argument ci-dessus, où Turbine a changé son principe de MMO à latence de FPS pour un MMO à latence du genre WoW, et rencontré le succès), et d'autre part et surtout, la qualité de la perception locale s'est considérablement améliorée ces dix dernières années. En particulier, pour adapter localement et en temps REEL (je parle même pas de 50 ms, mais plutôt de la latence de PCIe) le rendu calculé par le serveur, il suffit de mettre à jour exactement 64 ou 128 octets au travers du bus PCIe pour une expérience utilisateur parfaite. Il y a déjà des outils CAO collaboratifs qui permettent des mouvements instantanés en local, ce n'est qu'une question de temps que ça arrive dans le domaine du jeu. Le flux remontant permet au serveur de lisser le résultat et d'assurer une perception cohérente sur l'horizon 300 ms, avec un retour instantané sur tous les mouvements locaux se combinant naturellement à l'affichage (caméra, déplacement, etc.) et suffisamment rapide (de type MMO) pour tout ce qui ne relève pas de la jouabilité de FPS (IHM).
Je pense que vous confondez la perception locale du joueur et la cohérence en multijoueur. Dans le cadre multijoueur, calculer les ordres GPU sur un serveur ou en local ne change pas le problème de cohérence inter-joueur: l'argument est neutre.
Par ailleurs, vous parlez sans arrêt de "rendu sur le serveur"... vous avez bien compris que le rendu est fait sur le client? Seuls les ordres de rendu sont faits sur le serveur. Pensez en termes de fichier PIX... On est bien d'accord que dérouler un PIX par internet n'est pas bien difficile, n'est-ce pas? Alors quelle est la différence entre ça et ce que propose Microsoft dans Windows 7?
Partager