Bonjour tout le monde,
J'ai un programme parallèle à mémoire partagée écrit en C++ et je voudrai savoir comment migrer ce programme là vers l'infrastructure distribuée Hadoop ou Spark et si c'est possible de le faire.
Merci de me répondre
Bonjour tout le monde,
J'ai un programme parallèle à mémoire partagée écrit en C++ et je voudrai savoir comment migrer ce programme là vers l'infrastructure distribuée Hadoop ou Spark et si c'est possible de le faire.
Merci de me répondre
En general Hadoop va distribuer tes jobs a X workers (x etant le nombre de noeuds de ton cluster). Tout est isole, et les jobs ne communiquent pas entre eux. Donc le partage de resources entre jobs n'existe pas nativement.
Il existe cependant une solution avec Spark : Apache Ignite, qui permet d'avoir une couche partagee. Mais cela t'oblige a utiliser Spark...
Less Is More
Pensez à utiliser les boutons , et les balises code
Desole pour l'absence d'accents, clavier US oblige
Celui qui pense qu'un professionnel coute cher n'a aucune idee de ce que peut lui couter un incompetent.
Vous avez un bloqueur de publicités installé.
Le Club Developpez.com n'affiche que des publicités IT, discrètes et non intrusives.
Afin que nous puissions continuer à vous fournir gratuitement du contenu de qualité, merci de nous soutenir en désactivant votre bloqueur de publicités sur Developpez.com.
Partager