Bonjour,
Je suis appelé à faire un projet où Spark sera employé pour analyser environ 10 Go de données.
Spark, je ne le connais pas pour le moment : je vais le découvrir à cette occasion.
J'ai un acquis Java important, et un bon nombre de classes (d'objets métiers principalement, mais aussi des services de vérification de règles de gestion) sont écrits soit en POJO soit en @Service Spring. J'aimerais pouvoir continuer à les utiliser pour m'épargner un codage trop conséquent.
Au début, j'ai pensé que je pouvais tout simplement adjoindre spring-core à des traitements Spark. Mais en parcourant le web, j'ai vu que ce n'était pas la bonne pratique.
En revanche, j'ai vu plusieurs articles évoquant l'emploi de Spark au travers de Spring microservices, lui-même mis en oeuvre par Spring boot. Et cela m'a davantage plu.
J'y vois pour atout que cela logera Spark comme un fournisseur de données ou de services parmi d'autres que l'application Spring boot possèdera, avec ni plus ni moins de valeur que ses autres composants. Mais je m'interroge : mon application sera alors entièrement en Java. Et beaucoup disent sur le web : "Spark, c'est Scala.". Là, ça ne serait plus le cas : ce serait du full Java.
Quels sont les avantages et les inconvénients, selon vous, à ce que j'agisse ainsi ?
Merci !
Partager