Bonjour à tous,
J'ai développé un programme de crawling des données Web en Java. Mon objectif est de faire le même programme mais en parallèle.
Avez-vous une idée si je peux utiliser un cluster hadoop et s'il y-a éventuellement des api me permettant de bien appliquer mon programme sur des architecture distribués..
Merci d'avance
Partager