Bonjour
J'ai une question sur Hadoop. J'ai en tête l'idée d'analyser des données en ligne en utilisant Hadoop et en parallélisant les tâches. En gros, je voudrais uploader un dossier comprenant plein de fichiers, les envoyer vers divers ordinateurs pour analyse (en utilisant Amazon Web Service par exemple), où chaque ordinateurs exécutera une tâche, puis récupérer les données. Là où je voudrais votre opinion, c'est que la tâche à accomplir n'est pas juste compter des mots, mais exécuter un fit relativement complexe des données. En gros, je veux utiliser Hadoop pour des faire des maths(une tâche complexe sur plusieurs milliers de lignes de code) sur plein de données. Est-ce une bonne idée? Est-ce possible d'implémenter ce genre de tâches en utilisant Hadoop, où est-ce que vous avez des alternatives plus adaptées à mon problème? D'autres idées?
Merci pour votre aide!
Partager