Au même titre que l'architecture en tiers est un support de base pour les solutions conventionnelles, le concept de Data Lake permet la réalisation d'une application Big Data dans les règles de l'art. Imaginez, vous qui nous lisez, que vous souhaitiez intégrer dans un tout cohérent votre cluster Hadoop, une base (HBase, disons), des outils pour importer des bases, des traitements conséquents, voire du Machine Learning, et bien sûr, de quoi accéder à vos résultats. Comment faire ? C'est précisément le but de ce tutoriel.
Partager