Tutoriel Apache Flume
Flume est un outil standard, simple, robuste, flexible et extensible pour l'ingestion de données de divers producteurs de données (serveurs Web) dans Hadoop. Dans ce tutoriel, nous utiliserons un exemple simple et illustratif pour expliquer les bases d'Apache Flume et comment l'utiliser dans la pratique.
Ce didacticiel est destiné à tous les professionnels qui souhaitent apprendre le processus de transfert des données de journal et de diffusion en continu de divers serveurs Web vers HDFS ou HBase à l'aide d'Apache Flume.
Pour tirer le meilleur parti de ce didacticiel, vous devez avoir une bonne compréhension des bases des commandes Hadoop et HDFS.