Tutorial de Apache Flume
Flume es una herramienta estándar, simple, robusta, flexible y extensible para la ingestión de datos de varios productores de datos (servidores web) en Hadoop. En este tutorial, usaremos un ejemplo simple e ilustrativo para explicar los conceptos básicos de Apache Flume y cómo usarlo en la práctica.
Este tutorial está destinado a todos aquellos profesionales que deseen aprender el proceso de transferencia de datos de registro y transmisión desde varios servidores web a HDFS o HBase utilizando Apache Flume.
Para aprovechar al máximo este tutorial, debe tener una buena comprensión de los conceptos básicos de los comandos de Hadoop y HDFS.