Apache Flume Tutorial
Flume ist ein standardmäßiges, einfaches, robustes, flexibles und erweiterbares Tool für die Datenaufnahme von verschiedenen Datenherstellern (Webservern) in Hadoop. In diesem Tutorial werden wir anhand eines einfachen und anschaulichen Beispiels die Grundlagen von Apache Flume und deren praktische Anwendung erläutern.
Dieses Tutorial richtet sich an alle Fachleute, die den Prozess der Übertragung von Protokoll- und Streaming-Daten von verschiedenen Webservern auf HDFS oder HBase mit Apache Flume erlernen möchten.
Um dieses Tutorial optimal nutzen zu können, sollten Sie die Grundlagen von Hadoop- und HDFS-Befehlen gut verstehen.