Flume é uma ferramenta padrão, simples, robusta, flexível e extensível para ingestão de dados de vários produtores de dados (servidores da web) no Hadoop. Neste tutorial, usaremos um exemplo simples e ilustrativo para explicar os fundamentos do Apache Flume e como usá-lo na prática.
Este tutorial é destinado a todos os profissionais que desejam aprender o processo de transferência de dados de log e streaming de vários servidores da web para HDFS ou HBase usando Apache Flume.
Para aproveitar ao máximo este tutorial, você deve ter um bom entendimento dos princípios básicos dos comandos Hadoop e HDFS.