Hadoop é uma estrutura de código aberto que permite armazenar e processar big data em um ambiente distribuído em clusters de computadores usando modelos de programação simples. Ele foi projetado para ser dimensionado de servidores únicos a milhares de máquinas, cada uma oferecendo computação e armazenamento local.
Este breve tutorial fornece uma introdução rápida ao Big Data, algoritmo MapReduce e Hadoop Distributed File System.
Este tutorial foi preparado para profissionais que desejam aprender os fundamentos de Big Data Analytics usando Hadoop Framework e se tornar um Hadoop Developer. Profissionais de software, profissionais de análise e desenvolvedores de ETL são os principais beneficiários deste curso.
Antes de prosseguir com este tutorial, presumimos que você tenha experiência anterior com Core Java, conceitos de banco de dados e qualquer um dos tipos de sistema operacional Linux.