Apache Spark é um cluster de computação ultrarrápido projetado para computação rápida. Ele foi construído em cima do Hadoop MapReduce e estende o modelo MapReduce para usar com eficiência mais tipos de cálculos que incluem Consultas Interativas e Processamento de Fluxo. Este é um breve tutorial que explica os fundamentos da programação do Spark Core.
Este tutorial foi preparado para profissionais que desejam aprender os fundamentos do Big Data Analytics usando o Spark Framework e se tornar um desenvolvedor Spark. Além disso, seria útil para profissionais de análise e desenvolvedores de ETL também.
Antes de prosseguir com este tutorial, presumimos que você tenha conhecimento prévio da programação Scala, dos conceitos de banco de dados e de qualquer um dos tipos de sistema operacional Linux.