Tutorial do Spark SQL

Apache Spark é um cluster de computação ultrarrápido projetado para computação rápida. Ele foi construído em cima do Hadoop MapReduce e estende o modelo MapReduce para usar com eficiência mais tipos de cálculos que incluem Consultas Interativas e Processamento de Fluxo. Este é um breve tutorial que explica os fundamentos da programação Spark SQL.

Este tutorial foi preparado para profissionais que desejam aprender o básico de Big Data Analytics usando o Spark Framework e se tornar um desenvolvedor Spark. Além disso, seria útil para profissionais de análise e desenvolvedores de ETL também.

Antes de prosseguir com este tutorial, presumimos que você tenha conhecimento prévio da programação Scala, dos conceitos de banco de dados e de qualquer um dos tipos de sistema operacional Linux.