Por onde começar a estudar big data?
1- A primeira coisa que você precisa saber é ter noções de linguagem SQL para análise de dados, parece complicado mas não é, com pucos comandos você é capaz de realizar consultas bem complexas, conhecendo os fundamentos de banco de dados, estará pronto para dar o próximo passo, esse curso estará disponível gratuitamente em breve aqui na Data Quântica.
2- Agora que já sabe SQL vamos começar entendendo os Fundamentos de Big Data e Hadoop, curso gratuito também, esse curso vai te dar subsidio para entender o ecossistema hadoop quando colocarmos a mão na massa.
3 - Linux para Hadoop é fundamental, não precisa ser um grande administrador de servidores, mas precisa saber interagir com Linux de forma assertiva, isso porque todo ecossistema hadoop funciona sob o Linux.
4 - Agora sim, vamos instalar o Ecossistema Hadoop e vamos começar a trabalhar com ele, armazenar, processar e monitorar processos, o cursos de ecossistema Hadoop vai simular uma vivencia prática de como trabalhar com hadoop.
5 - Vamos para o Apache Hive agora, vamos enxergar os arquivos que temos no Ecossistema Hadoop em formato de banco de dados relacional.
6 - Até agora foi muito fácil, agora vamos precisar de um pouco mais de dedicação, vamos tratar de ETL e EL, respectivamente (Extract Transform Load) e (Extract Load), ou seja os processos de transferência de dados, existem várias formas de fazer isso, mas a forma mais flexível é utilizando uma linguagem de programação, que neste caso é sugerido o Scala.
7 - Agora que já sabe Scala, vamos adicionar alguns comandos e bibliotecas para fazermos esse ETL e EL em computação distribuída (hadoop).
Pronto, agora você está apto a Iniciar a Carreira de engenheiro de dados!
Existem mais de 500 ferramentas envolvendo o ecossistema hadoop, todos os meses traremos novos conhecimentos!
:)