Overview

Quais serão suas principais entregas?

  • Criação e manutenção de pipeline de dados para o Lakehouse;
  • Análise e visualização de dados para Business Intelligence;
  • Criação e implantação de modelos de Machine Learning;
  • Processamento distribuído utilizando ferramentas de Big Data.

O que estamos buscando em você!

  • Experiência de programação, principalmento com Pyhton;
  • Conhecimento em estrutura de dados, algoritmos, orientação à objetos e padrões de projeto;
  • Experiência com bancos NoSQL;
  • Experiência com ferramentas de processamento de streaming;
  • Experiência com Airflow ou outra ferramenta de workflow;
  • Experiência com AWS (EMR, SageMaker, Athena, Glue, S3);
  • Experiência com Spark;
  • Experiência com TensorFlow;
  • Experiência com Linux, Git e Docker;
  • Inglês intermediário.