Overview
Quais serão suas principais entregas?
- Criação e manutenção de pipeline de dados para o Lakehouse;
- Análise e visualização de dados para Business Intelligence;
- Criação e implantação de modelos de Machine Learning;
- Processamento distribuído utilizando ferramentas de Big Data.
O que estamos buscando em você!
- Experiência de programação, principalmento com Pyhton;
- Conhecimento em estrutura de dados, algoritmos, orientação à objetos e padrões de projeto;
- Experiência com bancos NoSQL;
- Experiência com ferramentas de processamento de streaming;
- Experiência com Airflow ou outra ferramenta de workflow;
- Experiência com AWS (EMR, SageMaker, Athena, Glue, S3);
- Experiência com Spark;
- Experiência com TensorFlow;
- Experiência com Linux, Git e Docker;
- Inglês intermediário.