- O Associado Sênior Em Análise de Dados será responsável por implementar técnicas avançadas de data analytics para extrair informações essenciais dos dados gerados no departamento de Logística. A missão inclui a análise criteriosa das interações dos clientes, fornecendo insights estratégicos para a tomada de decisões e a otimização de processos.
- Captura de Dados via API: capturará dados de sistemas legados utilizando APIs, garantindo uma coleta eficiente e precisa.
- Inserção de Dados no Data Warehouse: Será responsável por inserir os dados capturados nos servidores de Dados (DW) da empresa, assegurando a correta organização e armazenamento.
- Monitoramento de Processos ETL: Deverá realizar a monitoria constante de todos os processos de ETL, identificando e resolvendo quaisquer problemas que surjam.
- Manutenção de Bancos de Dados: Manterá e gerenciará os bancos de Dados, garantindo seu desempenho otimizado e segurança.
- Integridade das APIs: Assegurará a integridade e a funcionalidade contínua das APIs existentes.
- Desenvolvimento de Plataformas Full-Stack: Desenvolverá plataformas completas, abrangendo tanto o frontend quanto o backend, incluindo bancos de Dados, servidores e clientes.
- Levantamento de Requisitos: Será responsável por levantar requisitos abrangendo regras de negócio, necessidades de infraestrutura e requisitos dos usuários.
- Definição e Planejamento de Escopo de Projeto: Será parte responsável nos projetos do time de DATA com foco em criar soluções para os times operacionais.
- Planejamento de Arquitetura de Software: Planejará a arquitetura de software mais adequada para cada projeto.
- Organização de Ambientes de Desenvolvimento: Organizará os ambientes de desenvolvimento, homologação e produção.
- Versionamento de Código com Git e Gitlab: Realizará o versionamento de código utilizando Git e Gitlab.
- Integração de Pipelines CI/CD: Será responsável pela integração e gestão de pipelines de integração contínua e entrega contínua (CI/CD).
- Gestão de Workflow com Gitflow: Administrará o fluxo de trabalho e organização de features utilizando o modelo Gitflow.
- Desenvolvimento de Interfaces Web (Frontend): Desenvolverá interfaces web utilizando React JS ou frameworks similares.
- Desenvolvimento de API REST (Backend): Criará APIs RESTful utilizando frameworks modernos como Express e seus middlewares.
- Gerenciamento de Pacotes: Gerenciará pacotes e injeção de dependências utilizando ferramentas como npm ou yarn.
- Gestão de Serviços com Docker: Construirá, derrubará, subirá e deletará serviços utilizando Docker e Docker Compose.
- Criação e Configuração de Bancos de Dados SQL e NoSQL: Criará e configurará bancos de Dados, tanto SQL quanto NoSQL, incluindo a modelagem e estruturação de Dados.
- Modelagem de Fluxo de Requisições HTTP: Modelará fluxos de requisições HTTP utilizando todos os verbos de forma apropriada.
- Alinhamento de Fluxo de Dados com Pipelines de Dados: Alinhará o fluxo de Dados com pipelines de processamento batch e streaming em colaboração com o engenheiro de Dados.
Inglês - Nível Intermediário
:- Ensino superior cursando ou completo ( Matemática, Estatística, Análise de Sistemas ou áreas exatas)
- Python, ETL, Apache Airflow, MongoDB, Linux (Ubuntu), Docker, Postgresql, Pentaho, GO (desejável), JS