
Engenheiro de dados
Curitiba - PR
DESCRIÇÃO DA VAGA
A Ademicon é mais do que uma empresa: é uma marca que realiza!
Planejamos não só a conquista dos clientes, mas também a carreira de quem quer ser especialista no que faz. Aqui, as portas estão abertas para você mostrar seu talento não só para nós, mas para TODOS!
Somos uma empresa líder em consórcio há mais de 30 anos, que olha para frente e está à procura de profissionais que queiram conquistar ainda mais.
Nossa expansão vem tomando forma pelo mundo inteiro, com mais de 200 unidades de negócio, mais de 5000 consultores e licenciados, e um time corporativo com mais de 350 colaboradores. Em 2024, a companhia conseguiu atingir a incrível marca de +84 bilhões em créditos comercializados e +295 mil clientes atendidos.
Mas esses números só são possíveis com a nossa gente, que faz a marca acontecer e leva adiante tudo o que acreditamos. E, claro, acreditamos em VOCÊ!
Venha fazer parte deste time e dê o primeiro passo para o seu futuro de sucesso.
Responsabilidades
Construção e Manutenção de Pipelines (ETL/ELT): Desenvolver, implantar e gerenciar pipelines de dados robustos, escaláveis e automatizados para coletar, transformar e carregar dados de diversas fontes para o nosso Data Lake.
- Ingestão de Dados via APIs: Projetar e implementar processos de coleta de dados de fontes externas, principalmente via APIs REST/SOAP, garantindo a correta extração e armazenamento dos dados no Amazon S3.
- Infraestrutura como Código (IaC): Gerenciar e provisionar toda a infraestrutura de dados na AWS utilizando Terraform, garantindo um ambiente versionado, reprodutível, seguro e otimizado para custos.
- Modelagem e Materialização de Dados: Atuar em colaboração direta com os Analistas de BI para entender suas necessidades, modelar e materializar tabelas otimizadas (views, tabelas fato/dimensão, agregações) utilizando AWS Glue e SQL.
- Automação e Orquestração: Criar e gerenciar automações e fluxos de trabalho (workflows) para os pipelines de dados, utilizando serviços como Glue workflow, AWS Step Functions, Lambda ou orquestradores de mercado.
Requisitos:
- Cloud AWS (Core): Profundo conhecimento no ecossistema de dados da AWS, principalmente em S3, AWS Glue (Spark/ETL), Lambda, Step Functions, IAM e Athena.
- Infraestrutura como Código (IaC): Experiência sólida e comprovada com Terraform para provisionamento e gestão de infraestrutura na AWS. É um diferencial.
- Programação: Proficiência em Python para desenvolvimento de pipelines, automações e integrações com APIs (utilizando bibliotecas como Pandas, Boto3, Requests, etc.).
- Processamento de Dados e SQL: Sólidos conhecimentos em SQL para modelagem e transformação de dados. Experiência com Spark (PySpark) é um grande diferencial.
- Resolução de Problemas de Engenharia: Capacidade de analisar problemas complexos em sistemas distribuídos, identificar a causa raiz e implementar soluções robustas.
- Colaboração e Comunicação Técnica: Habilidade de se comunicar de forma clara com os Analistas de BI e de Negócios, traduzindo suas necessidades em requisitos técnicos eficazes.
- Mentalidade de Automação: Pensamento focado em automação para eliminar tarefas manuais, reduzir erros e construir sistemas resilientes e escaláveis.
- Senso de Dono (Ownership): Assumir total responsabilidade pela infraestrutura e pelos pipelines de dados, garantindo que funcionem de forma confiável e eficiente.
- Organização e Documentação: Disciplina para manter a documentação da infraestrutura e dos processos de dados sempre atualizada.
- Formação superior em andamento ou completa em Ciência da Computação, Engenharias ou áreas correlatas de tecnologia.
Benefícios
- Adiantamento de salário
- Assistência médica
- Assistência odontológica
- Cesta de natal
- PLR
- Seguro de vida
- Vale combustível
- Vale refeição
- Vale transporte
- Vale alimentação
- Plano de carreira
INFORMAÇÕES ADICIONAIS
Contrato: CLT