Formação Acadêmica e Certificações: Idealmente, o profissional deve ter uma formação em Ciência da Computação, Engenharia de Software, Análise de Sistemas ou áreas relacionadas. Certificações em tecnologias de big data e gerenciamento de dados, como as oferecidas pela AWS, Microsoft Azure, ou Google Cloud, são um grande diferencial.
Experiência com Tecnologias de Data Warehouse e Data Lake: Experiência prática na construção e manutenção de data warehouses e data lakes, utilizando plataformas como Amazon Redshift, Google BigQuery, Snowflake, ou Hadoop.
Conhecimento em Modelagem de Dados: Habilidade em modelar dados tanto para data warehouses (modelos dimensionais) quanto para data lakes (modelos de dados não estruturados ou semi-estruturados).
Competências em etl/elt: experiência com ferramentas e técnicas de etl (extract, transform, load) e elt (extract, load, transform), cruciais para a integração de dados.
Habilidades de Programação: Proficiência em linguagens de programação como SQL, Python, Java, ou Scala, que são comumente usadas em ambientes de big data.
Conhecimento em Governança e Segurança de Dados: Compreensão das práticas de governança de dados e experiência na implementação de medidas de segurança para proteger os dados.
Experiência com Analytics e Business Intelligence (BI): Capacidade de integrar o data warehouse e data lake com ferramentas de BI e analytics, para permitir análises avançadas e tomada de decisões baseadas em dados.
Profissional vai atuar desenvolvendo da estrutura e coleta de dados gerados pela aplicação em desenvolvimento, trata-se de uma ferramenta de apoia a avaliação de aprendizagem com elementos de IA integrados e captação de vídeos de provas práticas.
A contratação será por 6 meses e não exigirá dedicação exclusiva, mas a depender do acorda com os BOs e Lider Técnico.
Apresentação Hiplade 01
https://youtu.be/cIANxef_o-o
Apresentação Hiplade 02
https://youtu.be/h119gZiOpr0
Duração do projeto De 3 a 6 meses