Descripción
¡Se parte del equipo de CONTPAQi!
En CONTPAQi desarrollamos software para impulsar el crecimiento de las empresas con más de 40 años de experiência, creemos que cada colaborador es fundamental para el logro de resultados y por ende estamos comprometidos con el desarrollo y bienestar de nuestros colaboradores.
¡Somos un gran lugar para trabajar en el país! Distinguidos por GPTW y Best Place to Code, adicional somos orgullosamente una Empresa Socialmente Responsable.
Buscamos personas que tengan las habilidades en:
- Participar en las reuniones con múltiples áreas para discutir las definiciones y objetivos de proyectos
- Analizar y priorizar los requerimientos de diversas áreas.
- Responsable del desarrollo y diseño de pipelines de extracción, transformación y carga de datos
- Escribir código limpio y escalable, y aprender nuevos lenguajes para implementarlo en diversas soluciones.
- Desarrollo de aplicaciones de extracción de datos de diversos formatos como JSON, XML, PDFs, etc.
- Optimización de servicios, queries y procesos para garantizar un bajo costo tanto del sistema como operacional
- Validar la funcionalidad y seguridad de los procesos de ingeniería de datos
Los beneficios que tiene CONTPAQi para ti:
- Home office
- Prestaciones superiores a la ley como: Aguinaldo 30 días, Prima vacacional 15 días a 100% y Dias de descanso adicionales.
- Seguro de gastos médicos mayores
- Bono por cumpleaños
- Bono por home office
- Path de crecimiento
En CONTPAQi promovemos una cultura inclusiva, que busca la equidad y valora las diferentes perspectivas. Esto se traduce en género, religión, personas con discapacidad, LGBTIQ+, etnia y diversidad de experiências.
¡Súmate a nuestro equipo de corazones azules!
**Requisitos**:
Tecnologías:
- Experiência en ingeniería de datos tanto en streaming como batching (Spark, Flink, Lambdas, etc.)
- Lenguajes de programación Java / Scala, Python y SQL
- Conocimiento en Bases de datos SQL y NoSQL (Postgres, Teradata,, Cassandra, Mongo, etc.)
- Experiência con orquestadores y herramientas E(T)LT (Airbyte, Stitch, Streamsets, Airflow, etc.)
- Experiência en creación, despliegue y arquitectura de Data Lakes, DWH y Lake house y conocimiento en alguna plataforma (Clickhouse, Databricks, Snowflake, BQ, etc.)
4 years