¿Quiénes somos?
Somos una empresa mexicana especialista en logística y mensajería, tenemos presencia a nivel nacional, latam y EEUU; hemos tenido un crecimiento exponencial y sabemos que la tecnología es parte esencia para ser líderes, por ello, buscamos para nuestras oficinas en CDMX Arquitecto o Especialista de Datos para diseño de arquitectura, almacenamiento y consumo de datos.
Con nosotros tendrás la oportunidad de:Proponer, desarrollar y administrar proyectos de análisis y explotación de datos a nivel global.Libertad operativa para el diseño de arquitectura de datos, apego a mejores prácticas y tecnologías.Oportunidad de desarrollo real y estabilidad personal y profesional.Integración con equipos multiculturales en EEUU y Latam.
Relacionamiento con proveedores globales.
¿Por qué nosotros?
Nos centramos en las personas, la calidad y balance de vida es importante para nosotros; contamos con programas de desarrollo, formación, dinámicas de integración, muy buen ambiente de trabajo y retos para llevar tu potencial al máximo, nuestra propuesta incluye: Ingreso: de 50,000 a 55,000 pesos libres (nominal directo con nosotros) paquete de beneficios ley, vales, caja y fondo de ahorro, seguro de vida, bonos, 30 días de aguinaldo.Horario: de lunes a viernes de 8:30 a 6:00 p.m. Esquema Híbrido.Zona de trabajo: Hipódromo Condesa, Cuauhtémoc (5 minutos del Metro Juan Acatlán Línea 1 Rosa).
¿Qué buscamos?
2 a 3 años de experiencia como: especialista de datos, arquitecto de datos, data Specialist, data Architect, ingeniero de datos sr, senior data engineer.Adecuado conocimiento en análisis de requerimientos, amplio análisis de fuentes de Información, métricas y reglas de negocio.
Estimación de esfuerzo y planificación de tareas.2 a 3 años en diseño, modelado y arquitectura de datos con Erwin, SQL Power Architect, IBM Infosphere Data Architect, SAP Power Designer con framework DAMA.
Apego a referencias de DMBOK.2 años de experiencia en diseño de almacenamiento y consumo de datos (DWH Star o Snowflake) en plataformas cloud como GCP (Big Query, Dataproc, Storage) Azure (Databricks, Datalake Storage), AWS.Conocimiento de Herramientas ETL: Pentaho, Microsoft SSIS (Integration Services), AWS Matillion (Red Shift).Uso de plataformas Big Data: Hadoop (y ecosistema Hadoop, como HBase, Hive, Spark), Apache Kafka, Apache Spark2 a 3 años de experiencia en programación con Python, Scala, Java SQL DeveloperExperiencia en gestión de Bases de Datos SQL (MySQL, SQL Server, Oracle) y NoSQL (Mongo, Cassandra, Dynamo) Stored Procedures, Joins, CTEs).Muy deseable experiencia en sector logístico.